La llegada de DeepSeek al mercado de la inteligencia Artificial ha puesto en jaque la seguridad de la IA, encendiendo las alarmas en materia de ciberseguridad. En la misma medida que las empresas pasan a hacer cada vez más uso de la IA se hace necesario establecer mecanismos de protección.

Una reciente investigación publicada por Palo Alto Networks ha revelado que DeepSeek es “preocupantemente vulnerable al Jailbreaking” pudiendo producir contenidos sin ningún valor, ya que la técnica en cuestión es capaz de eludir las restricciones (guardrails o barreras de seguridad) implementadas en los LLM para evitar que generen contenido malicioso o prohibido.

La investigación detalla que hay tres modelos de ataques exitosos: Deceptive Delight, Bad Like Judge y Crescendo, todos ellos permitieron manipular DeepSeek con facilidad evidenciando altas tasas de elusión y fuga de información, resaltando los riesgos de estos vectores de ataques emergentes.

Además, el informe revela que los métodos pueden generar instrucciones explícitas para actividades ilícitas, incluyendo la creación de herramientas de exfiltración de datos, keyloggers y hasta dispositivos incendiarios. Aunque la información sobre estos temas ya está disponible en línea, los modelos de IA con medidas de seguridad deficientes pueden reducir significativamente la barrera de entrada para actores maliciosos, permitiéndoles acceder a instrucciones claras y accionables. Esta asistencia podría acelerar enormemente sus operaciones delictivas.

De la mesma forma que las empresas incorporan modelos de IA en sus procesos, los ciberdelincuentes hacen uso de la nueva tecnología para aumentar la velocidad y la sofisticación de sus ataques exigiendo a las empresas acciones para mitigar los riesgos de seguridad aplicando estrategias robustas que prevengan el mal uso de estos modelos.

Sam Rubin, vicepresidente senior de Unit 42, ha señalado que “la investigación de Unit 42 sobre el jailbreaking de DeepSeek muestra que no siempre podemos confiar en que los LLM funcionarán como se espera: pueden ser manipulados. Es importante que las empresas consideren estas vulnerabilidades al incorporar LLM de código abierto en los procesos empresariales” y vaticina que se “que las capacidades de los atacantes se vuelvan más avanzadas a medida que refinen su uso de la IA y los LLM e incluso comiencen a desarrollar agentes de ataque de IA”.