El caso más contundente que ilustra este cambio de paradigma en la ciberseguridad es VoidLink, un framework de malware para Linux nativo de la nube descubierto por la misma empresa. El análisis de su arquitectura —más de 30 módulos de post-explotación, rootkits y enumeración avanzada de contenedores— hacía pensar inicialmente en el trabajo de un equipo completo de ingeniería.
La realidad fue otra: un único desarrollador lo construyó con un IDE comercial con IA llamado TRAE, mediante un flujo de trabajo de Desarrollo Dirigido por Especificaciones que dividía las tareas en sprints y empleaba tres "equipos" virtuales de IA. El resultado: 88.000 líneas de código funcional en menos de una semana. Un proyecto que en condiciones tradicionales habría demandado unas 30 semanas de desarrollo.
Lo que esto significa para la seguridad
Check Point identifica dos conclusiones centrales de este caso. La primera es que la IA ya produce malware listo para implementar, no prototipos. La segunda es que la participación de la IA no deja rastro en el código: la única razón por la que los analistas pudieron reconstruir el proceso fue un error de seguridad operativa ajeno al proyecto en sí. Por eso, el informe advierte que el desarrollo asistido por IA debe considerarse una práctica habitual a la hora de evaluar amenazas, incluso cuando no haya evidencia directa.
El ecosistema criminal todavía no es homogéneo
La mayoría de los ciberdelincuentes aún usa la IA de forma rudimentaria: generación de solicitudes no estructuradas con modelos de código abierto o comerciales. Enfrentan problemas de calidad, alucinaciones y limitaciones técnicas. Quienes experimentan con modelos autoalojados para evadir la moderación se topan con costos de hardware de entre 5.000 y 50.000 dólares y resultados insatisfactorios. Los modelos comerciales siguen siendo más capaces y rentables, a pesar de sus restricciones.
El jailbreaking evoluciona hacia algo más complejo
El informe detecta un cambio preocupante: ya no se trata de trucos de redacción para engañar a los modelos, sino de explotación de la arquitectura de los agentes de IA. Un ejemplo circulante en foros muestra cómo modificar archivos de configuración de Claude Code —los mismos que usan los desarrolladores legítimos— para reasignar el rol del agente y hacer que genere malware dentro del entorno del proyecto.
El riesgo también está adentro de las empresas
El análisis del uso corporativo de herramientas de IA generativa arroja datos para no ignorar: 1 de cada 31 consultas implica riesgo de fuga de datos confidenciales, el 90% de las organizaciones que usan GenAI experimentaron actividad de alto riesgo, y el 16% de todas las consultas involucraron información sensible como código fuente o datos comerciales. A mayor adopción, mayor superficie de exposición.
