Pornografía con Inteligencia Artificial: así funciona la nueva industria de la sextorsión

Deepfakes, perfiles falsos y amenazas digitales ya operan en el país. El algoritmo del chantaje y un negocio global que destroza a las víctimas, cada vez más jóvenes. La voz de una especialista.

23 de julio, 2025 | 13.35

El mensaje llegó un martes a las 11 de la noche. A Clara, madre soltera de Avellaneda, le temblaron las manos al ver el video. Su hijo de 15 años, desnudo, masturbándose frente a una cámara. O eso parecía. El rostro era idéntico. El cuarto también. Pero el cuerpo no coincidía. El video era falso. Un deepfake generado con inteligencia artificial a partir de las fotos del perfil de Instagram del chico. La amenaza, sin rodeos: “Si no transferís 200 mil pesos en 24 horas, el video lo ve tu familia, tus contactos y tu escuela”.

La Internet Watch Foundation (IWF) lo confirma con números contundentes: los reportes de imágenes sexuales de menores generadas por IA crecieron un 380 por ciento en un año, de 51 casos en 2023 a 245 en 2024. Y lo peor: estas imágenes son tan realistas que engañan a los ojos y destrozan a las víctimas.

El mercado de la humillación

Tras cada imagen falsa se esconde un lucrativo negocio que prospera en la oscuridad. Plataformas como Crush AI, alojadas en servidores de gigantes tecnológicos, generan hasta 36 millones de dólares anuales, según un informe de Indicator. En foros de Telegram, estas herramientas se venden como juguetes siniestros: el usuario selecciona un rostro, un cuerpo, una pose o incluso una edad, y paga con criptomonedas. La Internet Watch Foundation (IWF) identificó “guías” que enseñan a usar estas plataformas para chantajear menores, como si fueran recetas para el desastre.

El engaño sigue un guion predecible: un perfil falso en Tinder, un mensaje seductor en Instagram o una videollamada que promete intimidad. Sin embargo, tras la pantalla no hay un interés romántico, sino un delincuente grabando cada palabra y gesto. La inteligencia artificial eleva esta amenaza a un nivel perturbador: modelos de lenguaje generativo crean mensajes hiperpersonalizados que simulan la cercanía de un amigo. En 2023, una red desarticulada en Filipinas utilizaba chatbots para seducir a cientos de víctimas en Europa, grabarlas y extorsionarlas con deepfakes. “La IA actúa como un guionista que escribe tragedias a medida”, sentencia el informe de IOCTA.

En 2023, las víctimas de sextorsión en la Unión Europea pagaron más de 100 millones de euros en rescates, principalmente en Bitcoin, que asegura el anonimato de los criminales. El 30 por ciento de los casos derivó en la difusión de material explícito en foros de la dark web, donde se comercializa para nuevos chantajes o como pornografía ilegal. Los adolescentes son especialmente vulnerables: el 20 por ciento de las víctimas era menor, y los informes destacan un aumento alarmante de crisis emocionales graves, incluyendo intentos de suicidio.

El grito silenciado de las víctimas

En diálogo con la Agencia de Noticias Científicas de la Universidad Nacional de Quilmes, la psicóloga Miriam Bustamante, del Colegio Estudios Analíticos, explica: “El impacto emocional de los deepfakes en adolescentes es devastador. Los chicos están en una etapa de crisis de identidad, construyendo quiénes son y cómo quieren ser vistos. Un video falso que los expone desnudos o en situaciones humillantes puede ser profundamente perturbador. No es solo la imagen, es el odio detrás de quien la crea, con la intención clara de dañar”. Bustamante subraya la vulnerabilidad de los adolescentes: “En esta etapa, cualquier ataque a su intimidad los golpea en el núcleo de su subjetividad, justo cuando están tratando de afirmarse en un mundo adulto que aún no entienden”.

El caso de Elijah Heacock, un adolescente de 16 años de Kentucky, ilustra la gravedad de la extorsión mediante deepfakes. Elijah recibió amenazas que exigían 3 mil dólares para no difundir entre sus amigos y familiares una imagen falsa de él desnudo, generada con inteligencia artificial. Esta tragedia, reportada por el FBI, culminó en febrero de este año con el suicidio del joven, incapaz de soportar la presión.

En Argentina, los deepfakes representan un desafío para la justicia. La Ley Olimpia castiga la difusión de imágenes sexuales no consentidas como lesiones graves, con penas de hasta 20 años de prisión, pero no aborda específicamente los deepfakes, dejando a los tribunales sin herramientas claras. Por ejemplo, en el caso de la Escuela Manuel Belgrano en Córdoba, un grupo de estudiantes mayores de 18 años fue víctima de imágenes sexuales falsas generadas por IA. El fiscal enfrentó limitaciones legales, ya que el Código Penal no ofrecía opciones claras para sancionar este tipo de delitos en adultos.

Un fallo pionero en Zárate-Campana en 2025 marcó un avance al tipificar la creación de imágenes sexuales de menores generadas por IA como delito bajo el artículo 128 del Código Penal, que aborda la producción de material de abuso sexual infantil. Sin embargo, este precedente no se aplica directamente a casos con víctimas mayores de edad, perpetuando vacíos legales que dificultan la persecución de los responsables. La ausencia de una normativa específica para los deepfakes subraya la necesidad urgente de actualizar el marco legal para proteger a las víctimas y combatir esta forma de violencia digital.

Mientras tanto, las plataformas tecnológicas actúan con lentitud o desdén. Aunque Meta demandó a la empresa detrás de Crush AI por violar sus políticas, los deepfakes persisten en línea durante días o semanas antes de ser retirados, si es que se toman medidas. Los botones de “denunciar” resultan ineficaces, ofreciendo una ilusión de control mientras las empresas priorizan sus beneficios y el daño a las víctimas se agrava. Los extorsionadores, resguardados tras cuentas anónimas o servidores en el extranjero, operan con una impunidad que la justicia aún no logra desmantelar de manera efectiva.

Con todo, en el mundo digital, un píxel falso puede pesar como una montaña. Y mientras los algoritmos avanzan, las leyes y las plataformas se arrastran, dejando a las víctimas solas, enfrentando un chantaje que no necesita cuerpos reales para destruir vidas.

Con información de la Agencia de Noticias Científicas