La inteligencia artificial al servicio de la guerra: el uso de Claude en los ataques de EE.UU. contra Venezuela e Irán

El Pentágono reveló que usaron algunas herramientas de Inteligencia Artificial para facilitar sus operaciones en Venezuela e Irán. Sin embargo lo que no dicen es que pueden contar con errores de cálculos, factor del que ya se sospecha en los bombardeos en Medio Oriente.

10 de marzo, 2026 | 20.20

La revolución tecnológica y la disputa global por la inteligencia artificial llegó al territorio bélico: Estados Unidos confirmó que usó Claude Anthropic para las operaciones militares en Venezuela a principios de enero, y ahora también para los ataques contra Irán en Medio Oriente. La confirmación la dio el Pentágono hace un mes y generó tensiones dentro de la compañía Anthropic, cuyos directores le exigieron a la Casa Blanca y al presidente Donald Trump que dejen de usar la aplicación con fines belicistas. Además, acusaron al gobierno norteamericano de haber roto el acuerdo firmado entre el Departamento de Justicia y la compañía por 200 millones de dólares el verano pasado, en el que se pedía expresamente respetar el uso ético de la tecnología.

Anthropic es una empresa desarrolladora de inteligencia artificial creada en 2021 por un grupo de exmiembros de OpenAI, la creadora de ChatGPT, quienes abandonaron la empresa denunciando que su dirección "no prestaba suficiente atención a los riesgos de la IA", según advirtieron. Sus fundadores son los hermanos Darío y Daniela Amodei, quienes tras una carrera importante dentro de OpenAI -Darío fue vicepresidente de investigación y Daniela vicepresidente de seguridad- dieron un paso al costado por éstas mismas diferencias con la empresa y crearon su propia marca. Fueron precursores de la creación de una IA ética, responsable y regulada, una tríada de valores que no promulgan ni la Casa Blanca ni otras marcas similares.

Este proyecto lo hacemos colectivamente. Sostené a El Destape con un click acá. Sigamos haciendo historia.

SUSCRIBITE A EL DESTAPE

El Pentágono se negó a brindar detalles sobre qué uso le habría dado a Claude durante la intervención militar en Venezuela. Sólo filtraron la información genérica y generaron una ola de críticas dentro de Anthropic. Pero nada cambió. Hasta que en marzo el tema volvió a explotar al conocerse que también se usó en los bombardeos contra Irán. Esta vez, algunas fuentes revelaron -en condición de anonimato- que Claude fue combinada con Maven Smart System, una herramienta similar a la de Anthropic pero creada por la compañía Palantir, otra de las competidoras en el mercado de IA en los Estados Unidos.

Darío y Daniela Amodei, los hermanos fundadores de Claude.

Los usos de Claude en operaciones militares

Claude no es una herramienta chatbot únicamente, sino que cuenta con herramientas que van mucho más allá. Desde el punto de vista técnico, es un modelo de lenguaje avanzado (LLM) que tiene la capacidad para analizar, comprender y generar texto a partir de grandes volúmenes de información, sin límite de palabras como tienen las versiones gratuitas de ChatGPT.

"En un entorno militar no se usaría para ejecutar ataques ni controlar armamento. Su función principal sería asistir en el análisis de inteligencia, a partir del procesamiento y resumen de grandes volúmenes de información provenientes de diferentes fuentes", explicó a El Destape la especialista en inteligencia artificial Belén Ortega, quien agregó: "En lo concreto, Claude permitiría relacionar datos dispersos para detectar patrones o inconsistencias; interpretar reportes técnicos o estratégicos y generar resúmenes ejecutivos; simular escenarios posibles a partir de información disponible; y asistir en la redacción de reportes o documentos estratégicos en materia de inteligencia".

"Claude puede funcionar como un copiloto para analistas de inteligencia, ayudando a acelerar procesos que antes requerían horas o días de trabajo humano", agregó Ortega.

Pero eso no es todo. El agregado Maven Smart profundiza la capacidad de Claude como herramienta digital. Esta aplicación forma parte del Maven Project, un programa del Departamento de Defensa de Estados Unidos que fue implementado para hacer análisis por computadora de imágenes satelitales y de drones. Su función principal es identificar objetos o patrones en imágenes de vigilancia, lo que permite detectar fácilmente vehículos militares, instalaciones estratégicas, movimientos de tropas, lanzadores de misiles y barcos o aeronaves a enorme distancia. Sin embargo, a diferencia de Claude, Maven trabaja principalmente con datos visuales y sensores.

"Al combinar una plataforma como Maven con un modelo de lenguaje como Claude, se genera una cadena completa de análisis de inteligencia asistida por IA", señaló Ortega y agregó: "El flujo técnico funcionaría así: Maven analiza imágenes o sensores y detecta objetos relevantes. Una vez hecho esto los resultados se integran con otras fuentes de inteligencia y después Claude, al recibir todos estos datos juntos, interpreta el contexto, conecta información histórica y genera análisis o reportes para analistas humanos".

La ciudad de Teherán tras los bombardeos el sábado 28 de febrero.

"Antes estos procesos podían tardar días o semanas. Ahora el tiempo de análisis puede reducirse a minutos u horas", concluyó Ortega.

El límite entre la velocidad y la ética

Mientras la inteligencia artificial avanza a pasos agigantados, también lo hace a la misma velocidad la discusión ética en torno a sus usos y su alcance. Cualquiera de las IA que se basa en imágenes, como es el caso de Maven y Claude, se manejan con más probabilidad que certezas.

"Todos los sistemas de inteligencia artificial funcionan sobre probabilidades y pueden equivocarse, tanto al identificar personas o situaciones como también a guiarse por sesgos históricos con los que han sido entrenados. Además, muchas veces no es fácil entender cómo llegan a sus conclusiones, lo que plantea dudas sobre la transparencia de las decisiones", explicó a El Destape Ingrid Toppelberg, especialista en sistemas de IA.

Las sospechas en torno a las posibilidades de error surgieron especialmente tras el ataque a una escuela de niñas en Minab, en el sur de Irán, donde murieron unas 180 personas en el primer día de los ataques. Algunos especialistas señalaron que el ataque pudo ser producto de un error de correlación de datos y del uso de la inteligencia artificial de parte de las milicias norteamericanas, aunque otros analistas sostienen que fue un ataque "doble golpe", es decir, un primer misil atacó el edificio y, luego, cuando rescatistas y vecinos se acercaron al lugar para buscar y ayudar a víctimas, un segundo misil golpeó en el mismo lugar, multiplicando el número de muertos y heridos. 

 Desde la Casa Blanca no emitieron comentarios y apenas se limitaron a declarar que el caso "está bajo investigación". 

La escuela de niñas de Minab que fue volada por un ataque aéreo israelí-estadounidense.

El analista iraní Trita Parsi denunció que existen paralelismos entre los bombardeos de Gaza y los de Teherán, al señalar que Israel estaría usando IA "sin supervisión humana", hasta el punto de haber atacado aparentemente lugares como el Parque Policial de la capital iraní. Parsi afirmó que el parque nada tiene que ver con instalaciones policiales y que los identificaron como objetivo solo por contener en su nombre un término asociado al Estado, sin que nadie chequeara después la función real de esa zona.

Esa falta de supervisión, alertó Toppelberg, fortalece la pérdida del factor humano al momento de tomar determinadas decisiones. "Las IA pueden deshumanizar y al mismo tiempo normalizar la guerra. Al tomar decisiones a la distancia, basadas en datos y paneles de control, se tiende a perder conciencia y sentimiento de responsabilidad sobre decisiones de vida o muerte", agregó Toppelberg.

Las internas entre Anthropic, OpenAI y la Casa Blanca

Anthropic y el Departamento de Justicia firmaron un acuerdo por más 200 millones de dólares en noviembre de 2024, en las últimas semanas de gobierno de Joe Biden, para el uso de Claude "en actividades domésticas y reservadas del Pentágono" respetando las normas de ética y responsabilidad que desde Anthropic pregonan para el uso de su IA.

Tras la confirmación de que usaron Claude para las intervenciones en Venezuela y en Irán en los últimos dos meses, el CEO de la empresa, Darío Amodei, puso el grito en el cielo y pidió explicaciones a la Casa Blanca. Desde el entorno del presidente Trump plantearon que seguirían usando la aplicación "hasta conseguir un reemplazo". La respuesta dejó disconforme a Amodei, quien finalmente se reunió la semana pasada con el secretario de Guerra, Pete Hegseth,  para pedirle que respeten las limitaciones que desde Anthropic le solicitaran.

Pete Hegseth, secretario de Guerra de los Estados Unidos.

Sin embargo, lejos de consensuar, Hegseth amenazó a Amodei y le dijo que si no otorgaban libertad total en el uso de Claude, utilizarían la Ley de Producción de Defensa, una antigua norma de los años de la Guerra Fría, para usar la tecnología sin ningún límite en suelo estadounidense, siempre y cuando el Gobierno diga que lo hace para garantizar la seguridad nacional, una definición harto bastardeada.

La denuncia del Gobierno de los Estados Unidos contra Anthropic: "Riesgo para la cadena de suministro"

Sin una respuesta de los hermanos Amodei, desde Washington respondieron a los pocos días con la firma de un acuerdo entre el Departamento de Justicia y OpenAI, en el que la compañía sí le dio libertad total para usar su tecnología. Esto derivó en la renuncia de Caitlin Kalinowski, jefa del área de hardware de OpenAI. En su carta de despedida, Kalinowski fustigó al director ejecutivo Sam Altman y a todo el consejo de la empresa: “La IA tiene un papel importante en la seguridad nacional. Pero la vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más deliberación de la que tuvieron”.

Pero el gobierno estadounidense y el Pentágono fueron más allá y catalogaron a Anthropic como una empresa "peligrosa" e instaron al sector privado a dejar de consumir sus plataformas. El lunes pasado, Darío Amodei finalmente respondió con una denuncia al Ejecutivo norteamericano para pedir la impugnación de las acusaciones a la empresa. "No creemos que esta acción sea legalmente sólida y no vemos más opción que impugnarla en los tribunales", declaró Amodei mientras acercaba la denuncia a los tribunales de California.

La disputa entre la empresa y el Gobierno estadounidense no es inédita, pero sí desnuda la centralidad que está adquiriendo este tipo de tecnología en estos nuevos tiempos de guerra. "La IA se está convirtiendo en un elemento estructural de las capacidades tecnológicas y de disputa de los Estados, similar a lo que ocurrió con el radar, internet o los satélites en su momento", sintetizó Belén Ortega.