Polémica por el acuerdo entre Google y el Pentágono de EE.UU. por el uso de IA

Google firmó un acuerdo con el Pentágono para que sus modelos Gemini operen en redes militares clasificadas. La decisión generó protestas internas, comparaciones incómodas con el pasado y preguntas sin respuesta sobre quién controla la IA una vez desplegada.

06 de mayo, 2026 | 14.23

El contrato, valorado en USD 200 millones, permite al Departamento de Defensa utilizar la IA de Google para "cualquier propósito gubernamental lícito", con el objetivo de fortalecer la infraestructura de seguridad y ampliar la capacidad de análisis en tareas militares sensibles. Abarca tareas como planificación de misiones, análisis de inteligencia y selección de objetivos.

La historia que explica la polémica

Google ya vivió algo parecido en 2018 y cedió ante la presión interna. El movimiento llega después de que miles de empleados cuestionaron el Proyecto Maven, un programa con el que la empresa trabajó en análisis de imágenes para drones militares y que acabó generando una fuerte rebelión interna. Google no renovó ese contrato. Ocho años después, la empresa da marcha atrás en esa postura y vuelve al terreno militar, esta vez en una escala más sensible: redes clasificadas.

600 empleados en contra

La historia se repite. Más de 600 empleados enviaron una carta a Sundar Pichai instándolo a rechazar el acuerdo por el riesgo de que la IA se use en operaciones militares dañinas o difíciles de auditar. Los firmantes advierten sobre selección de blancos, vigilancia masiva y sistemas de armas con mínima supervisión humana.

El problema que Google no puede resolver

El punto más crítico no es el contrato en sí, sino lo que pasa después de firmarlo. Cuando los modelos se despliegan en redes clasificadas del gobierno, Google queda fuera del acceso de monitoreo. No puede auditar en tiempo real qué consultas se hacen, qué outputs se generan ni si el uso se ajusta a las cláusulas del contrato. Google aclaró que no podrá vetar decisiones operativas del gobierno una vez que la tecnología esté desplegada.

El antecedente de Anthropic

El acuerdo con Google surge directamente del quiebre con Anthropic. Anthropic mantuvo sus límites contra vigilancia masiva y armas autónomas, el Pentágono la catalogó como "riesgo de cadena de suministro" y Trump anunció restricciones contra la empresa. Anthropic respondió con demandas judiciales en California y Washington D.C. El mensaje para el resto del sector fue claro: quien pone condiciones éticas queda afuera.

Google eligió el camino opuesto. Junto a OpenAI, Microsoft, Amazon, Nvidia y SpaceX, forma ahora parte de la arquitectura tecnológica del Pentágono. El acuerdo con el Pentágono coloca a Google en una normalización progresiva de la relación entre el sector de la IA y la seguridad nacional estadounidense, en la que las compañías compiten no solo por contratos comerciales, sino también por presencia en los grandes programas federales.