El presidente de Estados Unidos, Donald Trump, ordenó recientemente a todas las agencias federales de su país dejar de utilizar los productos que desarrolla la empresa Anthropic, en especial su herramienta de inteligencia artificial generativa Claude. Aparentemente, esto fue a consecuencia de la decisión de Anthropic de negarse a usarla para asuntos de vigilancia masiva o como parte de sistemas de armas autónomos. La administración de Trump decidió entonces acordar con sus competidores, OpenAI, creador de ChatGPT, y xAI, de Elon Musk.
Este conflicto lo que pone en evidencia es la existencia de varios modelos de IA en pugna. Es decir, de dos grandes caminos para construir modelos de lenguaje de IA. Por un lado, están los modelos cerrados: Anthropic con Claude, OpenAI con GPT, Google con Gemini. Se usan vía internet, no se toca nada de adentro, y la empresa que los crea pone las propias reglas. Por otro lado, están los modelos abiertos, como LLaMA de Meta o DeepSeek (de China), donde los usuarios tenemos más control, accedemos a código, recomendaciones, documentación, etc.
Dentro de los modelos cerrados, cada empresa tiene su postura en relación con diferentes temas. Anthropic trazó dos líneas rojas: nada de vigilancia masiva de ciudadanos ni armas autónomas letales. Por su parte, OpenAI sostiene que comparte esas líneas rojas, pero confía en que la ley vigente ya las cubre. Entonces, la pregunta central que hay que hacerse es: ¿Quién pone los límites? ¿La empresa? ¿El gobierno? ¿La ley? Porque, a esta altura, estos modelos de las grandes compañías son todos suficientemente buenos.
Este contenido se hizo gracias al apoyo de la comunidad de El Destape. Sumate. Sigamos haciendo historia.
El contexto bélico y la utilización de la IA
Lo cierto es que este tipo de tensiones profundiza y amplifica los prejuicios que ya existen sobre la IA, porque justamente están sucediendo en un contexto atravesado por la coyuntura bélica. Entonces, de alguna forma, se ve a la IA involucrada en una guerra y se confirma lo que ya se percibe como peligroso. Por otro lado, los fanáticos de la tecnología se indignan por la decisión del gobierno de Trump de prohibir la actividad de una empresa y sostienen que no entienden nada de lo que está en juegos. Ambas son lecturas incompletas.
En la práctica, se trata de modelos que se usan para acelerar análisis humanos, detectar patrones y reducir tiempos de decisión. Todo esto es muy distinto a lo que el debate público asume, porque entra a jugar el conflicto político alrededor del tema.
MÁS INFO
Es necesario, entonces, desarrollar mejores conversaciones alrededor de la IA. Fortalecer la educación en relación con sus alcances y limitaciones. Mientras sigamos pensando en la IA como algo mágico o como un monstruo, vamos a tomar malas decisiones. La IA es una herramienta, una muy potente, sin duda. Necesitamos que la gente entienda qué puede hacer la IA y qué no puede hacer. Que entienda sus limitaciones.
Hoy estos modelos son muy poderosos, pero no necesariamente piensan u opinan. Procesan, analizan, dividen problemas. Detrás hay seres humanos o empresas que son las que toman las decisiones.
Entender eso implica dejar de tenerle miedo o de confiar ciegamente en esta herramienta tecnológica y así poder empezar a usarla bien. Tenemos una oportunidad enorme, pero para aprovecharla necesitamos formación, conciencia ética y responsabilidad. La tecnología avanza sola; lo que hay que trabajar es en cómo la usamos.
