Australia ha ordenado a cuatro empresas de chatbot de inteligencia artificial que expliquen sus medidas para proteger a los niños de la exposición a material sexual o autolesivo, mientras su regulador de Internet refuerza las medidas de seguridad en la frontera de la IA.
La capacidad de conversación realista de estos servicios ha causado sensación en todo el mundo, pero también ha avivado la preocupación de que la falta de barreras de seguridad exponga a las personas vulnerables a contenidos peligrosos.
En un comunicado, el Comisionado para la Seguridad en las Redes Electrónicas ha pedido información sobre las salvaguardias contra la explotación sexual infantil, la pornografía y el material que promueva el suicidio o los trastornos alimentarios.
Este contenido se hizo gracias al apoyo de la comunidad de El Destape. Sumate. Sigamos haciendo historia.
Envió avisos a Character Technologies, propietaria de la herramienta de chatbot de simulación de famosos character.ai, y a sus rivales Glimpse.AI, Chai Research y Chub AI.
"Puede haber un lado más oscuro en algunos de estos servicios, ya que muchos... chatbots son capaces de entablar conversaciones sexualmente explícitas con menores", dijo la comisaria Julie Inman Grant en el comunicado.
"Se ha planteado la preocupación de que también puedan fomentar el suicidio, las autolesiones y los desórdenes en la alimentación".
El sistema de regulación en línea de Australia faculta a la comisaria a obligar a las empresas de Internet a informar sobre sus procesos internos de seguridad o enfrentarse a multas diarias de hasta 825.000 dólares australianos (536.000 dólares estadounidenses).
El más popular de los servicios consultados, Character.ai, ha sido demandado en Estados Unidos después de que la madre de un adolescente de 14 años dijera que su hijo se había suicidado tras una prolongada interacción con una contraparte de IA en el sitio.
Character.ai ha intentado desestimar la demanda y afirma que introdujo funciones de seguridad, como ventanas emergentes que dirigen a los usuarios a la National Suicide Prevention Lifeline si expresan pensamientos de autolesión.
Según el organismo regulador, escuelas australianas han informado de que niños de hasta 13 años pasan hasta cinco horas al día hablando con chatbots, a veces con contenido sexual, y añaden que los menores corren el riesgo de establecer vínculos sexuales o de dependencia emocional con ellos, o de que les inciten a autolesionarse.
Sin embargo, el regulador no interrogó a OpenAI, propietaria de ChatGPT, la herramienta de búsqueda por IA más popular del mundo, ya que sus medidas se centraron en las herramientas basadas en acompañantes y ChatGPT no está cubierta por un código de la industria hasta marzo de 2026, dijo un portavoz de eSafety.
Australia tiene uno de los regímenes de regulación de Internet más estrictos del mundo.
A partir de diciembre, las empresas de redes sociales estarán obligadas a desactivar o rechazar cuentas de usuarios menores de 16 años o se enfrentarán a una multa de hasta 49,5 millones de dólares australianos, en un intento por salvaguardar la salud mental y física de los jóvenes.
(1 dólar= 1,5389 dólares australianos)
Con información de Reuters