Las prácticas de seguridad de las principales empresas de inteligencia artificial, como Anthropic, OpenAI, xAI y Meta, están "muy lejos de los estándares mundiales emergentes", según una nueva edición del índice de seguridad de la inteligencia artificial del Instituto Future of Life publicado el miércoles.
Según el instituto, la evaluación de la seguridad, realizada por un grupo independiente de expertos, reveló que, mientras las empresas se apresuraban a desarrollar superinteligencia, ninguna contaba con una estrategia sólida para controlar sistemas tan avanzados.
El estudio llega en medio de una creciente preocupación pública por el impacto social de los sistemas más inteligentes que los humanos, capaces de razonar y pensar lógicamente, después de que varios casos de suicidio y autolesión se relacionaran con chatbots de inteligencia artificial.
Este contenido se hizo gracias al apoyo de la comunidad de El Destape. Sumate. Sigamos haciendo historia.
"A pesar del reciente revuelo causado por el pirateo informático y el hecho de que la inteligencia artificial lleve a la gente a la psicosis y a autolesionarse, las empresas estadounidenses de inteligencia artificial siguen estando menos reguladas que las de restauración y continúan presionando en contra de normas de seguridad vinculantes", afirma Max Tegmark, profesor del MIT y presidente de Future of Life.
La carrera de la inteligencia artificial tampoco muestra señales de ralentización y las principales empresas tecnológicas destinan cientos de miles de millones de dólares a mejorar y ampliar sus esfuerzos de aprendizaje automático.
El Instituto Future of Life es una organización sin ánimo de lucro que ha expresado su preocupación por los riesgos que las máquinas inteligentes suponen para la humanidad. Se fundó en 2014 y contó con el apoyo inicial de Elon Musk, CEO de Tesla .
En octubre, un grupo, que incluye a los científicos Geoffrey Hinton y Yoshua Bengio, pidió que se prohibiera el desarrollo de inteligencia artificial superinteligente hasta que el público lo exija y la ciencia allane un camino seguro.
Con información de Reuters
