Pesos pesados de la industria como Elon Musk, consejero delegado de Twitter, Steve Wozniak, cofundador de Apple, grupos de IA y académicos han pedido una pausa de seis meses en el desarrollo de sistemas de IA más potentes que el GPT-4 de OpenAI, y han advertido de los riesgos que el rápido avance de dicha tecnología supone para la sociedad y la humanidad entera.

En una carta abierta publicada por una organización sin ánimo de lucro llamada Future of Life Institute, más de 1.000 firmantes vinculados a los sectores tecnológico y educativo afirman que la investigación demuestra que los sistemas de IA cuya inteligencia está diseñada para competir con los seres humanos plantean graves riesgos, por lo que deben planificarse y gestionarse con el cuidado y los recursos adecuados.

Sin embargo, los firmantes señalan que esto último no se cumple, puesto que durante los últimos meses los laboratorios especializados en IA “se han enzarzado en una carrera incontrolada por desplegar y desarrollar mentes digitales cada vez más potentes, sin que nadie, ni siquiera sus creadores, pueda comprenderlas, efectuar predicciones sobre ellas ni controlarlas de manera fiable”.

Por todo ello, piden una pausa con efecto inmediato en la preparación de sistemas más potentes que la GPT-4.

En sus propias palabras, “la pausa deberá ser pública y verificable, e incluir a todos los actores clave. Si no se pudiera efectuar con rapidez, los gobiernos deberían intervenir y decretar una moratoria.”

Una carrera peligrosa
La firma de desarrollo OpenAI lanzó durante el mes de marzo un modelo de lenguaje IA llamado GPT-4. OpenAI cuenta con el respaldo de Microsoft, que está introduciendo activamente dicha tecnología en sus productos.

GPT-4 se considera una continuación de la plataforma de IA generativa ChatGPT, que acaparó titulares en todo el sector y una rápida adopción por parte de los usuarios.

Google, por su parte, se ha lanzado a competir con Microsoft mediante el desarrollo de sus propios productos de IA, tras haber brindado un significativo respaldo al desarrollador Anthropic.

Los firmantes de la carta añaden que los laboratorios y expertos en IA deberían aprovechar el período de pausa propuesto para desarrollar y aplicar al diseño y desarrollo avanzados un conjunto de protocolos de seguridad compartidos y sometidos a una rigurosa auditoría.

Aclaran que no están pidiendo una interrupción en el desarrollo de la IA en general, sino que “simplemente se dé un paso atrás en la peligrosa carrera que nos lleva a modelos de caja negra cada vez más voluminosos e impredecibles, en los que pueden surgir capacidades imprevistas”.