Brad Smith, presidente y vicepresidente del consejo de Microsoft, ha intervenido en el debate ético sobre la IA con un plan de gobernanza para dicha tecnología, en el que se sostiene que los humanos deben conservar el control de los sistemas y aplicar salvaguardas en los casos en los que estos se usen en infraestructuras clave.

Smith ha escrito en el blog de la empresa que la IA, en muchos sentidos, podría ofrecer a la humanidad beneficios superiores a los de cualquier otro invento que la haya precedido, pero añade que es preciso “pensar desde el principio y con los ojos bien abiertos sobre los problemas que pueden surgir”, y recuerda que las redes sociales se han convertido tanto en un arma como en una herramienta.

“A medida que la tecnología avanza, tan importante es garantizar un control adecuado de la IA como buscar los beneficios que nos pueda ofrecer.”

Microsoft se consolida como uno de los líderes en la enconada competición en torno a la IA generativa, tras haber invertido una gran suma en el desarrollador OpenAI a fin de integrar la plataforma ChatGPT en varios de sus productos.

Smith afirma que la empresa está comprometida y decidida a desarrollar e implantar la IA de manera segura y responsable, pero añade que las salvaguardas requieren un “sentido de la responsabilidad ampliamente compartido y no deben quedar tan sólo en manos de las firmas tecnológicas”.

Control humano
Smith ha presentado un plan de cinco puntos, fundamentado en la premisa de que las empresas implantarán y desarrollarán nuevos marcos de seguridad en IA bajo la dirección de los gobiernos, y ha señalado el trabajo realizado recientemente en Estados Unidos.

En segundo lugar, deberían realizarse “pausas de seguridad” con los sistemas de IA que controlan infraestructuras clave, más específicamente cuando tienen a su cargo instalaciones tales como redes eléctricas, sistemas de abastecimiento de agua y flujos de tráfico urbano. Así mismo, habría que prever la intervención humana cuando sea necesario.

Smith también aboga por el desarrollo de un marco jurídico y normativo más amplio que parta de la arquitectura tecnológica de la IA, el fomento de la transparencia que garantice el acceso de los académicos y del público general a la IA, y la búsqueda de nuevas asociaciones público-privadas.

El directivo añade que “hay que garantizar en todo momento que la IA se halle bajo control humano. Esto último tiene que ser una prioridad de primer orden tanto para las empresas tecnológicas como para los gobiernos.”