Firmas especializadas en IA como Anthropic y Google DeepMind han acordado una nueva ronda de compromisos encaminada al desarrollo seguro de dicha tecnología, con base en una declaración anunciada en 2023.

Los firmantes de los llamados “Compromisos para la seguridad de la IA en la frontera” son dieciséis empresas tecnológicas de América del Norte, Asia y Próximo Oriente, entre las que se hallan Meta Platforms, Mistral AI, Microsoft, OpenAI y Samsung Electronics.

Según el gobierno británico, dichos compromisos pueden entenderse como una ampliación del acuerdo de Bletchley, anunciado en la Cumbre sobre Seguridad en IA que organizó en 2023.

En el marco del nuevo acuerdo, se espera que las empresas publiquen un informe o “marco de seguridad” que explique en detalle cómo evaluar los riesgos de uso indebido de modelos avanzados de IA “por partes malintencionadas”, así como las posibilidades de medir y mitigar dichas amenazas.

Las autoridades británicas han añadido que las empresas recibirán información procedente de “actores de confianza”, entre los que se hallarán sus propios gobiernos nacionales, a fin de determinar los umbrales y normas de seguridad de la IA, que se publicarán antes de la Cumbre de Acción sobre IA que tendrá lugar en Francia en 2025.

Rishi Sunak, primer ministro del Reino Unido, entiende que los nuevos compromisos sientan “un precedente de cara a las normas mundiales de seguridad en IA, que permitirá aprovechar las ventajas de dicha tecnología transformadora”, y añade que es “algo que ocurre por primera vez en el mundo entero” que tantas empresas líderes “se avengan a unos mismos compromisos sobre seguridad en IA”.

Tom Lue, asesor jurídico y responsable de gobernanza de Google DeepMind, ha declarado que el acuerdo “contribuirá a establecer entre los principales desarrolladores buenas prácticas relevantes en materia de seguridad en IA en la frontera”.

A principios de 2024, los gobiernos de Reino Unido y Estados Unidos llegaron a un acuerdo para evaluar conjuntamente la seguridad de la IA.