Un organismo de defensa de derechos ciudadanos de la Unión Europea (UE) ha instado a las autoridades de la Unión a clarificar sus posiciones sobre el uso de la IA en diversos ámbitos, y ha advertido de los peligros que plantea dicha tecnología en materia de derechos fundamentales y normativa de protección de datos.

La FRA (siglas inglesas de Agencia de Derechos Fundamentales) de la Unión Europea se ha adelantado a una supervisión planeada por la UE para 2021 y ha publicado un informe en el que pone de relieve los riesgos que entraña el uso de IA en policía preventiva, diagnósticos médicos, servicios sociales y publicidad orientada.

Dicho informe se basa en entrevistas realizadas en más de 100 organizaciones públicas y privadas que usan IA.

Basándose en sus conclusiones, la FRA ha pedido a los Estados miembros de la UE, y a la propia Unión, que adopten una serie de medidas para asegurarse de que el uso de la IA en el continente sea apropiado. Así, por ejemplo, garantizar que la IA respete todos los derechos fundamentales y que las personas puedan impugnar decisiones adoptadas por dicha tecnología, realizar evaluaciones antes y durante su uso para mitigar potenciales efectos negativos, proporcionar más orientación sobre las normas de protección de datos, evaluar posibles discriminaciones y crear un sistema de supervisión eficaz.

El error humano
Michael O’Flaherty, director de la FRA, ha advertido de que la IA no es infalible. Es una creación humana y como tal está sujeta a error.
“Por ello, hay que saber cuándo se usa la IA, cómo funciona y cómo poner en cuestión las decisiones automatizadas.”

Ha añadido que la UE debe clarificar la aplicación de las normas existentes a la IA, y que las organizaciones tienen que evaluar en qué medida sus tecnologías podrían menoscabar los derechos de las personas.

Según O’Flaherty, “ahora podemos dar forma a la IA de modo que no solo respete nuestros derechos humanos y fundamentales, sino que también los proteja y los promueva”.