Garante, l’agence italienne chargée de la protection des données privées, a indiqué son intention de surveiller les systèmes d’IA accessibles dans le pays, après avoir rouvert à l’accès à ChatGPT.

Garante avait interdit en mars l’accès à ChatGPT et lancé une enquête portant sur de possibles violations de la législation protégeant les données. OpenAI a été forcé de procéder en conséquence à des modifications de son système d’IA générative pour se mettre en règle.

Agostino Ghiglia, membre du conseil d’administration de Garante, a indiqué à Reuters que son agence prévoyait maintenant de lancer un vaste tour d’horizon des applications liées à l’IA générative et à l’apprentissage machine, afin de « comprendre si ces nouveaux outils respectent les exigences légales liées à la protection des données et au respect de la vie privée ».

M.Ghiglia a prévenu que des enquêtes seraient lancées si nécessaire.

Afin de renforcer sa compétence concernant l’IA, Garante va recruter trois conseillers spécialisés. L’agence s’adjoint en outre le concours de juristes pour étudier un cadre légal destiné à contrer les menaces potentielles posées par une technologie en évolution accélérée.

Si Garante a pris rapidement les devants, d’autres pays étudient des mesures similaires pour examiner l’impact de l’IA générative, parmi lesquels les États-Unis et le Royaume-Uni.