Meta Platforms ha detallado sus planes para etiquetar las imágenes generadas por los servicios de inteligencia artificial (IA) de la competencia, en el marco de una iniciativa de la industria para aplicar estándares técnicos comunes que indiquen cuándo se ha creado contenido utilizando la IA.

La firma propietaria de Facebook e Instagram ha indicado en su blog que dentro de unos meses comenzará a aplicar etiquetas que informarán a los usuarios si una imagen se ha creado utilizando IA en los servicios externos gestionados por OpenAI, Microsoft, Google y otros.

La compañía ya etiqueta las imágenes publicadas en sus plataformas generadas con sus herramientas internas de IA, pero planea expandir el servicio.

Nick Clegg, presidente de Asuntos Globales de Meta Platforms, explicó que la diferencia entre contenido humano y sintético sigue difuminándose y la gente quiere saber dónde está el límite.

Clegg declara que los usuarios a menudo se encuentran por primera vez con contenido generado por IA y están interesados en tener transparencia en torno a la tecnología.

“Esta intervención es especialmente importante ya que es probable que se convierta en un espacio cada vez más conflictivo en los próximos años”, indica Clegg. “Las personas y organizaciones que pretendan engañar activamente a las personas usando contenido generado por IA buscarán formas de evitar las salvaguardas que se implementen para detectarlo”.

De hecho, algunos medios ya han indicado que las etiquetas que Meta añade en los metadatos del contenido pueden ser neutralizadas mediante procedimientos tan simples como evitar el uso directo de las imágenes, sustituyéndolas por capturas de las mismas.

Por otra parte, Clegg añade que marcar e identificar contenido de audio y vídeo generado por IA es más difícil, y que aún se están desarrollando soluciones.

Tampoco es posible etiquetar los textos escritos por plataformas como ChatGPT. Clegg reconoce en declaraciones a Reuters que “ya llegamos tarde”.