Meta anunció esta semana que comenzará a etiquetar las imágenes generadas por Inteligencia Artificial (IA) en Facebook e Instagram «en los próximos meses», al tiempo que pidió «normas técnicas comunes» para identificar este tipo de contenido antes de un año histórico de elecciones mundiales, justo un día después de que una junta de supervisión criticara su política «incoherente» sobre los medios manipulados.
Nick Clegg, presidente de Asuntos Globales de Meta, dijo en una entrada de blog que el gigante de las redes sociales comenzará a etiquetar las imágenes generadas por IA en Facebook, Instagram y Threads «en los próximos meses», mientras trabaja con «socios de la industria» para desarrollar estándares comunes de detección para el contenido de IA.
Meta, que incluye Facebook, Instagram, Threads y WhatsApp, ya aplica etiquetas «Imagined with AI» para las imágenes creadas con su función Meta AI, pero Clegg aseguró que Meta quiere poder etiquetar también contenidos creados por otras empresas.
El directivo explicó que las etiquetas se aplicarán a las imágenes de Adobe, Google, Microsoft, Midjourney, OpenAI y Shutterstock, ya que las empresas ejecutan «planes para añadir metadatos a las imágenes creadas por sus herramientas».
Según Clegg, las plataformas añadirán una función que permita a los usuarios marcar si el contenido está generado por IA para que pueda ser etiquetado mientras la industria trabaja en el desarrollo de las normas de detección, una función que será necesaria cuando los usuarios publiquen «contenido orgánico con un vídeo fotorrealista o audio de sonido realista» que haya sido «creado o alterado digitalmente».
Además, el ejecutivo dijo que no es posible identificar todos los contenidos generados por IA, y que la empresa «persigue una serie de opciones» para evitar que los usuarios eliminen marcadores invisibles, como marcas de agua y metadatos, que indican que el contenido está generado por IA.
«Este trabajo es especialmente importante, ya que es probable que se convierta en un espacio cada vez más adverso en los próximos años«, dijo Clegg. «Las personas y organizaciones que quieran engañar activamente a la gente con contenidos generados por IA buscarán formas de eludir las salvaguardas que se pongan en marcha para detectarlo».