La Comisión Europea insta a las grandes plataformas a implementar etiquetas para el contenido generado por IA

La Unión Europea está instando a las grandes plataformas digitales y redes sociales a implementar tecnologías y herramientas para etiquetar el contenido generado por inteligencia artificial. La solicitud se ha producido en una reunión celebrada este lunes por el grupo de trabajo del Código de buenas prácticas sobre desinformación, que incluye ya a 44 firmantes, entre los que se encuentran Meta, Twitch, Microsoft o Google.

 

El llamamiento se entiende como una medida en el marco de la lucha contra la desinformación que ejerce el organismo comunitario y busca adelantarse a la implantación de lo estipulado en la Digital Service Act. Se trata de una solicitud realizada atendiendo a la popularización de herramientas como ChatGPT o Midjourney y orientada a facilitar la distinción entre el contenido real y el artificial. 

 

 

Los chatbots avanzados como ChatGPT son capaces de crear contenido y elementos visuales complejos en cuestión de segundos. Los generadores de imágenes pueden crear imágenes auténticas de eventos que nunca ocurrieron. El software de generación de voz puede imitar la voz de una persona basándose en una muestra de unos pocos segundos«, comentó Věra Jourová, Vicepresidenta de la Comisión Europea a cargo de Valores y Transparencia. «Las nuevas tecnologías plantean nuevos desafíos también para la lucha contra la desinformación. Así que hoy les he pedido a los signatarios la creación de un punto dedicado dentro del código para abordarlo”.

 

La versión actual de dicho Código de buenas prácticas sobre desinformación no contempla la identificación y el etiquetado de deepfakes, pero la Comisión espera cambiar eso. Para ello busca trabajar en dos líneas de actuación. Por un lado, el compromiso por parte de los servicios que integran IA generativa -Bing de Microsoft o Bard de Google- para incorporar las garantías necesarias para que sus servicios no puedan ser utilizados por actores malintencionados para generar desinformación. Y por otro, la implementación de etiquetado y tecnología para reconocer el contenido generado por IA  por parte de los servicios con potencial para difundir desinformación.

 

En la rueda de prensa posterior a la reunión, Jourová señaló que dichas etiquetas para deepfakes y otro contenido generado por IA deberían ser claras y rápidas, con la intención de que los usuarios puedan comprender de inmediato que una parte del contenido que están visualizando ha sido creado por una máquina, no por una persona. Es más, a la Comisión le gustaría que la inclusión del etiquetado comenzara “inmediatamente”.

 

Con todo, a partir del próximo 25 de agosto, las grandes plataformas tecnológicas deberán identificar  imágenes, videos o audios manipulados como parte de lo establecido en el Digital Service Act, y no hacerlo podría acarrearles multas millonarias. Por otro lado, la Unión Europea está también trabajando en la Artifical Intelligence Act que, entre otras cosas, obligaría a las empresas desarrolladoras a desvelar el material original empleado en el entrenamiento de los modelos y podría incluir también normas de identificación de contenido.

 

El refuerzo de las iniciativas europeas por regular la actividad de las grandes plataformas tecnológicas y el contenido generado por inteligencia artificial tiene lugar en un contexto en el imágenes generadas por inteligencia artificial se han hecho virales, generando confusión entre los internautas. Ejemplo de ello fue la imagen del Papa ataviado supuestamente con un abrigo diseñado por Balenciaga, o la imagen que supuestamente mostraba Rosalía desnuda

.

La lucha contra este tipo de situaciones contará, ahora, con un aliado voluntario menos. Y es que a finales del mes pasado, Twitter se retiró como firmante del Código de buenas prácticas sobre desinformación. No obstante, desde el organismo comunitario recordaron que, pese al movimiento, la plataforma deberá acatar las obligaciones de la Digital Service Act.

Enlace a la fuente original