X introduce etiquetado para medios manipulados
La red social X, propiedad de Elon Musk, ha anunciado una nueva característica para etiquetar imágenes editadas como «manipulated media» o medios manipulados. El anuncio se realizó a través de un críptico post del propio Musk, quien compartió un mensaje de la cuenta anónima DogeDesigner, utilizada frecuentemente como proxy para introducir novedades en la plataforma.
Detalles escasos y fuentes no oficiales
Hasta el momento, los detalles sobre el funcionamiento de este sistema son limitados. DogeDesigner afirmó que la herramienta podría hacer «más difícil para los grupos de medios tradicionales difundir clips o imágenes engañosas». Sin embargo, X no ha aclarado cómo determinará qué contenido es editado, ni si incluirá imágenes retocadas con herramientas tradicionales como Adobe Photoshop.

Antecedentes: la política de Twitter antes de X
Antes de su adquisición y renombre como X, la plataforma conocida como Twitter ya etiquetaba tuits con medios manipulados, alterados de manera engañosa o fabricados como alternativa a su eliminación. En 2020, el entonces responsable de integridad del sitio, Yoel Roth, explicó que la política no se limitaba a la IA, sino que incluía «edición selectiva, recorte, ralentización, sobregrabación o manipulación de subtítulos».
Desafíos en la detección: el caso de Meta
La implementación de sistemas de etiquetado no está exenta de problemas. En 2024, Meta descubrió que su detector de IA etiquetaba incorrectamente fotografías reales con la leyenda «Made with AI», a pesar de no haber sido creadas con IA generativa. Esto ocurría porque herramientas creativas, como las de Adobe, integran funciones de IA que pueden activar los detectores. Por ejemplo, el simple recorte o la función «Generative AI Fill» para eliminar objetos provocaban el etiquetado erróneo.
«Meta actualizó su etiqueta a ‘AI info’ para no marcar directamente las imágenes como ‘Made with AI’ cuando no lo eran.»
Iniciativas de estándares: C2PA y la autenticidad del contenido
Existe un organismo de establecimiento de estándares para verificar la autenticidad y procedencia del contenido digital, conocido como C2PA (Coalition for Content Provenance and Authenticity). Iniciativas relacionadas como CAI (Content Authenticity Initiative) y Project Origin se centran en añadir metadatos de procedencia a los medios. Empresas como Microsoft, BBC, Adobe, Intel, Sony, OpenAI forman parte del comité directivo de C2PA. X no aparece actualmente listado entre sus miembros, y se desconoce si su implementación seguirá estos estándares.
Otras plataformas en la lucha contra la manipulación
- TikTok: También etiqueta contenido generado con IA.
- Servicios de streaming: Deezer y Spotify escalan iniciativas para identificar y etiquetar música con IA.
- Google Photos: Utiliza C2PA para indicar cómo se hicieron las fotos en su plataforma.
¿Qué significa para los usuarios y la propagada política?
Dado que X es un campo de juego para la propaganda política, tanto nacional como internacional, es crucial entender cómo la plataforma determinará qué es «editado» o generado por IA. Además, los usuarios deberían conocer si existe un proceso de disputa más allá de las Community Notes impulsadas por la comunidad. La falta de transparencia deja muchas preguntas sin respuesta.
La nueva característica de X llega en un momento donde la desinformación visual es una preocupación creciente, pero su éxito dependerá de la precisión y claridad de su implementación.