YouTube lanza programa piloto para proteger la integridad pública frente a los deepfakes
Este martes, YouTube anunció la expansión de su tecnología de detección de similitud, diseñada para identificar deepfakes generados por inteligencia artificial, a un grupo piloto que incluye funcionarios gubernamentales, candidatos políticos y periodistas. Esta herramienta permitirá a los miembros de este grupo detectar contenido no autorizado creado con IA y solicitar su eliminación si consideran que viola las políticas de la plataforma.

Una tecnología probada que ahora protege la esfera pública
La tecnología en sí se lanzó el año pasado a aproximadamente 4 millones de creadores del Programa de Partners de YouTube, después de pruebas anteriores. Funciona de manera similar al sistema Content ID de YouTube, que detecta material protegido por derechos de autor, pero en este caso busca rostros simulados creados con herramientas de IA. Estas herramientas a veces se utilizan para difundir desinformación y manipular la percepción de la realidad, aprovechando personas deepfaked de figuras notables.
“Esta expansión se trata realmente de la integridad de la conversación pública”, dijo Leslie Miller, Vicepresidenta de Asuntos Gubernamentales y Política Pública de YouTube, en una sesión informativa. “Sabemos que los riesgos de la suplantación de identidad con IA son particularmente altos para quienes están en el espacio cívico”.
Equilibrio entre expresión libre y protección
Miller explicó que no todas las coincidencias detectadas serán eliminadas al ser solicitadas. En su lugar, YouTube evaluará cada solicitud bajo sus directrices de políticas de privacidad existentes para determinar si el contenido es parodia o crítica política, formas de expresión protegidas.

Protecciones a nivel federal y proceso para los pilot testers
La compañía señaló que también aboga por estas protecciones a nivel federal, con su apoyo a la Ley NO FAKES en Washington D.C., que regularía el uso de la IA para crear recreaciones no autorizadas de la voz y la imagen de un individuo.
Para usar la nueva herramienta, los probadores piloto elegibles deben primero verificar su identidad subiendo una selfie y una identificación oficial. Luego pueden crear un perfil, ver las coincidencias que aparecen y, opcionalmente, solicitar su eliminación.
Etiquetado y volumen de contenido eliminado
Estos videos de IA serán etiquetados como tales, pero la ubicación de estas etiquetas no es consistente. Para algunos, la etiqueta aparece en la descripción del video, mientras que los videos sobre temas más “sensibles” aplicarán la etiqueta en la parte frontal del video.
Amjad Hanif, Vicepresidente de Productos para Creadores de YouTube, explicó: “Hay mucho contenido producido con IA, pero esa distinción en realidad no es material para el contenido en sí… creo que hay un juicio sobre si es una categoría que quizás merece un descargo de responsabilidad muy visible”.

YouTube no compartió cuántas eliminaciones de estos deepfakes de IA ha gestionado la tecnología en manos de los creadores, pero señaló que la cantidad de contenido eliminado hasta ahora ha sido “muy pequeña”. “Para muchos [creadores], solo ha sido la conciencia de lo que se está creando, pero el volumen de solicitudes de eliminación es realmente, muy bajo porque la mayoría resulta ser bastante benigno o complementario para su negocio en general”, dijo Hanif.
Mirando hacia el futuro
Con el tiempo, YouTube pretende llevar su tecnología de detección de deepfakes a más áreas, incluidas voces reconocibles y otra propiedad intelectual como personajes populares. La compañía no confirmó qué políticos o funcionarios estarán entre sus probadores iniciales, pero dijo que el objetivo es que la tecnología esté disponible de manera amplia con el tiempo.