YouTube expande su tecnología de detección de deepfakes a figuras públicas
YouTube anunció este martes la ampliación de su tecnología de detección de similitud, que identifica deepfakes generados por inteligencia artificial, a un grupo piloto de funcionarios gubernamentales, candidatos políticos y periodistas.

Un nuevo escudo contra la desinformación
Los miembros del grupo piloto tendrán acceso a una herramienta que detecta contenido no autorizado generado por IA y les permite solicitar su eliminación si consideran que viola las políticas de YouTube. Esta tecnología, lanzada el año pasado a unos 4 millones de creadores del Programa de Socios de YouTube, funciona de manera similar al sistema Content ID, pero en lugar de proteger derechos de autor, busca rostros simulados creados con herramientas de IA.
“Esta expansión se trata realmente de la integridad de la conversación pública”, dijo Leslie Miller, Vicepresidenta de Asuntos Gubernamentales y Políticas Públicas de YouTube. “Sabemos que los riesgos de la suplantación de identidad con IA son particularmente altos para quienes están en el espacio cívico”.
Equilibrio entre expresión y protección
YouTube busca balancear la libre expresión de los usuarios con los riesgos asociados a la tecnología de IA, que puede generar una imitación convincente de una figura pública. No todas las detecciones serán eliminadas automáticamente; cada solicitud se evaluará bajo las directrices de políticas de privacidad para determinar si el contenido es una parodia o crítica política, formas de expresión protegidas.
Proceso de verificación y solicitud
Para usar la nueva herramienta, los participantes piloto deben primero verificar su identidad subiendo una selfie y una identificación gubernamental. Luego pueden crear un perfil, ver las coincidencias detectadas y, opcionalmente, solicitar su remoción. YouTube no confirmó qué políticos o funcionarios forman parte de los probadores iniciales, pero afirmó que el objetivo es hacer la tecnología ampliamente disponible con el tiempo.
Etiquetado y apoyo legislativo
Los videos generados por IA serán etiquetados como tales, pero la ubicación de la etiqueta varía: para algunos aparecerá en la descripción, mientras que en videos sobre “temas sensibles” se colocará al frente del video. Amjad Hanif, Vicepresidente de Productos para Creadores de YouTube, explicó que se juzga si una categoría merece un descargo de responsabilidad muy visible.
La compañía también apoya a nivel federal el NO FAKES Act en Washington D.C., que regularía el uso de IA para crear recreaciones no autorizadas de la voz y la imagen de un individuo.

Impacto y expansión futura
Hasta ahora, el volumen de contenido eliminado mediante esta tecnología ha sido “muy pequeño”, según YouTube. Hanif señaló que para muchos creadores, la herramienta ha servido principalmente para tener conciencia de lo que se crea, y que la mayoría de los contenidos detectados son benignos o incluso beneficiosos para su negocio.
Sin embargo, esto podría no ser el caso con los deepfakes de funcionarios gubernamentales, políticos o periodistas. Con el tiempo, YouTube pretende llevar su tecnología de detección de deepfakes a más áreas, incluyendo voces reconocibles y otra propiedad intelectual como personajes populares.