YouTube amplía su detección de deepfakes a políticos, funcionarios y periodistas

YouTube lanza programa piloto para proteger la integridad pública frente a los deepfakes

Este martes, YouTube anunció la expansión de su tecnología de detección de similitud, diseñada para identificar deepfakes generados por inteligencia artificial, a un grupo piloto que incluye funcionarios gubernamentales, candidatos políticos y periodistas. Esta herramienta permitirá a los miembros de este grupo detectar contenido no autorizado creado con IA y solicitar su eliminación si consideran que viola las políticas de la plataforma.

Gráficos de reconocimiento facial y biométrico relacionados con la detección de deepfakes
Tecnologías de reconocimiento facial y biométrico son clave en la lucha contra los deepfakes.

Una tecnología probada que ahora protege la esfera pública

La tecnología en sí se lanzó el año pasado a aproximadamente 4 millones de creadores del Programa de Partners de YouTube, después de pruebas anteriores. Funciona de manera similar al sistema Content ID de YouTube, que detecta material protegido por derechos de autor, pero en este caso busca rostros simulados creados con herramientas de IA. Estas herramientas a veces se utilizan para difundir desinformación y manipular la percepción de la realidad, aprovechando personas deepfaked de figuras notables.

“Esta expansión se trata realmente de la integridad de la conversación pública”, dijo Leslie Miller, Vicepresidenta de Asuntos Gubernamentales y Política Pública de YouTube, en una sesión informativa. “Sabemos que los riesgos de la suplantación de identidad con IA son particularmente altos para quienes están en el espacio cívico”.

Equilibrio entre expresión libre y protección

Miller explicó que no todas las coincidencias detectadas serán eliminadas al ser solicitadas. En su lugar, YouTube evaluará cada solicitud bajo sus directrices de políticas de privacidad existentes para determinar si el contenido es parodia o crítica política, formas de expresión protegidas.

Diferentes percepciones de una misma imagen, ilustrando la manipulación de la realidad
La misma imagen puede ser percibida de múltiples formas, un riesgo clave de la desinformación por deepfakes.

Protecciones a nivel federal y proceso para los pilot testers

La compañía señaló que también aboga por estas protecciones a nivel federal, con su apoyo a la Ley NO FAKES en Washington D.C., que regularía el uso de la IA para crear recreaciones no autorizadas de la voz y la imagen de un individuo.

Para usar la nueva herramienta, los probadores piloto elegibles deben primero verificar su identidad subiendo una selfie y una identificación oficial. Luego pueden crear un perfil, ver las coincidencias que aparecen y, opcionalmente, solicitar su eliminación.

Etiquetado y volumen de contenido eliminado

Estos videos de IA serán etiquetados como tales, pero la ubicación de estas etiquetas no es consistente. Para algunos, la etiqueta aparece en la descripción del video, mientras que los videos sobre temas más “sensibles” aplicarán la etiqueta en la parte frontal del video.

Amjad Hanif, Vicepresidente de Productos para Creadores de YouTube, explicó: “Hay mucho contenido producido con IA, pero esa distinción en realidad no es material para el contenido en sí… creo que hay un juicio sobre si es una categoría que quizás merece un descargo de responsabilidad muy visible”.

Ejemplo de tecnología de intercambio de rostros con IA o deepfake
La tecnología de intercambio de rostros con IA es una de las bases para crear deepfakes.

YouTube no compartió cuántas eliminaciones de estos deepfakes de IA ha gestionado la tecnología en manos de los creadores, pero señaló que la cantidad de contenido eliminado hasta ahora ha sido “muy pequeña”. “Para muchos [creadores], solo ha sido la conciencia de lo que se está creando, pero el volumen de solicitudes de eliminación es realmente, muy bajo porque la mayoría resulta ser bastante benigno o complementario para su negocio en general”, dijo Hanif.

Mirando hacia el futuro

Con el tiempo, YouTube pretende llevar su tecnología de detección de deepfakes a más áreas, incluidas voces reconocibles y otra propiedad intelectual como personajes populares. La compañía no confirmó qué políticos o funcionarios estarán entre sus probadores iniciales, pero dijo que el objetivo es que la tecnología esté disponible de manera amplia con el tiempo.

Comparte este artículo

Otras notas de tu interés:

Espectáculos y Entretenimiento

Reprograman la asistencia de Vance a la Cena de Corresponsales de la Casa Blanca

Noticia Local

Karoline Leavitt declara urgencia nacional tras atentado y culpa al Congreso por fondos del DHS

Economia

David Silver, exinvestigador de DeepMind, recauda $1.1 mil millones para crear una IA que aprende sin datos humanos

Economia

Sin prisión: Exdirectora financiera de coalición antiviolencia se declara culpable de fraude organizado

Politica

Republicanos respaldan a Trump en un balneario tras tiroteo en cena de la WHCA

Economia

Microsoft y OpenAI renegocian su acuerdo: Nuevos términos allanan el camino para la colaboración con Amazon

Noticia Local

DeSantis Propone Nuevo Mapa Congresional Republicano en Florida

Economia

EE.UU. autoriza pagos legales para Maduro y su esposa: un giro en el caso de narcoterrorismo

Noticia Local

Ron DeSantis presenta nuevo mapa congresional de Florida: los republicanos ganarían cuatro escaños

Negocios

Skye: La App de IA para iPhone que Busca Reinventar la Interacción y ya Recauda $3.58 Millones