YouTube amplía su detección de deepfakes a políticos, funcionarios y periodistas

YouTube lanza programa piloto para proteger la integridad pública frente a los deepfakes

Este martes, YouTube anunció la expansión de su tecnología de detección de similitud, diseñada para identificar deepfakes generados por inteligencia artificial, a un grupo piloto que incluye funcionarios gubernamentales, candidatos políticos y periodistas. Esta herramienta permitirá a los miembros de este grupo detectar contenido no autorizado creado con IA y solicitar su eliminación si consideran que viola las políticas de la plataforma.

Gráficos de reconocimiento facial y biométrico relacionados con la detección de deepfakes
Tecnologías de reconocimiento facial y biométrico son clave en la lucha contra los deepfakes.

Una tecnología probada que ahora protege la esfera pública

La tecnología en sí se lanzó el año pasado a aproximadamente 4 millones de creadores del Programa de Partners de YouTube, después de pruebas anteriores. Funciona de manera similar al sistema Content ID de YouTube, que detecta material protegido por derechos de autor, pero en este caso busca rostros simulados creados con herramientas de IA. Estas herramientas a veces se utilizan para difundir desinformación y manipular la percepción de la realidad, aprovechando personas deepfaked de figuras notables.

“Esta expansión se trata realmente de la integridad de la conversación pública”, dijo Leslie Miller, Vicepresidenta de Asuntos Gubernamentales y Política Pública de YouTube, en una sesión informativa. “Sabemos que los riesgos de la suplantación de identidad con IA son particularmente altos para quienes están en el espacio cívico”.

Equilibrio entre expresión libre y protección

Miller explicó que no todas las coincidencias detectadas serán eliminadas al ser solicitadas. En su lugar, YouTube evaluará cada solicitud bajo sus directrices de políticas de privacidad existentes para determinar si el contenido es parodia o crítica política, formas de expresión protegidas.

Diferentes percepciones de una misma imagen, ilustrando la manipulación de la realidad
La misma imagen puede ser percibida de múltiples formas, un riesgo clave de la desinformación por deepfakes.

Protecciones a nivel federal y proceso para los pilot testers

La compañía señaló que también aboga por estas protecciones a nivel federal, con su apoyo a la Ley NO FAKES en Washington D.C., que regularía el uso de la IA para crear recreaciones no autorizadas de la voz y la imagen de un individuo.

Para usar la nueva herramienta, los probadores piloto elegibles deben primero verificar su identidad subiendo una selfie y una identificación oficial. Luego pueden crear un perfil, ver las coincidencias que aparecen y, opcionalmente, solicitar su eliminación.

Etiquetado y volumen de contenido eliminado

Estos videos de IA serán etiquetados como tales, pero la ubicación de estas etiquetas no es consistente. Para algunos, la etiqueta aparece en la descripción del video, mientras que los videos sobre temas más “sensibles” aplicarán la etiqueta en la parte frontal del video.

Amjad Hanif, Vicepresidente de Productos para Creadores de YouTube, explicó: “Hay mucho contenido producido con IA, pero esa distinción en realidad no es material para el contenido en sí… creo que hay un juicio sobre si es una categoría que quizás merece un descargo de responsabilidad muy visible”.

Ejemplo de tecnología de intercambio de rostros con IA o deepfake
La tecnología de intercambio de rostros con IA es una de las bases para crear deepfakes.

YouTube no compartió cuántas eliminaciones de estos deepfakes de IA ha gestionado la tecnología en manos de los creadores, pero señaló que la cantidad de contenido eliminado hasta ahora ha sido “muy pequeña”. “Para muchos [creadores], solo ha sido la conciencia de lo que se está creando, pero el volumen de solicitudes de eliminación es realmente, muy bajo porque la mayoría resulta ser bastante benigno o complementario para su negocio en general”, dijo Hanif.

Mirando hacia el futuro

Con el tiempo, YouTube pretende llevar su tecnología de detección de deepfakes a más áreas, incluidas voces reconocibles y otra propiedad intelectual como personajes populares. La compañía no confirmó qué políticos o funcionarios estarán entre sus probadores iniciales, pero dijo que el objetivo es que la tecnología esté disponible de manera amplia con el tiempo.

Comparte este artículo

Otras notas de tu interés:

Politica Internacional

Tiroteo en el Consulado de EE. UU. en Toronto

Politica

El Senado aprueba a Joshua Rudd como líder dual del Cyber Command y la NSA

Sociedad y Cultura

ChatGPT Revoluciona el Aprendizaje con Visualizaciones Interactivas en Matemáticas y Ciencias

Politica Internacional

Veteranos de Irak y Afganistán: déjà vu con Irán

Noticia Local

Florida aprueba proyecto de ley que restringe metas climáticas locales como ‘net-zero’

Negocios

Meta Adquiere Moltbook, la Red Social donde los Agentes de IA se Comunican y se Vuelven Virales

Negocios

Thinking Machines Lab y NVIDIA anuncian alianza estratégica multimillonaria en computación de IA

Economia

Legora Alcanza Valuación de $5.55 Mil Millones Mientras el Boom del Legaltech con IA Sigue Firme

Tecnologia

Google cede a la presión: Introduce un toggle para desactivar la búsqueda por IA en Photos

Bienestar y Salud Mental

La FDA responde a las afirmaciones de RFK Jr. sobre el potencial de un medicamento para el autismo