La plataforma lidera la lucha contra contenido IA fraudulento
YouTube anunció este miércoles la expansión de su sistema de detección de suplantación digital, diseñado para identificar videos generados por IA que imiten la apariencia o voz de figuras públicas. Esta tecnología, desarrollada en colaboración con la Agencia Creative Artists (CAA), complementa su ya existente sistema Content ID.

Apoyo legislativo clave
La plataforma respalda públicamente el NO FAKES ACT, propuesta bipartidista de los senadores Chris Coons (D-DE) y Marsha Blackburn (R-TN). Esta ley permitiría a las personas notificar directamente a las plataformas sobre contenido IA no autorizado que utilice su imagen o voz.
«Sin este proceso de notificación, las plataformas no podrían tomar decisiones informadas» – Declaración oficial de YouTube
Fase de pruebas con creadores estrella
- Primeros participantes: MrBeast, Marques Brownlee y Doctor Mike
- Objetivo: Perfeccionar los controles de detección
- Expansión: Planeada para más creadores durante 2024

Protección ampliada
Los usuarios ahora pueden solicitar la eliminación de contenido sintético que simule su identidad, gracias a las nuevas herramientas de gestión de imagen digital implementadas en enero 2024.