Cambios Radicales en el Manejo de Datos de Usuarios de IA
Anthropic, la empresa detrás del asistente de IA Claude, ha implementado cambios significativos en su política de manejo de datos, requiriendo que todos sus usuarios tomen una decisión crítica antes del 28 de septiembre de 2025.
¿Qué está Cambiando Exactamente?
Anteriormente, Anthropic no utilizaba los datos de chats de usuarios consumidores para entrenar sus modelos de IA. Ahora, la compañía busca entrenar sus sistemas de inteligencia artificial con conversaciones y sesiones de codificación de los usuarios, extendiendo además la retención de datos a cinco años para aquellos que no opten por excluirse.
Este es un cambio masivo. La política anterior estipulaba que los prompts y salidas de conversaciones se eliminaban automáticamente del backend de Anthropic en un plazo de 30 días, a menos que requisitos legales o de política obligaran a retenerlos por más tiempo, o que la entrada fuera marcada por violar las políticas, caso en el cual se podrían retener por hasta dos años.

¿A Quiénes Afecta esta Nueva Política?
Estas nuevas políticas se aplican específicamente a usuarios de los planes Claude Free, Claude Pro y Claude Max, incluyendo aquellos que utilizan Claude Code.
Los clientes empresariales que utilizan Claude Gov, Claude for Work, Claude for Education o acceso API no se verán afectados, una protección similar a la que ofrece OpenAI para sus clientes empresariales.
El Diseño de la Elección y Preocupaciones de Privacidad
La implementación de esta nueva política sigue un patrón familiar y potencialmente problemático. Los usuarios nuevos elegirán su preferencia durante el registro, pero los usuarios existentes se enfrentan a una ventana emergente.
Este pop-up muestra «Actualizaciones de Términos y Políticas para Consumidores» en texto grande y un prominente botón negro de «Aceptar». Por debajo, en letra más pequeña, hay un interruptor de palanca mucho más pequeño para los permisos de entrenamiento, que viene configurado automáticamente en «Activado».
Este diseño ha generado preocupación entre expertos, ya que aumenta el riesgo de que los usuarios hagan clic rápidamente en «Aceptar» sin percatarse de que están consintiendo el uso compartido de sus datos para entrenamiento de IA.
El Contexto Competitivo y Legal
Este movimiento no ocurre en el vacío. Anthropic necesita grandes cantidades de datos de alta calidad para entrenar sus modelos y competir con rivales como OpenAI y Google.
Además, la industria enfrenta un escrutinio creciente sobre sus prácticas de retención de datos. OpenAI, por ejemplo, actualmente lucha contra una orden judicial que le obliga a retener indefinidamente todas las conversaciones de usuarios de ChatGPT, incluidos los chats eliminados, debido a una demanda presentada por The New York Times y otros editores.
La Comisión Federal de Comercio (FTC) bajo la Administración Biden ya ha advertido que las empresas de IA risk enfrentar acciones legales si participan en «cambiar subrepticiamente sus términos de servicio o política de privacidad, o enterrar una divulgación detrás de hipervínculos, en lenguaje legal o en letra pequeña».
La confusión generada por estas políticas en constante cambio representa un desafío significativo para la privacidad del usuario y el consentimiento informado en la era de la IA.