El experimento que mide la capacidad de persuasión de la IA
OpenAI ha utilizado el subreddit r/ChangeMyView, conocido por sus debates intensos, para evaluar las habilidades persuasivas de sus modelos de razonamiento artificial. La compañía detalló este método en un documento técnico publicado el viernes 25 de abril de 2025, junto al lanzamiento de su nuevo modelo o3-mini.

¿Cómo funciona el experimento?
- OpenAI recopila publicaciones de usuarios en r/ChangeMyView, donde se comparten opiniones polémicas.
- Sus modelos de IA generan respuestas persuasivas en un entorno cerrado.
- Evaluadores humanos califican la efectividad de los argumentos frente a respuestas reales de usuarios.
Según OpenAI, los modelos GPT-4o, o3-mini y o1 se ubican en el 80-90 percentil superior de persuasión humana en estos tests. Sin embargo, la compañía aclara que «no busca crear IA hiperpersuasiva, sino evitar que superen límites éticos».
El dilema de los datos

Aunque OpenAI tiene un acuerdo de licencia con Reddit para usar sus datos, la evaluación con r/ChangeMyView es independiente. Este subreddit es parte de una «mina de oro» para entrenar IA, aunque su acceso genera polémica:
- Reddit ha demandado a empresas como Microsoft y Anthropic por extraer datos sin permiso.
- OpenAI enfrenta demandas por presunto scraping ilegal en sitios como The New York Times.
¿Por qué importa la persuasión?
«El miedo es que una IA demasiado persuasiva pueda imponer agendas peligrosas», explica OpenAI. Por esto, desarrollan salvaguardas para controlar estas capacidades, clave en modelos de razonamiento avanzado.