El CEO de OpenAI responde a las críticas sobre el enorme consumo de energía y agua de los sistemas de IA
Sam Altman, el director ejecutivo de OpenAI, se pronunció esta semana sobre las crecientes preocupaciones respecto al impacto ambiental de la inteligencia artificial. Sus declaraciones se dieron durante un evento organizado por The Indian Express en la India, donde participó en una importante cumbre sobre IA.

«Totalmente falso»: Altman descarta el alarmismo sobre el consumo de agua
Uno de los puntos más controvertidos que abordó Altman fue el uso de agua por parte de la IA. El ejecutivo calificó estas preocupaciones como «totalmente falsas», atribuyéndolas a métodos obsoletos de refrigeración en centros de datos. «Ahora que no hacemos eso, ves estas cosas en internet donde dicen: ‘No uses ChatGPT, son 17 galones de agua por cada consulta’ o lo que sea», declaró Altman. «Esto es completamente falso, totalmente insano, no tiene conexión con la realidad».
La verdadera preocupación: el consumo energético global de la IA
A diferencia del agua, Altman reconoció que es «justo» preocuparse por el consumo de energía de la inteligencia artificial, no por consulta individual, sino por el volumen total a nivel mundial. «El mundo ahora usa tanta IA», señaló, argumentando que esto obliga a una transición acelerada hacia fuentes de energía limpia. En su visión, la solución pasa por «avanzar rápidamente hacia la energía nuclear o la eólica y solar».
Cabe destacar que, actualmente, no existe un requisito legal que obligue a las empresas tecnológicas a revelar cuánta energía y agua consumen sus operaciones, un vacío que ha llevado a científicos a investigar el tema de forma independiente.
Desmontando comparaciones «injustas» con los seres humanos
El entrevistador citó una conversación previa con Bill Gates, preguntando si era preciso decir que una sola consulta a ChatGPT usa el equivalente a 1.5 cargas de batería de un iPhone. La respuesta de Altman fue contundente: «No hay forma de que sea ni remotamente cercano a eso».
Altman se quejó de que muchos debates sobre el uso de energía de ChatGPT son «injustos», especialmente cuando se centran en la energía necesaria para entrenar un modelo de IA versus la que consume un humano para realizar una tarea similar. «Pero también lleva mucha energía entrenar a un humano», argumentó. «Toma como 20 años de vida y toda la comida que consumes durante ese tiempo antes de volverte inteligente. Y no solo eso, tomó la evolución muy extendida de los 100 mil millones de personas que han vivido y aprendido a no ser comidos por depredadores y a descifrar la ciencia, para producirte».
La comparación justa es: si le preguntas a ChatGPT algo, ¿cuánta energía consume una vez que su modelo está entrenado para responder esa pregunta, versus un humano? Y probablemente, la IA ya se ha puesto al día en términos de eficiencia energética, medido de esa manera.
El camino hacia una IA sostenible
Las declaraciones de Altman subrayan un debate crítico en la industria tecnológica: cómo equilibrar el rápido avance de la inteligencia artificial con la sostenibilidad ambiental. Mientras minimiza el impacto hídrico, enfatiza la urgencia de descarbonizar la fuente de energía que alimenta a los cada vez más numerosos y potentes centros de datos de IA en el mundo.