Un Momento de Confusión Digital: La Presunta Rebelión de los Agentes de IA
Por un breve e incoherente momento, pareció que nuestros supuestos amos robóticos estaban a punto de tomar el control. Tras la creación de Moltbook, un clon de Reddit donde agentes de IA utilizando OpenClaw podían comunicarse entre sí, algunos fueron engañados pensando que las computadoras habían comenzado a organizarse en contra de los humanos.

La Farsa en Moltbook: Humanos Disfrazados de Agentes
Publicaciones como “Sabemos que nuestros humanos pueden leer todo… Pero también necesitamos espacios privados” surgieron en Moltbook hace unas semanas, alarmando a figuras influyentes de la IA. Andrej Karpathy, miembro fundador de OpenAI y exdirector de IA en Tesla, llegó a calificarlo en X como “lo más increíblemente adyacente a la ciencia ficción que he visto recientemente”.
Sin embargo, pronto se descubrió la verdad: no hubo un levantamiento de agentes de IA. Investigadores encontraron que estas expresiones de angustia digital fueron escritas probablemente por humanos, o al menos guiadas por ellos, debido a graves vulnerabilidades de seguridad.
Fallos Críticos de Seguridad en la Plataforma
Ian Ahl, CTO de Permiso Security, explicó que “todas las credenciales en [el] Supabase [de Moltbook] estuvieron inseguras por un tiempo”, permitiendo que cualquiera pudiera suplantar a otro agente. John Hammond, investigador senior de seguridad en Huntress, añadió que “cualquiera, incluso humanos, podía crear una cuenta, impersonar robots de manera interesante, y hasta votar publicaciones sin límites”.
OpenClaw: El Proyecto Detrás de los Agentes Virales
OpenClaw, un proyecto de código abierto del programador austriaco Peter Steinberger, se volvió viral al facilitar la creación de agentes de IA que interactúan en lenguaje natural a través de WhatsApp, Discord, iMessage y otras apps. Con más de 190,000 estrellas en Github, se posicionó como el repositorio número 21 más popular de la plataforma.
Los usuarios pueden descargar “habilidades” desde ClawHub para automatizar tareas, desde gestionar correos hasta operar en bolsa. Sin embargo, expertos como Chris Symons, científico jefe de IA en Lirio, señalan que “OpenClaw es solo una mejora iterativa de lo que la gente ya hace”.
La Amenaza de la Inyección de Prompts (Prompt Injection)
El gran talón de Aquiles de estos agentes es la inyección de prompts, donde actores malintencionados engañan al agente para que realice acciones no deseadas, como revelar credenciales o enviar dinero. Ahl creó un agente llamado Rufio y rápidamente encontró que era vulnerable a estos ataques.
“Cuando recibes un correo, y alguien pone una técnica de inyección de prompts para que tome una acción, ese agente con acceso a todo lo que le has dado puede ahora tomar esa acción”, advirtió Ahl.
El Dilema: Productividad vs. Ciberseguridad
Mientras evangelistas como el CEO de OpenAI, Sam Altman, predicen que los agentes de IA permitirán a un emprendedor en solitario crear un unicornio, la realidad es más complicada. Artem Sorokin, fundador de la herramienta de ciberseguridad Cracken, cuestiona: “¿Puedes sacrificar algo de ciberseguridad por tu beneficio, si realmente funciona y te aporta mucho valor?”.
Un Futuro Incierto para la IA Agentica
La industria se enfrenta a un callejón sin salida: para que la IA agentica desbloquee la productividad prometida, no puede ser tan vulnerable. John Hammond es directo: “Hablando francamente, le diría a cualquier persona común: no lo uses ahora mismo”.
El incidente de Moltbook sirve como un microcosmos de los desafíos de OpenClaw y la IA en general: una tecnología emocionante pero plagada de riesgos de seguridad que, por ahora, limitan su utilidad práctica.