Startup de IA recauda millones para «ayudar a hacer trampa en todo»
En un contexto donde la inteligencia artificial redefine fronteras, surge un debate ético tras el lanzamiento de Cluely, una startup que recaudó $5.3 millones para desarrollar herramientas que, según críticos, facilitarían prácticas cuestionables en diversos ámbitos.
El polémico caso de Columbia University
Roy Lee, estudiante de ingeniería, fue suspendido por crear una herramienta para «ayudar a hacer trampa en entrevistas técnicas». Su defensa pública en redes sociales viralizó el tema, exponiendo cómo transformó esta controversia en un modelo de negocio junto a su cofundador Neel Shanmugam.

¿Dónde está el límite?
- Herramienta vs trampa: ¿Es válido usar IA para optimizar procesos o constituye un atajo desleal?
- Contexto educativo: Casos como el de Lee reabren discusiones sobre integridad académica.
- Implicaciones laborales: ¿Cómo afecta esto a la evaluación de competencias técnicas?
«Si la IA puede hacerlo, ¿por qué no usarla? El sistema de evaluación está obsoleto»
— Fragmento del hilo de Roy Lee en X
Un debate global
La imagen institucional adjunta, con logos de la ONU y eLAC, refleja cómo organismos internacionales ya analizan estos dilemas en documentos como «Superar las trampas del desarrollo en la era digital», destacando la necesidad de marcos regulatorios claros.