Silicon Valley en Llamas por Críticas a Defensores de la Seguridad en IA
Esta semana, figuras prominentes de la tecnología como David Sacks, asesor de la Casa Blanca en IA y Cripto, y Jason Kwon, director de estrategia de OpenAI, generaron controversia en línea al cuestionar la integridad de grupos que promueven la seguridad en inteligencia artificial. En publicaciones separadas, alegaron que estos defensores no actúan por virtud, sino por intereses propios o de billonarios en la sombra.

Acusaciones de Estrategias de Captura Regulatoria
Sacks afirmó en una publicación de X que Anthropic, que ha expresado preocupaciones sobre el desempleo, ciberataques y daños catastróficos de la IA, está utilizando el miedo para impulsar leyes que beneficien a grandes empresas y perjudiquen a startups más pequeñas. Anthropic fue el único laboratorio importante en respaldar el Proyecto de Ley 53 del Senado de California (SB 53), que establece requisitos de seguridad para compañías de IA y fue promulgado el mes pasado.
OpenAI Envía Citaciones a Críticos
Por su parte, Kwon justificó el envío de citaciones a organizaciones sin fines de lucro como Encode, que aboga por políticas responsables de IA, alegando «sospechas de coordinación y financiación oculta». Esto ocurrió después de que Elon Musk demandara a OpenAI, y varias ONGs se opusieran a su reestructuración. OpenAI solicitó comunicaciones relacionadas con Musk y Mark Zuckerberg, lo que ha sido interpretado como un intento de intimidación.

Respuesta de la Comunidad de Seguridad en IA
Líderes de organizaciones como Alliance for Secure AI argumentan que estas acciones buscan silenciar críticas y disuadir a otras entidades. Brendan Steinhauser, CEO de la alianza, declaró:
«Por parte de OpenAI, esto está destinado a intimidar a los críticos. En el caso de Sacks, creo que le preocupa que el movimiento de seguridad en IA esté creciendo»
Tensión entre Crecimiento y Responsabilidad
El conflicto subraya la creciente división en Silicon Valley entre desarrollar IA de manera responsable y convertirla en un producto de consumo masivo. Estudios recientes indican que la mitad de los estadounidenses están más preocupados que entusiasmados por la IA, con enfoque en pérdidas de empleo y deepfakes, mientras que el movimiento de seguridad se centra en riesgos catastróficos.

Impacto en la Economía y Regulación
Con la inversión en IA sosteniendo gran parte de la economía estadounidense, el temor a una sobrerregulación es comprensible. Sin embargo, tras años de progreso sin control, el movimiento de seguridad gana impulso hacia 2026, y los intentos de Silicon Valley por contrarrestarlo podrían ser una señal de su efectividad.