Irregular AI Security Anuncia $80 Millones en Financiación Liderada por Sequoia Capital y Redpoint Ventures

Irregular AI Security Secunda $80 Millones en Ronda de Financiación

El miércoles, la firma de seguridad de IA Irregular anunció $80 millones en nueva financiación en una ronda liderada por Sequoia Capital y Redpoint Ventures, con la participación del CEO de Wiz, Assaf Rappaport. Una fuente cercana al acuerdo indicó que la ronda valoró a Irregular en $450 millones.

Visión de los Fundadores sobre Seguridad en IA

“Nuestra visión es que pronto, mucha actividad económica provendrá de la interacción humano-IA e IA-IA”, dijo el cofundador Dan Lahav, “y eso va a romper la pila de seguridad en múltiples puntos.”

Anteriormente conocida como Pattern Labs, Irregular ya es un actor significativo en evaluaciones de IA. El trabajo de la empresa se cita en evaluaciones de seguridad para Claude 3.7 Sonnet así como para los modelos o3 y o4-mini de OpenAI. Más generally, el marco de la empresa para puntuar la capacidad de detección de vulnerabilidades de un modelo (denominado SOLVE) es ampliamente utilizado en la industria.

Ilustración de seguridad y riesgos en IA

Enfoque en Riesgos Emergentes y Simulaciones

Mientras Irregular ha realizado un trabajo significativo en los riesgos existentes de los modelos, la empresa está recaudando fondos con miras a algo aún más ambicioso: detectar riesgos y comportamientos emergentes antes de que surjan en la naturaleza. La empresa ha construido un sistema elaborado de entornos simulados, permitiendo pruebas intensivas de un modelo antes de su lanzamiento.

“Tenemos simulaciones de red complejas donde la IA toma tanto el papel de atacante como de defensor”, dice el cofundador Omer Nevo. “Así, cuando sale un nuevo modelo, podemos ver dónde las defensas se mantienen y dónde no.”

Contexto de la Industria y Desafíos Futuros

La seguridad se ha convertido en un punto de enfoque intenso para la industria de la IA, a medida que surgen más riesgos potenciales planteados por los modelos frontera. OpenAI overhauled sus medidas de seguridad internas este verano, con miras al espionaje corporativo potencial.

Al mismo tiempo, los modelos de IA son cada vez más adeptos a encontrar vulnerabilidades de software — un poder con implicaciones serias tanto para atacantes como para defensores.

“Si el objetivo del laboratorio frontera es crear modelos cada vez más sofisticados y capaces, nuestro objetivo es asegurar estos modelos”, dice Lahav. “Pero es un objetivo móvil, así que inherentemente hay mucho, mucho, mucho más trabajo por hacer en el futuro.”

Comparte este artículo

Otras notas de tu interés:

Guía de Compras y Compradores

Fresh Market abre su segunda tienda en Aventura: más grande y con nuevas experiencias gourmet

Politica Internacional

War Game: Simulamos un Ataque Ruso a la OTAN

Economia

Proyecto de Ley en Florida Asiste a Propietarios de Casas Móviles

Economia

Monaco AI: La Revolución de la IA en Ventas con $35 Millones en Fondos

Economia

Renuncia la abogada general de Goldman Sachs por vínculos con Epstein

Negocios

La IA en Startups y Sistemas Empresariales: Un Momento Decisivo para Emprender

Tecnologia

Threads lanza ‘Dear Algo’: Personaliza tu feed con IA mediante un simple post

Negocios

Elon Musk y el sueño de los data centers orbitales: costos y desafíos fuera de este mundo

Economia

Depuración estratégica: Elon Musk reestructura xAI tras la salida masiva de cofundadores y talento clave

Negocios

¿Quién Poseerá la Capa de IA en las Soluciones Empresariales?