El ‘AI Slop’ inunda los programas de bug bounty con informes falsos de ciberseguridad

La plaga de informes falsos generados por IA que engaña a expertos en ciberseguridad

El llamado «AI slop» -contenido de baja calidad generado por modelos de lenguaje- está contaminando los programas de recompensas por errores (bug bounties), donde investigadores envían reportes de vulnerabilidades inexistentes fabricados por inteligencia artificial.

Tófeo de ciberseguridad con insectos estilizados sobre circuitos electrónicos

El engaño perfecto: reportes convincentes pero falsos

«La gente recibe informes que suenan razonables, parecen técnicamente correctos. Pero al investigar, descubren que la vulnerabilidad no existe», explica Vlad Ionescu, CTO de RunSybil. Los modelos de lenguaje alucinan vulnerabilidades y las presentan en reportes profesionales que saturan las plataformas.

Casos reales que alertan a la industria

  • El proyecto de código abierto Curl recibió un informe falso detectado como «AI slop»
  • Open Collective reporta su bandeja de entrada «inundada de basura de IA»
  • Un desarrollador de CycloneDX eliminó su programa de recompensas tras recibir «casi exclusivamente reportes falsos»

Persona usando laptop con símbolos de protección de datos

Respuesta de las principales plataformas

HackerOne reporta un aumento en falsos positivos: «Estas entregas de baja señal crean ruido que socava la eficiencia», afirma Michiel Prins. Tratan estos reportes como spam.

Bugcrowd registra 500 envíos adicionales semanales, aunque su fundador Casey Ellis señala que aún no hay un pico significativo en reportes de baja calidad.

¿Qué dicen las grandes tecnológicas?

  • Mozilla mantiene una tasa de rechazo estable de 5-6 reportes mensuales (<10% del total)
  • Microsoft y Meta declinaron comentar
  • Google no respondió solicitudes

La solución: IA contra IA

HackerOne lanzó Hai Triage, sistema que combina agentes de IA con analistas humanos para filtrar reportes falsos y priorizar amenazas reales. Esta batalla entre la IA que genera contenido falso y la IA que lo detecta definirá el futuro de los programas de recompensas.

Comparte este artículo

Otras notas de tu interés:

Economia

El boom de la IA en Silicon Valley: una brecha de riqueza y empleo que divide a la industria

Sociedad y Cultura

arXiv endurece políticas: prohibición de un año por uso descuidado de IA en artículos científicos

Politica

Sean Cairncross y el liderazgo en el control de la IA avanzada: nuevas preocupaciones cibernéticas

Economia

El auge de los centros de datos AI en South Florida: crecimiento y polémica vecinal

Negocios

Greg Brockman asume el control de la estrategia de producto en OpenAI

Politica Internacional

Estados Unidos ordena a viajeros en Air Force One desechar regalos y teléfonos tras viaje a China

Economia

Crecimiento de centros de datos para IA en South Florida: ¿Progreso tecnológico o peligro ambiental y comunitario?

Politica

La Cámara de Representantes busca bloquear leyes estatales de IA en California y Nueva York

Economia

Crisis energética en Silicon Valley y Lake Tahoe: el impacto de los centros de datos y la IA

Economia

OpenAI y Plaid unen fuerzas: finanzas personales con inteligencia artificial para suscriptores Pro