El problema del ‘dark data’ en video
Las empresas generan más video que nunca, desde archivos de transmisión hasta cámaras de vigilancia, pero la mayoría permanece sin usar en servidores. Este es el dark data: un recurso masivo y sin explotar que las empresas recopilan automáticamente pero casi nunca utilizan de manera significativa.
La solución de ex Googlers
Aza Kai (CEO) y Hiraku Yanagita (COO), dos ex empleados de Google Japan que trabajaron juntos durante casi una década, cofundaron InfiniMind, una startup con sede en Tokio que desarrolla infraestructura para convertir petabytes de video y audio no vistos en datos empresariales estructurados y consultables.
«Mi cofundador y yo vimos este punto de inflexión mientras aún estábamos en Google», dijo Kai. Para 2024, la tecnología había madurado y la demanda del mercado era lo suficientemente clara como para que los cofundadores se sintieran impulsados a construir la compañía.
Avances tecnológicos clave
Kai, quien anteriormente trabajó en Google Japan en áreas como la nube, el aprendizaje automático y los modelos de recomendación de video, explicó que el progreso en modelos visión-lenguaje entre 2021 y 2023 permitió que la IA de video fuera más allá del simple etiquetado de objetos. La caída de los costos de GPU y las ganancias de rendimiento anuales de aproximadamente 15–20% en la última década también contribuyeron.

Financiamiento y expansión
InfiniMind aseguró recientemente $5.8 millones en financiamiento semilla, liderado por UTEC y con participación de CX2, Headline Asia, Chiba Dojo y un investigador de IA de a16z Scout. La compañía está trasladando su sede a EE.UU., mientras mantiene una oficina en Japón, que sirvió como banco de pruebas perfecto para ajustar la tecnología con clientes exigentes antes de expandirse globalmente.
Productos: TV Pulse y DeepFrame
Su primer producto, TV Pulse, se lanzó en Japón en abril de 2025. Esta plataforma impulsada por IA analiza contenido televisivo en tiempo real, ayudando a empresas de medios y retail a rastrear exposición de productos, presencia de marca, sentimiento del cliente e impacto en relaciones públicas. Tras programas piloto con grandes emisoras y agencias, ya tiene clientes pagadores, incluidos mayoristas y compañías de medios.
Ahora, InfiniMind se prepara para el mercado internacional. Su producto estrella, DeepFrame, una plataforma de inteligencia de video de larga duración capaz de procesar 200 horas de metraje para localizar escenas, hablantes o eventos específicos, está programado para un lanzamiento beta en marzo, seguido de un lanzamiento completo en abril de 2026.

Diferenciación en el mercado
El espacio de análisis de video está muy fragmentado. Mientras empresas como TwelveLabs ofrecen APIs de comprensión de video de propósito general, InfiniMind se enfoca específicamente en casos de uso empresarial, incluyendo monitoreo, seguridad y análisis profundo de contenido.
«Nuestra solución no requiere código; los clientes aportan sus datos y nuestro sistema los procesa, proporcionando información accionable», dijo Kai. «También integramos audio, sonido y comprensión del habla, no solo lo visual. Nuestro sistema puede manejar video de duración ilimitada, y la eficiencia de costos es un diferenciador importante».
Visión a futuro
«Este es un espacio emocionante, uno de los caminos hacia la AGI (inteligencia artificial general)», afirmó Kai. «Entender la inteligencia general de video es entender la realidad. Las aplicaciones industriales son importantes, pero nuestro objetivo final es impulsar los límites de la tecnología para entender mejor la realidad y ayudar a los humanos a tomar mejores decisiones».
La financiación semilla se utilizará para desarrollar el modelo DeepFrame, expandir la infraestructura de ingeniería, contratar más ingenieros y llegar a más clientes en Japón y EE.UU.