OpenAI apuesta fuerte por la inteligencia artificial de audio, reuniendo equipos para crear dispositivos personales audio-first
La compañía ha unificado varios equipos de ingeniería, producto e investigación durante los últimos dos meses para renovar por completo sus modelos de audio. Este movimiento estratégico se realiza en preparación para el lanzamiento de un dispositivo personal centrado en el audio que se espera vea la luz en aproximadamente un año.

Hacia un futuro audio-first: la pantalla pasa a un segundo plano
La apuesta de OpenAI refleja hacia dónde se dirige toda la industria tecnológica: hacia un futuro donde las pantallas se convierten en ruido de fondo y el audio toma el centro del escenario. Los altavoces inteligentes ya han hecho que los asistentes de voz sean un elemento fijo en más de un tercio de los hogares estadounidenses.
Otros gigantes tecnológicos están en la misma sintonía. Meta acaba de lanzar una función para sus gafas inteligentes Ray-Ban que utiliza un conjunto de cinco micrófonos para ayudar al usuario a escuchar conversaciones en habitaciones ruidosas. Google, por su parte, comenzó a experimentar en junio con «Resúmenes de Audio» que transforman los resultados de búsqueda en resúmenes conversacionales. Tesla está integrando el chatbot Grok de xAI en sus vehículos para crear un asistente de voz conversacional que maneje desde la navegación hasta el control climático mediante diálogo natural.
No solo los gigantes: startups y wearables alternativos
Una variopinta colección de startups ha emergido con la misma convicción, aunque con distintos grados de éxito. Los creadores del Humane AI Pin quemaron cientos de millones antes de que su wearable sin pantalla se convirtiera en una historia de precaución. El colgante Friend AI, un collar que afirma grabar tu vida y ofrecer compañía, ha generado tantas preocupaciones de privacidad como temor existencial.
Ahora, al menos dos compañías, incluyendo Sandbar y una dirigida por el fundador de Pebble, Eric Migicovsky, están construyendo anillos de inteligencia artificial que se espera debuten en 2026, permitiendo a los usuarios literalmente «hablar con la mano».
El nuevo modelo de audio de OpenAI y la visión de dispositivos-compañero
El nuevo modelo de audio de OpenAI, previsto para principios de 2026, se reporta que sonará más natural, manejará interrupciones como un interlocutor real e incluso podrá hablar mientras el usuario está hablando, algo que los modelos actuales no pueden gestionar.
La compañía también visualiza una familia de dispositivos, que posiblemente incluya gafas o altavoces inteligentes sin pantalla, que actúen menos como herramientas y más como compañeros. Esta visión se alinea con la participación de Jony Ive, exjefe de diseño de Apple, quien se unió a los esfuerzos de hardware de OpenAI. Ive ha priorizado reducir la adicción a los dispositivos, viendo el diseño audio-first y una tipografía digital cuidadosamente integrada como una oportunidad para «corregir los errores» de los gadgets de consumo del pasado.
Conclusión: cada espacio, una interfaz de audio
Los factores de forma pueden diferir, pero la tesis es la misma: el audio es la interfaz del futuro. Cada espacio (tu hogar, tu auto, incluso tu rostro) se está convirtiendo en una superficie de control. Con su apuesta por modelos de audio avanzados y dispositivos dedicados, OpenAI no solo está mejorando a ChatGPT, sino que está definiendo la próxima era de la interacción humano-computadora, donde el diseño modular y la experiencia auditiva inmersiva serán clave.