OpenAI reorganiza sus equipos para potenciar la IA de voz y crear dispositivos sin pantalla que interactúen de forma más natural con los usuarios
02.01.2026 • 13:27hs • Innovación
Innovación
OpenAI impulsa su IA de audio y prepara dispositivos de voz para 2026
En un movimiento estratégico, OpenAI intensificó sus esfuerzos en inteligencia artificial (IA) de audio, de cara a los nuevos lanzamientos de la compañía para este año.
La empresa, comandada por Sam Altman, reorganizó sus equipos internos para mejorar significativamente sus modelos de un dispositivo personal enfocado en la interacción por voz.
¿A qué apunta OpenAI?
Durante los últimos dos meses, la empresa unificó áreas de ingeniería, producto e investigación con el objetivo de potenciar sus capacidades de audio y preparar así tecnología que permita una interacción más natural entre la IA y las personas.
Además, esta reorganización responde a la necesidad de superar las limitaciones actuales en sistemas de voz, como el manejo de interrupciones o la capacidad de entablar diálogos fluidos, aspectos en los que trabajan los ingenieros de OpenAI.
Según fuentes especializadas, se espera que el nuevo modelo de audio esté listo para principios de 2026 y forme parte de una nueva familia de dispositivos sin pantalla, concebidos para ser compañeros permanentes del usuario, funcionando con comandos y conversaciones de voz en lugar de interfaces visuales tradicionales.
Un cambio de paradigma protagonizado por OpenAI
Esta iniciativa se enmarca en una tendencia más amplia de la industria tecnológica, que apunta a desplazar las pantallas como principal medio de interacción hacia experiencias más naturales basadas en voz y audio.
En esta línea, otras empresas también mostraron interés en el desarrollo de dispositivos similares, mientras que OpenAI busca posicionarse como la compañía líder de este cambio.
OpenAI ya había anunciado su intención de desarrollar un dispositivo distinto al smartphone tradicional, con capacidades que permitirían realizar tareas complejas sin el uso de una pantalla.
Este proyecto se realiza en colaboración con el reconocido diseñador Jonathan Ive, exdirector de diseño de Apple y cofundador de io, empresa adquirida por OpenAI el año pasado.
El director ejecutivo de la empresa señaló que la meta es construir un asistente de IA que no solo responda a órdenes, sino que también sea contextualmente consciente.
Esto significaría que la IA podría saber cuándo es apropiado intervenir en una conversación, proponer información o esperar el momento adecuado para interactuar con el usuario.
Este paso marca un hito importante para OpenAI, que continúa expandiendo sus horizontes más allá del software convencional y se adentra en el terreno de los dispositivos personales conectados por voz, un área en la que pretende liderar en los próximos años.