El gigante estadounidense Google decidió poner el radar soli en el centro de nuevos trabajos que buscan potenciar las interacciones no verbales con los dispositivos inteligentes

El objetivo es que estos dispositivos sepan cuándo el usuario presta atención para iniciar una acción.

El equipo de Advanced Technology and Projects (ATAP) de Google utiliza el radar soli y la tecnología de aprendizaje automático para crear una nueva generación de dispositivos "socialmente inteligentes".

Reconocimiento por voz y facial 

Estos trabajos buscan "reimaginar" la interacción con los dispositivos, que hasta ahora se basó en el control táctil, voz y gestos faciales.

La nueva propuesta atiende al movimiento corporal para detectar si el usuario quiere o está listo para interactuar.

Para ello, los investigadores enseñan a los dispositivos a aprender el contexto social. Y una forma de comprender que puede darse una interacción empieza por saber si el usuario, al acercase, superpone su espacio personal con el del dispositivo.

Los matices del lenguaje corporal también tienen un papel destacado, por ejemplo, la orientación de la cabeza, para identificar el ángulo en el que la persona presta atención al dispositivo.

La finalidad de esta investigación también recoge, no solo la interacción a partir del lenguaje no verbal, sino también la anticipación a dicha interacción, para que el dispositivo sepa "cuándo es el momento correcto" para iniciarla, o cuándo una persona simplemente pasa por delante.

"La experiencia puede ser bastante mágica, tener dispositivos con gracia social; que nos comprendan y se anticipen en nuestro día a día de una forma más considerada y encantadora", indican en 'In the Lab with Google ATAP: Nonverbal Interactions with Soli Radar'.

Inteligencia artificial, la clave para desarrollar el metaverso

El desarrollo del metaverso pasó a convertirse en la principal prioridad para Mark Zuckerberg. El año pasado cambió el nombre de Facebook a Meta, y en los últimos meses comunicó algunas de las grandes innovaciones que lleva adelante para profundizar su visión sobre los mundos virtuales.

Durante el evento Inside the Lab, la firma brindó detalles sobre cómo la inteligencia artificial ayudará construir el metaverso. Allí, los expertos de la firma revelaron algunos de los proyectos en los que trabajan sus equipos.

"El futuro del metaverso está ligado a la inteligencia artificial. La IA es clave para crear expriencias contextuales inclusivas", comentó Antoine Bordes, Director de Meta IA, en una mesa redonda a la que iProUP tuvo acceso.

Bordes explicó que uno de los objetivos de Meta es desarrollar una inteligencia artificial "lo suficientemente buena" como para crear experiencias útiles para los usuarios. Para eso, en el Inside the Lab mostraron algunos modelos y sus investigaciones.

Interoperabilidad y trabajo colaborativo

"El trabajo colaborativo es una parte importante de lo que estamos costruyendo. La interoperabilidad es clave, y para eso colaboramos con distintos equipos de investigación y proyectos, compartiendo datos, análisis y pruebas", sumó el experto.

Además, comentó que lo mostrado en Inside the Lab "no es algo terminado", sino que se tratan de prototipos en desarrollo.

Los asistentes inteligentes ya forman parte de la vida cotidiana. Se les puede pedir que agenden recordatorios, que pongan música, o hasta que ayuden a enviar un mensaje por WhatsApp.

Sin embargo, el gran problema que enfrentan estos asistentes es la falta de profundidad de entendimiento contextual. Para eso, Meta desarrolló el proyecto CAIRaoke, un innovador enfoque de IA conversacional que podría permitir que las personas tengan interacciones y conversaciones más naturales con los dispositivos.

"CAIRoke es un gran ejemplo del uso de la IA. Estamos trabajando con experiencias y tecnologías muy poderosas que permitirá la mejora de la inteligencia artificial conversacional", aseguró Bordes.

Conversaciones más personales

Este modelo neuronal tiene la capacidad de generar conversaciones más personales y con mayor contexto que otros sistemas. Hoy, esta tecnología está aterrizando en Portal, el dispositivo de videollamadas de Meta, pero el objetivo final de la compañía es que pueda ser utilizado tanto en la vida cotidiana como en el metaverso.

¿De qué forma? Mark Zuckerberg demostró el potencial de la IA conversacional en el evento, donde le pidió a un bot que decorara un mundo virtual a su gusto.

Y esto es solo la punta del iceberg. Desde la empresa quieren que las personas puedan hablar de manera natural con sus asistentes conversacionales, de modo que no tengan problemas para retomar el tema de una conversación anterior, cambiar por completo de tema o mencionar asuntos complejos que requieren de entendimiento contextual o hasta usando gestos.

Más proyectos para el Metaverso

Otro de los proyectos presentados fue el No Language Left Behind (Ningún Idioma Excluido, en español), una herramienta que creará un sistema único capaz de traducir entre todas las lenguas escritas, rompiendo las barreras para casi la mitad de la población mundial que no puede acceder a Internet en su lengua materna o preferida.

Además, la firma utilizará el Traductor Universal del Habla, un sistema de IA que proporciona traducciones instantáneas de voz-a-voz para todos los idiomas, incluso los que son predominantemente orales.

Te puede interesar