En el marco de la CES 2019, Nissan está presentando su visión futurista para un vehículo que ayuda a los conductores a "ver lo invisible" al fusionar el mundo real y el virtual, creando la mejor experiencia de autos conectados.

Denominada Invisible-to-Visible, o i2V, esta tecnología  creada a través de Nissan Intelligent Mobility, la visión de la compañía para cambiar la forma en que los vehículos son conducidos, impulsados e integrados a la sociedad, demostrará el futuro de la conducción a través de una experiencia tridimensional e interactiva.

El objetivo es apoyar a los conductores mediante la combinación de información de los sensores exteriores e interiores del vehículo con datos de la nube. Esto permite al sistema no sólo monitorear los alrededores inmediatos del vehículo sino también anticipar lo que está por delante, incluso mostrando lo que hay detrás de un edificio o a la vuelta de la esquina.

 

Para hacer que la conducción sea mejor, la orientación se brinda de forma interactiva, como si fuera un humano. Así, al conectar el mundo virtual, i2V abre infinitas posibilidades de servicio y comunicación, lo que hace que la conducción sea más cómoda.

"Al ayudar al conductor a ver lo invisible, i2V aumenta su confianza y hace que la conducción sea más placentera. Las funciones interactivas crean una experiencia que se adapta a los intereses y estilo de conducción para que cualquiera pueda disfrutar de usándolo a su manera", dijo Tetsuro Ueda, líder experto en el Centro de Investigación de Nissan.

Conducción conectada como nunca antes

El funcionamiento de esta nueva tecnología es con el sistema Omni-Sensing de Nissan, el cual actúa como un centro de recopilación de datos en tiempo real del entorno del tráfico, de los alrededores y el interior del vehículo.

La tecnología SAM (Seamless Autonomous Mobility) analiza el entorno de la autopistaa través de información relevante en tiempo real, y el sistema de soporte semiautónomo ProPILOT proporciona información sobre los alrededores del automóvil.

La tecnología mapea un espacio virtual de 360 grados alrededor del vehículo para proporcionar información sobre cosas como el estado de las autopistas e intersecciones, la visibilidad, la señalización o los peatones cercanos. También puede monitorear a las personas que se encuentran dentro del vehículo mediante el uso de sensores interiores para anticipar mejor cuándo pueden necesitar ayuda para encontrar algo o tomar un café para mantenerse alerta.i2V también puede conectar a conductores y pasajeros con personas en el mundo virtual del Metaverso. Esto hace posible que la familia, los amigos u otras personas aparezcan dentro del automóvil como avatares tridimensionales de realidad aumentada para ofrecer compañía o asistencia.

Otra dato para destacar es que durante la conducción autónoma, i2V puede hacer que el tiempo que pase en un automóvil sea más cómodo y agradable. Por ejemplo, al conducir bajo la lluvia, se puede proyectar un paisaje de un día soleado dentro del vehículo.

Durante la conducción manual, i2V proporciona información de Omni-Sensing como una superposición en el campo de visión completo del conductor. La información ayuda a los conductores a evaluar y prepararse en distintos escenarios, como esquinas con poca visibilidad, condiciones irregulares de la superficie de la carretera o tráfico que se aproxima.

 

El conductor también puede reservar a un conductor profesional del Metaverso para obtener instrucción personal en tiempo real. El conductor profesional aparece como un avatar proyectado o como un vehículo de persecución virtual en el campo de visión del conductor para demostrar la mejor manera de conducir.

i2V no sólo mostrará información sobre congestión y el tiempo estimado de viaje; sino que puede comunicar detalles únicos para informar mejor al conductor sobre el camino a seguir, eliminando factores desconocidos para mitigar el estrés al conducir. i2V dará sugerencias alternativas, incluso en cuanto a qué carril se mueve mejor en tráfico intenso, mediante el uso de mapeo de datos locales en tiempo real a través de Omni-Sensing.

Te puede interesar