Tres cámaras cuidadosamente ajustadas registran desde varios ángulos gestos manuales y movimientos corporales. Una computadora toma esas imágenes y va creando una biblioteca de gestos con la que se entrena a un programa para reconocer cuando una persona hable con la lengua de señas uruguaya. Así es el sistema instalado en el Cicea (Centro Interdisciplinario en Cognición para la Enseñanza y el Aprendizaje) de la Universidad de la República. La meta es que un programa detecte las señas que registran las cámaras y las traduzca a órdenes o lengua escrita.

Ariel Stassi, a cargo del proyecto, aclara que cuando el software esté pronto se podría utilizar, por ejemplo, para que alguien mudo haga una o más señas ante la cámara y que el software lo convierta en audio. O también se puede usar para entrenar intérpretes de lengua de señas uruguaya a través de una eventual aplicación de celulares. 

El proyecto está en su fase inicial y solo ha tenido algunos sujetos de prueba, aunque se espera que en poco tiempo empiece a digitalizar gestos con continuidad para completar la base de datos que alimentará al sistema.

"Por un lado está el trabajo en el reconocimiento automático y por otro el problema de que la lengua de señas es distinta en cada lugar. Aunque haya sistemas en otras partes con objetivos similares, hay que aprender la lengua de acá", explicó Stassi. Los países en los que se han realizado experiencias de referencia son Alemania, Estados Unidos y China más recientemente. Las primeras pruebas tienen unos 40 años y se centraban en el reconocimiento automático de comandos por voz. 

Stassi explica que hasta ahora han utilizado lo que se llama aprendizaje por transferencia, programas de reconocimiento que ya existen como Deep Hand y Open Pose, y los adaptan con los registros de la lengua de señas nacional, que no es igual a la argentina ni a la de otros países. 

Las tres cámaras en simultáneo enfocan los mismos gestos desde distintos ángulos para enseñarle a la computadora a reconocer las imágenes, clasificarlas y diferenciarlas. Stassi da como referencia el dato de que un sistema así en otros países ha llegado a usar más de un millón de imágenes para alimentarse y aprender a decodificar señas. En el proyecto que se plantean en Uruguay no hay una cifra estimada de imágenes, ya que se determinará a medida que se vayan cumpliendo las etapas.

"Si el conjunto de datos es muy pequeño, se corre el riesgo de que el sistema se sobreentrene. Es decir, que se acostumbre a ciertas personas o maneras y que no pueda reconocer las señas de una persona desconocida. Cuantos más datos tengamos, el sistema estará más preparado para lidiar con la variabilidad natural de la lengua", afirmó Stassi.

Te puede interesar