La escasa difusión y predisposición de la sociedad por aprender lenguas de señas siguen siendo una deuda pendiente que limita la inclusión y la comunicación de las personas sordas.
Frente a esta problemática, cinco estudiantes de quinto año de la orientación en Tecnologías de la Información y las Comunicaciones (TIC) del colegio ORT crearon SignAI, una aplicación impulsada por inteligencia artificial que busca derribar estos obstáculos.
La herramienta permite traducir en tiempo real la lengua de señas americana (ASL) a texto escrito, lo que facilita la interacción entre personas sordas y oyentes. De esta manera, promueve un intercambio fluido y accesible, aprovechando el potencial de la IA para mejorar la inclusión comunicacional.
Para el desarrollo de la propuesta, los alumnos se dividieron las tareas y cada uno cumplió un rol clave dentro del proyecto:
- Tomás Grinstein, front-end
- Borja Izurieta, diseño
- Benjamín Piccagli, back-end
- Federico Diaz Nemeth, IA
- Maximiliano Setton, IA
La plataforma también ofrece una sesión de aprendizaje con juegos interactivos, pensada para que las personas interesadas puedan aprender la lengua de señas argentina (SLA) de manera simple y agradable.
El objetivo es que las personas sordas puedan comunicarse de manera autónoma, sin necesidad de un intérprete. A través de la app, solo deben grabar y subir un video, y la inteligencia artificial se encarga de traducirlo al texto.
Integrantes del equipo SignAI, IA para traducir lenguaje de señas
Desafíos en la creación del proyecto
SignAI surgió en el marco de las jornadas institucionales "Empatizando", a cargo del profesor Marcelo Ranzoni, cuyo principal objetivo es motivar a los estudiantes a desarrollar iniciativas con un impacto social positivo.
"Durante los encuentros conocimos a Lucas, un chico hipoacúsico, que nos compartió sobre las diferentes problemáticas y dificultades que atraviesan las personas sordas en la actualidad", detalló Grinstein a a iProUP.
A partir de ese intercambio, el equipo, junto con Lucas y Federico Sykes, creador del Festival de Cine Sordo, profundizó en la realidad cotidiana de la comunidad sorda y en la necesidad constante de contar con un intérprete para realizar tareas tan simples como un trámite o una consulta.
"La aplicación está pensada para que la persona oyente comprenda la lengua de señas y lo que la persona sorda quiere expresar, ya que ellos sí logran entendernos, ya sea leyendo los labios o por escrito", agrega Setton.
El proyecto atravesó varios desafíos en sus comienzos. Aunque la primera versión fue diseñada en 2024, no logró funcionar como esperaban: la interfaz no era atractiva y el sistema presentaba fallas.
"El fracaso nos motivó a volver a intentarlo. Además, estábamos muy comprometidos con la problemática y queríamos seguir adelante", reflexiona el equipo.
A través de la IA, las personas sordas pueden comunicarse sin necesidad de un intérprete
Un trabajo en conjunto con la Legislatura de CABA
Según explican los estudiantes, uno de los principales desafíos del proyecto fue la falta de estandarización en las lenguas de señas globales.
"Las lenguas de señas no están estandarizadas, por lo que cada persona puede expresarlas de manera distinta. Esto representa un gran desafío para el entrenamiento de la IA, ya que los datos deben ser cada vez más amplios y diversos", comentó Diaz Nemeth.
Para superar esta dificultad, el equipo junto con la Legislatura de la Ciudad de Buenos Aires, comenzaron a desarrollar datos específicos de la lengua para poder entrenar con mayor precisión a la IA.
"Se nos ocurrió contactar a la Legislatura porque todas sus sesiones se transmiten con intérprete. Pensamos que esas grabaciones podían servirnos como material, pero nos enteramos de que no las guardaban. Después de nuestro pedido, empezaron a archivarlas", agregan
El objetivo ahora es ampliar el vocabulario de la inteligencia artificial para que pueda interpretar con mayor precisión la comunicación cotidiana de las personas sordas.
"SignAI es la primera solución con IA que traduce lengua de señas de manera continua. Nuestra aplicación logra adaptarse a la forma real en que las personas sordas se comunican. La IA se adapta a ellos, no al revés", concluye Setton.