Atlántico

La aplicación incluyente para personas con discapacidad auditiva

Tres jóvenes estudiantes de Ingeniería de Sistemas de la Universidad del Norte diseñaron la primera aplicación capaz de traducir el lenguaje de señas.

El amor por la tecnología, los videojuegos e innovación llevó a tres estudiantes universitarios de Barranquilla a construir –desde sus conocimientos en ingeniería de sistemas y computación– una herramienta que le permitiera comunicarse con mayor facilidad a la población en condición de discapacidad auditiva y derrumbar así las barreras que hay en torno a la inclusión. 

Mauricio Maldonado, Carla Durán y Juan Carlos Arteaga son los tres jóvenes creadores de ‘Talk To Hands’, la aplicación móvil capaz de traducir el lenguaje de señas a través de la captura de una imagen. 

Esta idea –dijeron– nace como propuesta de un proyecto de grado tras vivir una experiencia cercana con la tía de Carla, quien presenta esta condición. Los jóvenes manifestaron que estructurar el proyecto y materializarlo “fue todo un reto”, debido a que ninguno sabía lenguaje de señas.

“Uno de los retos fue enfrentar la pluralidad de la lengua de señas alrededor del mundo. Nuestro lenguaje de señas en Colombia no es el mismo que se aplica en China, España y otros lugares”, mencionó Mauricio. 

Sostuvo además que se le da aún más vuelo a la iniciativa porque no existía una idea concisa o un proyecto estructurado que involucrara a personas con cierta discapacidad auditiva. 

“Hay diccionarios y videos que enseñan la lengua de señas, pero no existe una aplicación tecnológica como tal que ayude a traducirlo y comunicarlo”, agregó el joven.

Los autores de la app manifestaron que el primer paso para construir esta solución incluyente fue familiarizarse con el lenguaje de señas colombiano debido a que no es un idioma universal, sino que depende del país en que se encuentre la persona.

Posteriormente construyeron un dataset de imágenes (base de datos de origen) de las palabras en señas y entrenaron la inteligencia artificial usada para que lograra relacionar ambos componentes. 

“Se logró capturar de 50 a 60 imágenes por palabra por lo que usamos una librería de detección de objetos con Python, llamada Tensorflow. La app en la práctica te mostrará aparte de la palabra e imagen el porcentaje de acierto de la seña empleada”, contaron.

Actualmente el prototipo construido es 100 % funcional, según los autores del proyecto. Aspiran que en dos meses se haga el lanzamiento oficial y esté disponible en las tiendas PlayStore y AppStore. 

De acuerdo con Carla Durán, la solución tecnológica será completamente gratuita, debido a que el objetivo por la que fue creada es “ayudar a la inclusión” y “aportar un granito para Colombia”.

“Desde el primer momento que cruzamos este último semestre universitario nos pusimos como meta crear algo importante para Colombia, que la gente utilice y les sirva”, dijo.

Modo de uso.

La aplicación –dijeron– es muy sencilla y fácil de usar. ‘Talk To Hands’ consta de tres secciones: home, el cual da la bienvenida a la app y las indicaciones de uso de la misma; la segunda fase se activa la cámara para la captura de la imagen de la seña a traducir y por último muestra el resultado con el porcentaje de acierto de la palabra. 

“La aplicación es demasiado intuitiva, no le colocamos un registro previo para evitar demoras en su uso. La idea es que la persona baje la app y pueda usarla de una”, expresó Carla Durán. 

Los estudiantes universitarios manifestaron que incluirán en la aplicación una sección que permita a los usuarios que la utilicen reportar cualquier error o simplemente dejar una sugerencia al proyecto tecnológico.

Según Juan Carlos Artega, actualmente el prototipo cuenta con un porcentaje de acierto del 70 %, puesto que se tiene un dataset inicial. La idea –dijo– es que la inteligencia artificial siga aprendiendo y el banco de datos siga creciendo para conseguir un acierto más elevado. 

“Falta capturar más imágenes de señas desde varios ángulos y diferente iluminación para así tener un prototipo más completo y más asertivo. En un futuro esperamos que la app pueda autoalimentarse con personas que saben y practiquen el lenguaje de señas”, agregó.

Por lo anterior, hizo un llamado a las organizaciones que enseñan este lenguaje para ser parte del proyecto y brindar un acompañamiento para validar las señas empleadas para la captura de la imagen y buscar un robustecimiento de la aplicación.

Tutoría

El acompañamiento docente fue “muy importante” para la creación de esta solución tecnológica. Los jóvenes indicaron que tuvieron el apoyo de dos tutores: Wilson Nieto y Eduardo Zurek. 

El primero apoyó en la parte investigativa, de cómo exponer y presentar el proyecto; el segundo, el cual se especializa en la inteligencia artificial, contribuyó a la parte técnica. 

“Existen diferentes versiones de esta solución, pero todas están enfocadas en el ámbito web y nuestra solución plantea una solución móvil y una inteligencia artificial. Entonces el docente Zurek nos ayudó a cómo tener una mejor conexión entre estas dos versiones”, puntualizó Maldonado.

Facebook
Twitter
Messenger
Whatsapp
Convierta a El Heraldo en su fuente de noticias
DETECTAMOS QUE TIENES UN BLOQUEADOR DE ANUNCIOS ACTIVADO
La publicidad nos ayuda a generar un contenido de alta calidad
No quiero apoyar el contenido de calidad
X
COMO REPORTAR A WASAPEA
1. Agrega a tu celular el número de Wasapea a EL HERALDO: +57 310 438 3838
2. Envía tus reportes, denuncias y opiniones a través de textos, fotografías y videos. Recuerda grabar y fotografiar los hechos horizontalmente.
3. EL HERALDO se encargará de hacer seguimiento a la información para luego publicarla en nuestros sitio web.
4. Recuerda que puedes enviarnos un video selfie relatándonos la situación.