Según estimaciones de la Federación Mundial de Sordos, en el mundo hay cerca de 70 millones de personas con deficiencias auditivas, de las cuales un porcentaje difícil de concretar conoce y utiliza algún lenguaje de signos. Aunque generalmente el lenguaje verbal se enseña a los sordomudos a través de terapia, muchos necesitan recurrir a otro tipo de lenguaje que les permita expresarse con una mayor fluidez, y es por eso que aprenden el de signos.
Para poder conjugar de forma definitiva ambos tipos de lenguajes, investigadores de la Universidad de Texas A&M han desarrollado un dispositivo portátil que traduce el lenguaje de signos a palabras mediante la detección de los movimientos del usuario. El sistema utiliza dos sensores distintos que se encuentran en la muñeca derecha del usuario. Uno de ellos es un sensor de movimiento con un acelerómetro y un giroscopio, que mide la velocidad de mano y del brazo del usuario y su ángulo, detectando qué palabra podría estar intentando transmitir. El otro es un sensor electromiográfico, que mide el potencial eléctrico de movimiento de los músculos. La combinación de ambos sensores podrían llegar a determinar con bastante exactitud qué parte de las manos y los dedos se mueven, lo cual es fundamental para poder convertir ese movimiento en palabras.
A continuación, la información recogida por los sensores se traslada a través de Bluetooth a un ordenador portátil que ejecuta un algoritmo para interpretar el signo y muestra la palabra en la pantalla. Entonces el ordenador envía la información al teléfono de la otra persona, de manera que pueda saber qué es lo que su interlocutor está diciendo. Roozbeh Jafari, el ingeniero a cargo del proyecto, espera poder incorporar en una próxima versión un pequeño ordenador en el dispositivo de manera que no no sea necesario utilizar el portátil. También espera aumentar la velocidad del aparato, porque en su versión actual los usuarios tienen que esperar a que el proceso se complete, haciendo que la comunicación sea mucho más lenta.
El dispositivo, todavía en fase de prototipo, puede reconocer 40 signos de la lengua de señas americana, conocida como ASL, con un 96 por ciento de exactitud. Si bien existen cientos de signos, se eligieron los 40 originales porque son los más comunes y útiles. Al basarse en el ASL el dispositivo tiene que ser capaz de captar hasta el más pequeño matiz en el movimiento o la posición de las manos. Por ejemplo, la palabra «por favor» se expresa haciendo círculos sobre su pecho con la mano abierta, mientras que «lo siento» utiliza un movimiento casi idéntico, aunque con la mano cerrada.
Muchas tecnologías se han desarrollado en los últimos años para ayudar a personas sordomudas a comunicarse con aquellos que desconocen el lenguaje de signos, pero generalmente utilizaban cámaras de vídeo para leer los gestos, lo que implicaba la incomodidad de tener que llevar una cámara grabando todo el tiempo y además no funcionaba bien cuando hay escasa iluminación. Según Jafari si el dispositivo es incómodo o molesto la gente no lo llevará; la comodidad y la estética son factores fundamentales para que un aparato de estas características triunfe. Por eso, aunque el prototipo actual está lleno de cables, correas y electrodos, Jafari tiene previsto que en su versión final sea pequeño y atractivo y que tenga la forma de un reloj, y que funcione de la misma forma en que los relojes son capaces de medir el ritmo cardíaco en la actualidad.
No hay comentarios