El Clima en

HOY

MAÑANA

PASADO

A ver lo que se dice

Un equipo del Instituto de Investigación Informática (III-LIDI) de la Universidad Nacional de La Plata (UNLP) trabaja en el desarrollo de un sistema para traducir a texto, de manera automática, el lenguaje de señas que utilizan las personas hipoacúsicas.

A ver lo que se dice

El sistema funciona con una cámara de video conectada a una computadora que permite captar la posición y los movimientos de las manos de la persona que se expresa en lenguaje de señas y, con el uso de algoritmos, lo traduce a texto en tiempo real.

“Es un proyecto de investigación que trabaja en el desarrollo de lenguaje inteligente”, le dijo a la agencia Télam el doctor en Informática Franco Ronchetti, parte del equipo de programación del III-LIDI.

“En el laboratorio hacemos tareas de investigación y desarrollo con docentes y graduados de la Facultad. Hace cuatro años que trabajamos en algoritmos que permitan la clasificación de gestos dinámicos, que son los que uno puede hacer con el cuerpo moviéndose frente a un dispositivo”,  precisó.

El profesional explicó que comenzaron con dispositivos del estilo del controlador Kinect, de la consola Xbox de Microsoft, que reconoce gestos corporales y da comandos simples como saltar, moverse, correr o dar patadas, por lo que luego les pareció interesante mudarse a la lengua de señas.

“La UNLP le da importancia al tema en los últimos tiempos, hay muchos alumnos hipoacúsicos, y nos pareció que podíamos acercarnos a la problemática”, dijo Ronchetti.

Sostuvo que “esos golpes y saltos son más fáciles de clasificar porque los dispositivos censan dónde están las manos y pies, y porque los movimientos son bastante simples; pero en la lengua de señas, no sólo hay un movimiento más pequeño sino que el lenguaje tiene diferentes configuraciones, formas que la mano puede tomar”.  

El especialista afirmó que las manos pueden adquirir “muchas formas mientras va haciendo una seña”, por lo que clasificarlas “es sumamente complejo”. 

Los investigadores del III-LIDI partieron del concepto de desarrollar un mecanismo de fácil acceso, por eso el primer paso del proyecto consistió en el armado de una base de datos propia del Lenguaje de Señas Argentino, que no existía, con 800 imágenes de las manos estáticas en las 16 posiciones que se usan durante el lenguaje de señas.

“Registramos las señas con una cámara convencional, pero también podría hacerse con una webcam. La idea es que se pueda usar una computadora común, o también se podrían filmar las señas con un teléfono”, cerró Ronchetti.


COMENTARIOS