Desarrollan un programa informático para asistir a deficientes visuales

Un grupo de investigadores de la UMA trabaja en un proyecto que evite obstáculos al invidente y le guíe por su entorno

LUIS F. PRIETO| MÁLAGA.

Un grupo de investigadores de la Universidad de Málaga (UMA), encabezados por el profesor Antonio Jesús Bandera, lleva a cabo un proyecto para facilitar las tareas diarias y de movilidad a las personas ciegas o deficientes visuales. La robótica pone al servicio de estos usuarios un sistema de visión artificial.

Todo nace en un programa informático capaz de detectar marcas visuales a través de equipos de cámaras en estéreo. El programa se inserta después en una plataforma robótica con movimiento autónomo y, a partir de ahí, comparte el entorno con humanos cumpliendo las funciones encomendadas. Todas encaminadas a la asistencia de personas con discapacidad visual, ayudándoles a evitar obstáculos, construir un mapa del entorno, detectar y reconocer presencias de usuarios e, incluso, autolocalizarse.

«De momento, estamos centrados en el software, para lo que nos hemos basado en tesis doctorales que se han leído estos últimos años sobre estos temas. Con estos programas pretendemos perfeccionar la detección de caras, movimientos, automatización de gestos y navegación con marcas visuales, el reto ahora es integrarlo todo en un sistema que interaccione con las personas en espacios interiores como viviendas, hospitales o centros de trabajo», señaló el director del proyecto, el profesor Bandera.

Diversas tareas

Por sus características y funcionalidades, el robot se convierte en un ente 'sociable', que comparte entorno con personas y muestra un comportamiento socialmente aceptable. Es capaz incluso de mirar a los ojos cuando le hablan. Ahora trabajan en otorgarle un aspecto humanoide, en un programa en colaboración con la Universidad de Extremadura.

El sistema de sensores está centralizado, desglosándose en módulos de percepción y en cámaras estéreo paralelas. «Ahora estamos valorando qué tipo de interfaz es el más adecuado para dirigir todo el sistema de bases de datos, gestos y funciones que estamos incluyendo. El kinetc que se incluye ahora con las videoconsolas nos está proporcionando información para elegir el mejor método», explicó el investigador.

También se han logrado ejecutar funciones que detectan siluetas de personas y objetos llamativos y reconocen gestos dinámicos a los que responder. La clave en el desarrollo del software es la selección de elementos, como colores, contrastes o relevancias, para ayudar a la plataforma a detectar la marca visual en cuestión.

Las próximas fases del proyecto pretenden aumentar las capacidades del robot para seguir profundizando en la interacción hombre-máquina. El reto más inmediato será trabajar en una terapia de neurorehabilitación, para asistir a pacientes con deficiencias motoras en los miembros superiores. La culminación del software y la integración en el interfaz se extenderá a todo el año 2011, a la espera de la ampliación de la financiación.