3 ago. 2011

Gafas para ver con los oídos


Cada mañana, Jorge Tomás, estudiante de Derecho en la Universidad Jaime I (UJI) de Castellón, sale de casa con su mochila y su bastón. Desde hace dos semanas, este invidente de 23 años ha añadido a su equipaje diario un nuevo adminículo que le acompaña siempre: unas gafas muy especiales. De diseño moderno, aparentemente le protegen de los rayos solares, pero su función va mucho más allá: le permiten ver a través de los oídos. Dos microlentes –una especie de cámaras– situadas a la altura de los ojos captan los objetos que están frente al usuario y un pequeño ordenador convierte esas imágenes en sonidos, que el invidente escucha con unos auriculares.


"Este aparato es como un nuevo sentido. Me indica cuándo hay un objeto muy próximo emitiendo unos clacks", explica Jorge. "Me ayuda a ver". Él es ciego de nacimiento porque padece una enfermedad denominada amaurosis de Leber. Percibe luces y sombras, pero sus ojos no le proporcionan ninguna pista útil sobre la realidad visual. Las nuevas gafas representan, según sus palabras, "una visión previa al bastón". Le avisan de que se acerca a un obstáculo, como por ejemplo un andamio, dos o tres metros antes de que pueda tocarlo.

Jorge es uno de los tres usuarios que han estrenado el nuevo dispositivo, denominado 'Eye21'. Ya hay 10 unidades fabricadas y antes de diciembre se dispondrá de la primera producción en serie. Se trata de un diseño muy nuevo que se encuentra en la fase previa a su ejecución en línea. El padre científico del sistema es Guillermo Peris Fajarnés, director del Centro de Investigación en Tecnologías Gráficas de la Universidad Politécnica de Valencia. Desde esta institución se está creando la empresa responsable de su fabricación.

¿Cómo funciona?

Guillermo Peris Fajarnés resume el funcionamiento de las nuevas gafas: "El sistema está basado en la transformación de información visual en puntos de sonido que la persona detecta como si estuvieran en los objetos". Jorge lo explica con un ejemplo sencillo: "Si suena un clack a la izquierda, es que hay algo a la izquierda, y si suena en el centro es que está justo delante de mí". Este joven no ha hecho más que empezar a utilizar una herramienta que nunca suplirá al bastón, pero que con el tiempo y un buen entrenamiento le permitirá hacer muchas más cosas que sortear obstáculos.

Según el investigador, "el ángulo de visión que obtiene el usuario se encuentra en una banda de 60 grados en horizontal y 10 en vertical". No obstante, estos parámetros corresponden a la versión inicial, "de entrenamiento". Posteriormente se podrán ampliar y adaptar a las necesidades puntuales del usuario. En este sentido, relata algunas de las posibilidades que se están valorando: "El sistema tiene módulos de siete sonidos en adelante. Se puede adaptar para que quien lo utiliza reconozca, por ejemplo, el plato y los cubiertos cuando se siente a la mesa".

En estos momentos, el dispositivo 'Eye21', que acaba de ser reconocido con el Premio Vodafone a la Innovación en Telecomunicaciones, es capaz de ofrecer muchas más prestaciones de las que puede aprovechar una persona que no ha recibido entrenamiento. En el futuro, Jorge y el resto de los usuarios podrán distinguir, entre otras cosas, los colores. Además, podrán incorporarse en el sistema funciones de reconocimiento de texto y texturas. Peris Fajarnés aclara que los invidentes ya disponen de este tipo de aplicaciones a través de otros aparatos. "Nuestro objetivo es dar la posibilidad de integrarlas fácilmente en la herramienta que hemos creado". También se podrá detectar si un objeto que se mueve por la calzada es un coche o una bicicleta.

De momento sólo se escucha un clack, pero se irán incorporando más sonidos, de tal forma que la aproximación de un vehículo a gran velocidad se distinga de otros elementos mediante un pitido agudo. El invidente también podrá hacer peticiones a la máquina, como que busque su móvil, o que le diga la identidad de un compañero de universidad que se está acercando, cuya ficha habrá sido previamente introducida en una base de datos en el ordenador.

"Lo que debemos considerar es que esta nueva capacidad debe ir desarrollándose con el tiempo. A medida que el usuario vaya avanzando, iremos ampliando la cantidad de sonidos", señala el creador del ingenio. Asimismo, precisa que "usar el canal auditivo como fuente de representación sonora del espacio permite mantener una conversación a la vez que se procesa el sonido, ya que el cerebro lleva cada tipo de sonido a una parte diferente y los procesa de manera distinta y en paralelo". Por lo tanto, queda descartada la posibilidad de que el aparato emita palabras o frases porque en ese caso la persona que lo utiliza tendría ocupada la zona cerebral del lenguaje y no estaría en plena disposición de charlar con otras personas.

Capacidad cerebral

La idea de desarrollar un sistema como este, que mejore la movilidad, la orientación y la percepción del entorno de las personas ciegas, no es totalmente nueva. El equipo que dirige Guillermo Peris Fajarnés ya elaboró hace algunos años un prototipo en colaboración con otras instituciones y con financiación europea. "Esa versión no podía fabricarse en serie porque no era rentable», explica. Además, era un sistema «muy aparatoso". En cambio, el nuevo diseño es totalmente portátil.

El investigador recalca que se ha realizado un proceso de reingeniería y la electrónica que se ha empleado es completamente distinta, pero reconoce que la base conceptual es la misma. Por lo tanto, aunque todavía hay que hacer pruebas con diferentes sujetos, ya existen estudios que demuestran que este tipo de aparatos funcionan. En el fondo, lo que ocurre es que nuestro cerebro está preparado de forma natural para enfrentarse al reto de transformar sonidos en imágenes.

De hecho, las técnicas de imagen médica –como la resonancia magnética funcional– muestran que los sonidos que perciben quienes usan las gafas se procesan en muchos casos en la zona del cerebro que está más relacionada con la visión.

Las investigaciones han desvelado cosas todavía más sorprendentes. En los experimentos realizados con invidentes, algunos de ellos declaraban que la percepción sonora de su entorno iba acompañada por una evocación visual simultánea. Es decir, estos sujetos visualizaban destellos luminosos –descritos como pequeñas lucecitas o estrellas– localizados en la misma posición que las fuentes de sonido virtuales. Este tipo de percepciones reciben el nombre de fosfenos.

Está claro que inventar algo totalmente nuevo es casi imposible. La estrategia de emplear herramientas acústicas para obtener una representación espacial no es ni siquiera una creación genuinamente humana. Ciertos representantes del reino animal, entre los que destacan los delfines, están dotados de todo lo necesario para desplegarla y la tienen mucho más desarrollada que nosotros.

Es lo que se conoce como ecolocalización, que es un método de interpretación las ondas sonoras reflejadas por los objetos cercanos. Los delfines emiten ráfagas de clicks cuyo rebote analizan. Gracias a este complejo sistema, pueden determinar el tamaño, la forma, la velocidad, la distancia y la dirección de los objetos que están en el agua.

Esta capacidad de los cetáceos fue sugerida por Jacques Cousteau antes de que fuese oficialmente descubierta. El explorador observó a las marsopas y concluyó que el curso cambiante que seguían no podía deberse a otra cosa que a una especie de sónar natural.

El responsable de 'Eye21' expone que su dispositivo "coloca un sonido clack en cada uno de los puntos o distancias que ha detectado, de manera que la persona los escucha como si proviniesen del objeto". Pero no se trata de ecolocalización propiamente dicha, ya que ésta "exige la emisión y rebote del sonido. En nuestro caso, el sistema electrónico hace todo el proceso completo devolviendo el sonido al usuario, de tal manera que es su cerebro el que debe reconstruir esa forma o imagen espacial".


FUENTE:

No hay comentarios:

Hemeroteca

Etiquetas