VA | EN

La UA enseña a los robots móviles a que sepan por dónde andan

Muchos robots ven. En la actualidad hay baratos y satisfactorios dispositivos electrónicos que se lo permiten, por ejemplo una cámara digital. Pero los autómatas móviles deben además «entender» lo que perciben para orientarse en una habitación, salvar un obstáculo o reconocer en qué punto de un pasillo se encuentran. La Universidad de Alicante está investigando cómo lograr que «aprendan» a hacerlo.

«Tratamos de que el robot en movimiento interprete lo que ve», indica Diego Viejo, profesor de Ciencias de la Computación e Inteligencia Artificial de la UA y miembro del grupo de investigación Robótica y Visión Tridimensional (ROVIT) de la UA, cuyas líneas de trabajo incluyen el aprendizaje de los robots y su tratamiento de la visión en tres dimensiones y que dirige Miguel Ángel Cazorla. También experimentan el desarrollo de técnicas de realidad aumentada, la localización visual, topológica y métrica y los métodos de localización y mapeado simultáneos en róbotica móvil. La UA lleva a cabo también en este terreno una actividad didáctica y divulgativa, de la que ha sido un ejemplo las recientes jornadas de divulgación de la robótica móvil que ha coordinado Diego Viejo.

El objetivo de los científicos de la UA es aproximarse a las capacidades del ojo de los seres vivos, un sistema de captación de información que aún está lejos de las posibilidades de las máquinas. Persiguen proporcionar métodos a la inteligencia artificial del autómata para reconstruir el mundo que le rodea a partir de sus observaciones, según se va desplazando por él; en definitiva, que el ordenador del robot imite de forma rudimentaria  lo que hace el cerebro. Por ejemplo  una esquina debe ser interpretada por el robot como tal, y además hay que lograr que la distinga de otra igual, pero que no es la misma, aunque las paredes le parezcan todas idénticas. El robot debe aprender a saber dónde está y si ya ha estado o no antes ahí. El investigador explica que es la versión robótica del viejo dilema filosófico del huevo o la gallina. ¿Qué es primero, saber antes cómo es el entorno para moverte después por él o moverte primero por un entorno para aprender cómo es?.

En un primer paso de las investigaciones en este terreno los robots utilizaban la visión monocular. Es muy fácil aplicarla, da información sobre el color  pero sólo permite al robot representarse un mundo plano, de dos dimensiones. El paso siguiente es el de la visión binocular, conseguida con dos cámaras, la que en su versión biológica de los dos ojos permite al hombre ver en profundidad y representarse el mundo en tres dimensiones. Los investigadores de la UA emplean a veces también en sus robots experimentales una tercera cámara que contrasta y detecta errores de las otras dos.

Visión tridimensional

¿Cómo enseñar a un robot que cuando sale de una habitación y vuelve a entrar en ella es la misma o, al contrario, es otra distinta aunque sea parecida? «La situación es similar a la que se se encuentra una persona que, tras perder el conocimiento, se despierta en la habitación de un hospital. Tiene que empezar a reconocer objetos para saber dónde está», dice Diego Viejo. Lo que los investigadores tratan es de «enseñar» al autómata técnicas de identificación de las cosas de los lugares que recorre, que pueden ser desde una mesa al dintel de una puerta. El robot debe asimismo memorizar los lugares por los que pasa. Volviendo al símil del hospital, es como el enfermo que se aprende el lugar que ocupa su habitación en el pasillo, donde hay otras puertas idénticas y escaleras, y se forma un mapa tridimensional del sitio donde está.

El reconocimiento de los obstáculos es también otro problema para él. Por ejemplo, el robot puede detectar el volumen de una mesa, pero tiene que sabe que está hueca y puede pasar por debajo de ella. Y, al revés, debe saber que aunque vea a través del cristal de una puerta, no puede atravesarla.

Aparte de la visión en tres dimensiones los investigadores ensayan también otros dispositivos sensoriales, como por ejemplo el sónar acústico, que detecta el eco de los objetos, pero da resultados poco satisfactorios. Es muy lento, impreciso y además es ruidoso y molesto de emplear. La detección infrarroja también se emplea, pero sigue siendo de menor precisión quela óptica. Una alternativa son los rayos láser, pero son mucho más caros: si un par de cámaras binoculares ópticas para estos experimentos pueden costar uno o dos miles de euros, un sensor láser, que realiza barridos de mayor alcance con sus destellos para detectar sus reflejos, puede oscilar entre los 5.00 y los 35.000.

El robot puede entrar en una habitación similar a otra que ya ha recorrido  y encontar en ella un armario idéntico  y en la misma posición relativa. El robot, cuyo ordenador lleva un control de sus movimientos,  puede «pensar» que en realidad no se ha desplazado; por ejemplo puede haberse averiado su sistema motriz o patinado sus ruedas y haberse movido en círculo, sin salir dela habitación. Para que llegue a la conclusión correcta los investigadores recurren a que sepa diferenciar alguna característica distintiva, «El robot detecta con facilidad las superficies, pero le cuesta encontrar sus características distintivas, por ejemplo su rugosidad. Lo que más información la va a proporcionar es su posición y los objetos de su alrededor», señala el científico.

Nubes de puntos

Para identificar la forma tridmensiomales de un objeto los ordenadores recurren al método de la «nube de puntos», un término que consiste en el registro de los puntos que definen el contorno de un objeto, localizados a lo largo, lo ancho y en profundidad por visión en tres dimensiones. Cuanto más puntos señale el robot y su ordenador, más precisa será su reconstrucción de la forma, sobre todo si es compleja, y más fiable será su identificación.

Otras dificultad para el robot es cuando encuentra algo determinado que ya conoce y que figura en la base de datos de su ordenador pero no está donde él se esperaba. Debe recurrir a otras evidencias para saber si el objeto se ha movido, si es él mismo el que lo ha hecho o si no ha registrado bien su propio movimiento. «El robot todo lo hace recurriendo a las matemáticas y el cálculo de probabilidades para saber qué es lo que se transformado a su alrededor», explica.

Como muestra de los proyectos de investigación en las que el grupo de investigación trabaja para lograr estos objetivos, actualmente desarrolla uno denominado «Fusión sensorial y SLAM activo cooperativo para entorno de gran escala (SLAM son las siglas en inglés de construcción de mapas del entorno y localización de robots simultáneamente)». Este proyecto se basa en estudiar las alternativas de observar el entorno o bien con menos sensores en un cierto número de robots o bien con mayor número de sensores y un sólo robot, fusionando en ambos casos las distintas observaciones en un marco de referencia.

Fuente: UA