viernes 21 junio de 2013 | Publicado a las 11:34 am · Actualizado a las 11:34 am
¿encontraste un error?
avísanos
Envíanos tu corrección
IRMA III: El robot multipropósito que es desarrollado por sansanos
A cargo de académicos y alumnos del Departamento de Electrónica de la Universidad Santa María, navega por espacios desconocidos, reconoce objetos y los posiciona en el mapa, además de contar con una interfaz intuitiva que le otorga autonomía y que le permite interactuar con el usuario. Navegar en espacios desconocidos, reconocer […]
A cargo de académicos y alumnos del Departamento de Electrónica de la Universidad Santa María, navega por espacios desconocidos, reconoce objetos y los posiciona en el mapa, además de contar con una interfaz intuitiva que le otorga autonomía y que le permite interactuar con el usuario.
Navegar en espacios desconocidos, reconocer objetos y posicionarlos en el mapa, además de contar con una interfaz intuitiva que otorga autonomía y le permite interactuar con el usuario, son algunas de las características de IRMA III, el robot que es desarrollado por académicos y alumnos del Departamento de Electrónica de la Universidad Técnica Federico Santa María y cuyo funcionamiento se orienta a los más variados propósitos como labores domésticas, el cuidado de personas o el transporte de documentos, entre otros.
Según detalla Tomás Arredondo, académico de la USM y quien guía este proyecto, la construcción de este prototipo nace a partir de su participación en la International Joint Conference on Neural Networks, en Estados Unidos, y en donde pudo conocer al profesor de la Universidad de Standford, Bernard Widrow, y su trabajo referente a la Memoria Cognitiva; siendo ésta experiencia la base para el desarrollo de IRMA III.
Actualmente esta iniciativa va en su tercera versión y en ella intervienen los alumnos memoristas de Ingeniería Civil en Electrónica, Víctor Magaña, Hernán Barrios y Arturo Veras. “A partir de esa experiencia es que comenzamos a construir este robot, al que le implementamos una memoria cognitiva que podía reconocer objetos visuales. Hoy, además, cuenta con un mapeador completamente desarrollado y que le permite navegar en espacios desconocidos, definiendo su localización y aprendiendo de su entorno”, detalla.
A esto también se suma que IRMA III puede reconocer objetos y posicionarlos en el espacio, gracias a que cuenta con una Kinect, que utilizando librerías de software que cuentan con un blobber, permite observar una imagen y separar los objetos de su entorno. Además, también cuenta con un sistema de luz infrarroja que le permite detectar profundidades. Por lo tanto, con los objetos que se ubican a su alrededor y con un navegador que utiliza datos provistos por el mapeador y el reconocedor de objetos, puede planificar su ruta.
El profesor Arredondo destaca que este prototipo cuenta también con una interfaz intuitiva basada en motivaciones, lo que le permite interactuar con el usuario. “No sólo le indico que se dirija a un lugar, sino que también actúe de una determinada forma. Le doy motivaciones para que de esta manera opere con cierto grado de autonomía. Se trata de factores que generan una acción vinculada a motivaciones que en este caso incluyen el deseo de localizarse, el deseo de quedarse cerca de su lugar de origen, curiosidad y ahorro de energía”.
IRMA III posee una memoria cognitiva que cuenta con un sistema basado en redes neuronales y que le permiten al robot reconocer los objetos que ve. “Esto se basa en el trabajo de Bernard Widrow, que si bien fue realizado en otro contexto, nosotros los estamos adaptando a este robot. En este caso, lo que hacemos es un entrenamiento. Le indicamos al robot que un determinado objeto es el número uno, otro el número dos y así sucesivamente y luego, al verlos en distintas situaciones y orientaciones es capaz de distinguirlos y reconocerlos”, destaca el académico.
En lo que se refiere a la estructura de IRMA III, Víctor Magaña explica que “una de las ventajas es que los procesos son independientes y cada uno de los memoristas desarrolla un determinado módulo del robot, los que se van comunicando entre sí a través de una memoria compartida. “Existen varios procesos. El executive se encarga del movimiento del robot y a través de 8 sensores infrarrojos va reconociendo el entorno y le ayudan a sortear los obstáculos que están cerca. Además, cuenta con un sensor laser de alto rango que tiene una apertura de 280 grados, lo que permite reconocer muy bien el espacio donde se está moviendo y a través del SLAM (Localización y Mapeo Simultaneo) puede reconocer en qué lugar se encuentra y ubica al robot dentro de su entorno”.
Este prototipo cuenta también con luces LED, que permiten mostrar expresiones del robot y también comunicar distintas informaciones, y dos placas bases, que a través del proceso network van transfiriendo información desde un procesador a otro y de esta forma, las dos placas se pueden comunicar y la información está siempre actualizada y compartida entre las dos.
Cabe destacar que en su versión actual este proyecto cuenta con el apoyo del académico Dr. Fernando Auat Cheein, en el área de SLAM; mientras que en las anteriores, vale decir IRMA I e IRMA II, también participaron los memoristas César Muñoz, Nicolás Navarro, Fernando Quirós, Javiera Quirós, Pablo Benaprés, Gabriel Cisternas, Renato Agurto y Felipe Conejeras, además del apoyo de Wolfgang Freund.