Aunque gran parte de lo que percibimos en nuestro día a día lo hacemos a través del sentido de la vista, los humanos también aprendemos mucho de lo que nos rodea a través del tacto, sobre todo a edades tempranas.
Sin embargo, la mayor parte de iniciativas desarrolladas hasta ahora para que los robots inteligentes puedan interactuar con su entorno han girado en torno al recurso de la visión artificial.
Pero un grupo de científicos de la Univ. de Berkeley han optado por la opción contraria: crear un 'framework' de percepción robótico basado en la tactilidad.
Para ello, basándose en investigaciones previas de la Univ. Carnegie Mellon, crearon una IA capaz de vincular un conjunto de 'observaciones físicas' con objetos concretos. En palabras de los investigadores,
"la percepción humana es inherentemente multimodal: cuando vemos un juguete de peluche, nos imaginamos lo que nuestros dedos sentirían al tocar la superficie suave; cuando sentimos el borde de las tijeras, podemos imaginar en nuestra mente no sólo qué es, sino también su forma y dimensiones".
El doctor Shan Luo, profesor en la Univ. de Liverpool, investiga en este mismo campo científico, y lo explica con estas palabras:
"En nuestra experiencia diaria, podemos crear a través de nuestra cognición una visualización de un objeto basándonos en una respuesta táctil, o crear una respuesta táctil visualizando la textura de una superficie. Este fenómeno de percepción, llamado sinestesia, puede emplearse para compensar un sentido inaccesible".
Pero la tarea de los investigadores de Berkeley, estudiar "el modo en que un agente robótico podría aprender algo similar a las asociaciones multimodales" (o, dicho de otro modo, simular el fenómeno de la sinestesia) no está exenta de dificultades.
Esto es porque los sensores táctiles carecen de la capacidad de 'visión global' de los sensores visuales, y sus lecturas tienden a ser mucho más difíciles de interpretar. Para superar estos obstáculos, el robot está equipado con dos sensores de contacto GelSight (cada uno en un extremo de la pinza o 'mano' robótica) que se deforma, y que incluyen una cámara capaz de visualizar esa deformación.
Eso genera información visual que una red neuronal convolucional destinada al análisis de imágenes es capaz de recopilar y analizar. En total, se recopilaron datos relativos a 98 objetos diferentes, 80 de los cuales se usaron para entrenar previamente la red neuronal.
Los 18 restantes se usaron para poner a prueba el sistema de IA del brazo robótico, arrojando como conclusión que éste era capaz de deducir con precisión la identidad de los objetos en el 64,3% de los casos. Este porcentaje es superior al que arrojó un experimento paralelo realizado por estudiantes de Berkeley (11 sujetos que realizaron 420 pruebas sujetando en sus manos distintos objetos).
Aunque los autores del estudio reconocen que el sistema aún tiene margen de mejora (que pasaría, por ejemplo, por sumar las 'sensaciones' de múltiples interacciones táctiles), defienden que se trata de un primer paso prometedor para lograr que los robots realicen tareas que hasta ahora sólo estaban 'a mano' para las personas.
Vía | VentureBeat
Imagen | Robotiq
Ver 4 comentarios