Robots sensibles e inteligencia artificial

Los sensores para el tacto y la visión están a la vanguardia de los desarrollos de robótica. Los sensores permiten que los robots recopilen información sobre el entorno, determinen cómo puede estar cambiando el entorno y proporcionen los datos para determinar la respuesta adecuada a cualquier cambio. La información del sensor se puede utilizar para mejorar el rendimiento de la tarea en cuestión, o puede proporcionar advertencias sobre problemas de seguridad o posibles fallos de funcionamiento.

En los sistemas de robots, se están desarrollando sensores táctiles para complementar los sistemas visuales. Los robots están siendo diseñados para interactuar con una variedad de objetos utilizando un manejo de precisión y una destreza similar a la de una mano humana. Si bien un sistema de visión puede proporcionar información importante sobre un objeto, la visión no es capaz de medir propiedades mecánicas como la textura, la rigidez, el peso, el coeficiente de fricción, etc.

Se espera que los esfuerzos hacia el desarrollo de manos protésicas para humanos conduzcan a sensores táctiles mejorados para robots. Las manos robóticas y protésicas actuales brindan menos información táctil que una mano humana, pero eso está cambiando. Un consorcio de investigación europeo ha desarrollado una mano protésica llamada SmartHand que permite a los pacientes escribir, escribir en un teclado, tocar el piano y realizar otros movimientos finos. SmartHand tiene sensores que brindan al paciente una sensación de sensación en la punta de los dedos.

El sistema de medición háptica SynTouch Toccare detecta repetidamente y con precisión una superficie de una manera que se correlaciona directamente con la percepción humana, cuantificando los resultados de manera consistente en "15 dimensiones del tacto". Proporciona información para cuantificar conceptos táctiles subjetivos como "suavidad". Utilizando diagramas de araña y análisis, el sistema puede proporcionar caracterizaciones de 15 dimensiones hápticas dentro de cinco categorías: Cumplimiento (deformabilidad), Fricción, Textura, Adhesión y Térmica. El análisis emplea una base de datos táctil que incluye perfiles de miles de materiales que van desde telas no tejidas, cosméticos, prendas de vestir, electrónica de consumo y más.

Ganadores de innovación de la Federación Internacional de Robótica

Una pinza inteligente llamada RG2-FT fue una de las finalistas en el 16º Premio a la Innovación y el Emprendimiento en Robótica y Automatización (IERA) del año pasado de la Federación Internacional de Robótica. Desarrollado por OnRobot, el RG2-FT tiene las yemas de los dedos que pueden "sentir" y recoger materiales delicados, como vidrio fino o muestras de prueba, y transmitirlos a los humanos.

Pinza de robot con sensibilidad en la punta de los dedos como una mano humana. (Imagen: Federación Internacional de Robótica)

La pinza RG2-FT está diseñada para realizar actividades de trabajo delicadas, incluso sin conocer la ubicación exacta de la pieza. La pinza utiliza sensores avanzados de proximidad y par de fuerza para imitar la sensibilidad de la punta de los dedos de una mano humana. La empresa lo compara con humanos que toman un lápiz con los ojos cerrados: “Los sensores de proximidad 'sienten' el objeto hasta que el agarre es perfecto. La pinza entonces controla su fuerza con precisión. Recoge el objeto, se lo pasa de manera segura a un humano, sabiendo que debe soltarlo al entregarlo”.

Los avances en la visión de los robots complementan los avances en las capacidades táctiles de los robots. El segundo finalista de los premios IERA del año pasado de la Federación Internacional de Robótica fue el “MotionCan-3D” de Photoneo. Según la empresa, “Nuestra cámara puede inspeccionar objetos que se mueven a una velocidad de hasta 140 kilómetros por hora. Sus cualidades son útiles en varios campos: por ejemplo, en comercio electrónico y logística, para clasificación de objetos y sistemas de entrega autónomos. La cámara también ayuda en el procesamiento de alimentos y la clasificación de desechos, así como en la cosecha en la agricultura. Gracias a la visión artificial precisa, los robots también pueden analizar objetos con imágenes de alta resolución, lo cual es importante en el control de calidad”.

Visión artificial, visión artificial y visión robótica

La visión artificial es una forma avanzada de procesamiento de imágenes. El procesamiento de imágenes está principalmente interesado en convertir o mejorar la calidad de una imagen para que sea adecuada para un procesamiento o análisis adicional. La visión artificial es el proceso de extraer información de una imagen y "comprender" el contenido de la imagen.

La visión robótica está estrechamente relacionada con la visión artificial. (Imagen: Robotiq)

La visión artificial combinada con el aprendizaje automático se puede utilizar para permitir el reconocimiento de patrones. Por ejemplo, la visión por computadora se puede usar para detectar características e información sobre una imagen, como los tamaños y colores de las partes individuales. Luego, esa información se analiza utilizando algoritmos de aprendizaje automático para determinar si las piezas específicas están defectuosas en función del conocimiento adquirido de cómo se ve una pieza buena.

La visión artificial a veces se usa indistintamente con la visión robótica, pero no son idénticas. La visión artificial se utiliza en aplicaciones menos complejas, como la inspección de piezas descrita anteriormente. La visión robótica es una entrada para un sistema más complejo. La visión del robot puede incorporar cinemática y calibración del marco de referencia para ayudar a determinar cómo interactúa el robot con su entorno. Esto a veces se denomina "servidor visual" e implica controlar el movimiento de un robot utilizando la retroalimentación de la posición y el entorno del robot, incluido el uso de un sensor de visión.

El aprendizaje automático y la inteligencia artificial, combinados con la visión robótica, pueden permitir que un robot móvil determine su ubicación en un mapa y navegue por su entorno. La combinación de aprendizaje automático y visión robótica está mejorando las capacidades de los robots para identificar, recoger y pasar objetos, y en movilidad autónoma.

La identificación, selección y paso de objetos se puede habilitar mediante una combinación de visión 3D, sensores táctiles y aprendizaje automático. Los robots equipados con capacidad de visión pueden identificar objetos independientemente de su ubicación u orientación. Y los sistemas de visión 3D permiten a los robots detectar objetos parcialmente ocultos detrás de otros objetos. Usando una combinación de visión, sensores táctiles y aprendizaje automático, un robot puede aprender a sí mismo cómo recoger un nuevo objeto y aplicar el nivel correcto de fuerza. Actualmente, los robots se limitan a recoger objetos relativamente rígidos o rígidos. Se está trabajando para mejorar la capacidad de los robots para interactuar y agarrar artículos empaquetados en bolsas o envoltorios de plástico, o que tengan formas irregulares y variables.

La movilidad autónoma que combina el aprendizaje automático y la visión robótica está permitiendo que los robots naveguen en entornos complejos. Las generaciones anteriores de robots móviles (llamados vehículos guiados automatizados, "AGV") tenían una capacidad muy limitada para moverse por un entorno. Estaban programados para ejecutar un conjunto específico de movimientos, a menudo guiados por señales como bandas magnéticas o láseres de dispositivos instalados específicamente para ese propósito. Los AGV tienen una capacidad limitada para responder a obstáculos inesperados; pueden detenerse, pero no son capaces de identificar una ruta alternativa.

La combinación del aprendizaje automático y la visión robótica da como resultado la capacidad de un robot para ir de un punto a otro de forma autónoma. El robot utiliza un mapa preprogramado del entorno o puede construir un mapa en tiempo real. Puede identificar su ubicación dentro de un entorno, planificar una ruta hacia el punto final deseado, detectar los obstáculos que encuentra y cambiar su ruta planificada en tiempo real. Y los robots deben poder lidiar con los cambios en el entorno, así como identificar y rastrear objetos en movimiento.

Esta estrategia de cuatro fases puede proporcionar un marco para el desarrollo de aplicaciones efectivas de visión robótica. (Imagen: Qualcomm)

Los investigadores de Qualcomm han propuesto una estrategia de cuatro fases para superar los desafíos que enfrentan los desarrolladores de sistemas de visión robótica. Esta estrategia está diseñada específicamente para producir datos que se pueden usar para controlar los servos de los robots, tomar decisiones sobre el entorno y habilitar otras tareas y análisis de robots de alto nivel. Las cuatro fases incluyen:

  1. Adquisición de imágenes de varios sensores y cámaras, y luego uso de técnicas de procesamiento de imágenes para convertir los datos visuales en formatos más utilizables.
  2. Uso de algoritmos de visión artificial y visión artificial para extraer información de la imagen, como la ubicación y el tamaño de las esquinas y los bordes.
  3. Emplear el aprendizaje automático para clasificar e identificar objetos.
  4. Rastree y navegue por los objetos identificados. Esto incluye el seguimiento de objetos a lo largo del tiempo y el análisis de vistas cambiantes del entorno a medida que se mueve el robot.

Los robots móviles autónomos con capacidades de aprendizaje automático y sensores de visión y/o tacto están encontrando aplicaciones comerciales en una variedad de áreas, tales como:

  • Recuperación y transporte de materiales en fábricas, almacenes, hospitales y otros entornos.
  • Uso de sensores de visión o escáneres RFID para realizar tareas de gestión de inventario.
  • Trabajar en entornos peligrosos o peligrosos que van desde sitios contaminados por radiación hasta aguas profundas y el espacio exterior.
  • Y tareas más mundanas como la limpieza de espacios comerciales o los cascos de los barcos.

Como se muestra, agregar capacidades sensoriales como el tacto y la visión puede mejorar significativamente las capacidades del robot. Las preguntas frecuentes anteriores de esta serie revisaron características más generales de los robots, como "Arquitecturas de potencia, seguridad y ejes de movimiento de robots" y "Arquitecturas de control de movimiento y entornos de software de robots". La próxima y última pregunta frecuente revisará los "Estándares internacionales de rendimiento y seguridad para robots".

Referencias

Una estrategia de cuatro fases para el procesamiento de visión robótica, Qualcomm
Inteligencia artificial en robots, Federación Internacional de Robótica
Robot Vision vs Computer Vision: ¿Cuál es la diferencia?, Robotiq
Detección robótica, Wikipedia
Tecnología de sensor que replica el tacto humano, Syntouch

También te puede interesar:


  • Estándares internacionales de desempeño y seguridad para robots

  • Entornos de software de robots y arquitecturas de control de movimiento

  • Ejes de robot, seguridad de accionamiento y arquitecturas de energía

  • Lo que necesita saber sobre MCU para servocontrol

  • Desarrollo de un brazo robótico IIoT crítico para la seguridad mixta

¿Es posible que un robot sea sensible?

Hasta luego, amigos robóticos y amos supremos de los robots. Es posible que las máquinas conscientes nunca existan, según una variación de un modelo matemático líder de cómo nuestros cerebros crean conciencia.

¿Cuál es el robot más inteligente?

Sophia es un robot humanoide social desarrollado por la empresa Hanson Robotics con sede en Hong Kong.

Sofía (robot)

Sofía en 2018
Inventor david hanson
año de creación 2016
Escribe Humanoide
Objetivo demostrador de tecnología

3 filas más

¿Hay algún robot consciente de sí mismo?

Otro ejemplo de un robot que algunos consideran consciente de sí mismo es un 'brazo' robótico fabricado por un grupo de la Universidad de Columbia. El grupo creó un robot que aprende lo que es por sí mismo; el robot no tiene conocimiento previo, pero después de un día de 'balbuceo', el robot crea una autosimulación de sí mismo.

¿Existe un robot que pueda sentir emociones?

Sophia, el primer robot antropomórfico en expresar más de 60 sentimientos/emociones humanas, fue seleccionado como contexto de estudio (Faraj et al., 2020). Sophia fue desarrollada por Hanson Robotics en Hong Kong e incluso obtuvo la ciudadanía de Arabia Saudita en 2017 (Hanson Robotics, 2020).

Video: sentient robot