

China
El proceso evolutivo de los robots humanoides y la inteligencia artificial enfrenta una fase decisiva. Con ambas tecnologías mostrando avances y una expansión evidente, ahora la idea central consiste en mejorar y perfeccionar lo que se ha logrado hasta la fecha y maximizar su expansión a base de demostrar que las aptitudes de los ejemplares que llegan al mundo real tienen cabida en él.
China lidera el plano de la robótica, siendo líder del mercado de fabricación e instalación de humanoides y multiplicando en 2025 por cinco sus cifras de producción con respecto a 2024, lo que apunta a una tendencia que debería escalar más si cabe en el año en curso, en el que compañías como las estadounidenses Tesla o FigureAI quieren acortar esa brecha.
Pese a la evolución y el auge, los investigadores continúan enfocados en mejorar capacidades como la percepción visual, un área que serviría tanto a los robots humanoides como a los vehículos autónomos y aparatos de precisión como los empleados en entornos quirúrgicos a ser más precisos.
Para ello, una investigación asiática se ha apoyado en la ingeniería neuromórfica para incorporar a los robots un chip que integra memoria y computación, permitiendo a los dispositivos desarrollar una capacidad de reconocimiento y respuesta ante estímulos visuales que mejora de forma drástica su percepción actual.
La investigación, publicada por Nature Communications se ha llevado a cabo en la Universidad de Beihang (China) por un equipo de investigadores liderado por Shuo Gao. La premisa era utilizar la biología que permite al ojo y al cerebro humanos procesar las imágenes a la velocidad que lo hace y trasladar eso mismo a los robots, que ahora mismo pecan de falta de soltura a la hora de registrar una imagen, procesarla y actuar con respecto a ella.
Para ello, han desarrollado chips neuromórficos que procesan datos a mayor velocidad y con mayor eficiencia energética inspirándose en el núcleo geniculado lateral del cerebro humano. Se trata de la estructura talámica clave que actúa como la principal estación de relevo y procesamiento entre la retina y la corteza visual y su funcionamiento ha inspirado la investigación.
En ella, el equipo de la Universidad de Beihang confeccionó un módulo neuromórfico capaz de detectar modificaciones en la intensidad de la luz a lo largo del tiempo, de tal modo que puede reconocer áreas de movimiento en tiempo real. Esto supone que la capacidad computacional se redirija a esas áreas donde se producen dichos cambios, ganando agilidad a la hora de procesar la información y con ello a la hora de responder ante ella.
En los sistemas de visión tradicionales de los robots, las cámaras capturan escenas, como fotografías, una tras otra. Luego, un programa compara una imagen con la siguiente y analiza cómo cambian los puntos de luz para saber si algo se está moviendo y hacia dónde.
El problema es que este proceso, aunque funciona bien, es lento: analizar solo una imagen puede llevar más de medio segundo. Puede parecer poco, pero para un coche autónomo que va por autopista es muchísimo tiempo. En medio segundo, el vehículo ya ha avanzado varios metros, lo que significa que durante ese tramo está reaccionando con retraso, como si condujera unos metros “a ciegas”.
Los investigadores han efectuado pruebas en entornos de conducción simulados en los que su prototipo fue capaz de reducir los tiempos de procesamiento a una cuarta parte del tiempo que implica la reacción con los mecanismos actuales. Pese a ello, el sistema ha mostrado ciertas complicaciones a la hora de enfrentarse a entornos con presencia de muchos elementos, y el hecho de depender de los algoritmos convencionales de flujo óptico hace que todavía presente áreas de mejora.
Sin embargo, se trata de una avance significativo que puede derivar en una evolución importante en un aspecto que tanto la robótica como los vehículos autónomos requieren para continuar en su línea de perfeccionamiento y de comprensión del mundo que van a tener que compartir con los humanos.