Innovación

ITCL presenta sus avances en tecnologías que miden el estado del conductor al volante y un robot de conducción autónoma para trenes y coches

El Instituto Tecnológico de Castilla y León cuenta con tres demostradores en el II Encuentro de Industria 4.0 que se celebra en Burgos

Presentación de la segunda edición del Encuentro Tecnológico Burgos Industria 4.0 organizado por Digital Innovation Hub Industry 4.0 (DIHBU), y el Ayuntamiento de Burgos, a través de Promueve Burgos
Presentación de la segunda edición del Encuentro Tecnológico Burgos Industria 4.0 organizado por Digital Innovation Hub Industry 4.0 (DIHBU), y el Ayuntamiento de Burgos, a través de Promueve BurgosIcalAgencia ICAL

ITCL Centro Tecnológico participa en la segunda edición del Encuentro Tecnológico Industria 4.0 que se celebra en Burgos los días 25 y 26 de octubre, donde presenta tecnologías que miden el estado del conductor al volante, simulación de drones para prevenir incendios y un robot que hace posible la conducción autónomas de coches o trenes, entre otros.

Participa así un año más en este encuentro organizado por el Digital Innovation Hub de Burgos, con varios demostradores tecnológicos integrados en la Expo Industria 4.0, los cuales mostrarán en funcionamiento soluciones innovadoras ya testeadas que los visitantes podrán probar durante los dos días del encuentro.

Mindtooth es un novedoso proyecto que busca medir el estado psicofisiológico de los usuarios al volante consiguiendo una interacción verdaderamente “inteligente” y “cooperativa” entre los actores humanos (conductores de automóviles, pilotos de aviones, trabajadores de fábricas) y los dispositivos que los rodean mediante el uso de señales cerebrales.

El demostrador de Mindthooth es un novedoso encefalograma (funciona solo con agua y alcohol) y es capaz de medir distintas actividades al volante para conocer la carga de trabajo, fatiga, estado emocional, cansancio o estrés asociado a cada una de ellas. Todo ello gracias al uso de la Inteligencia Artificial. “Nos permite saber si está estresado, atento o no y el simulador le responde en tiempo real pudiendo incluso mandarle un mensaje en tiempo real diciendo le que pare o descanse”, explica el responsable del simulador, Rodrigo Varga.

Se trata de un proyecto financiado por la Unión Europea en el programa Fast Track to Innovation (FTI) y en el que participa, además de ITCL Centro Tecnológico, la Universidad de La Sapienza de Roma, IBM, y Brain Signs. El proyecto tiene como objetivo desarrollar el sistema Mindtooth que proporciona indicadores en tiempo real de los estados cognitivos o emocionales mediante el procesamiento de señales cerebrales, aportando indicadores de aplicación cruzada asequibles basados en algoritmos científicamente probados, utilizando un auricular EEG portátil, cómodo y fácil de ajustar, equipado con sensores sin gel, informa Ical.

“Este proyecto permite extraer incluso las emociones del propio usuario. De aquí a 20 años este tipo de tecnologías se podrían utilizar no solo para que el coche nos indique en un momento dado que descansemos o nos relajemos, sino también para que nosotros podamos controlar el coche con la mente”, apostilla Varga.

Se espera que Mindtooth se integre en la próxima generación de interfaces de control inteligente y tableros de mando para proporcionar servicios añadidos a los usuarios, como conductores, pilotos y trabajadores industriales en general, así como durante sus protocolos de formación y evaluación

Simulador drones: revisión de infraestructuras y prevención incendios

Desde el Área de Realidad Virtual también se presenta un simulador de pilotaje de drones que pretende ayudar a las empresas a que sus trabajadores puedan aprender a pilotar un dron y a realizar las operaciones de revisión de infraestructuras de la misma manera que se haría en el mundo real. De este modo, se abaratan costes en la formación del personal que después ha de inspeccionar un terreno en una inspección de infraestructuras. Asimismo, se evitan tiempos de espera, solicitud de permisos, etc.

Ello es posible gracias a un sistema que les guía paso a paso en cómo realizar la tarea, sin peligro de estropear el dron, sin depender de las condiciones del tiempo y sin necesidad de la presencia de un instructor. La inspección de infraestructuras supone riesgos adicionales que gracias a esta tecnología desaparecen. Gracias al uso de gemelos digitales puede analizarse la zona de trabajo, identificar y tomar fotografías de desperfectos y reaccionar a posibles averías en el propio dron.

“El simulador permite dar esta formación sin necesidad de cortar un puente o volar un dron de verdad. Así conseguimos entrenar a los pilotos y simular las condiciones reales del aire. Sin ningún tipo de riesgo, y sin necesidad de utilizar un dron real, aprenden a hacer la inspección de la infraestructura para que todo salga de la mejor forma cuando se haga en realidad”, añade Varga.

Este sistema es aplicable a la formación en prevención de incendios y en la evaluación del mismo después de que éste se produzca. Asimismo, se podría utilizar para el control de masas durante manifestaciones, entre otros.

Robótica avanzada e inmersiva para coches y trenes

De forma paralela, ITCL da a conocer ‘Telebot-VR’. Un robot avanzado operado mediante interfaces de Realidad Virtual que brinda la posibilidad al operador de mantener el control sobre el robot a miles de kilómetros de distancia y que se presenta como clave en desastres naturales y en la conducción autónoma de todo tipo de vehículos.

En este último apartado, Alejandro Langarica explica cómo el uso de este sistema permitiría la conducción autónoma de vehículos por carretera y de transporte ferroviario. “El robot es capaz de realizar la conducción sin necesidad de que el ser humano esté de forma física. En el caso de la conducción de un coche o un tren tiene un especial interés porque el control de los mandos se realiza a distancia con una toma de decisiones a distancia”, asevera el responsable del proyecto, que incide en las ventajas que ofrece este sistema en el avance de la conducción autónoma y la gobernabilidad de este tipo de vehículos.

Un proyecto financiado por el Gobierno regional que trata de estrechar las distancias sensoriales que encuentra un operador al controlar un robot a distancia mediante interfaces de simulación y realidad virtual, y promover la visión y el control sobre los sistemas y articulaciones robóticas. El proyecto explora varias líneas tecnológicas como sistemas hápticos, realidad virtual y realidad virtual inmersiva, además de un sistema de cámaras esteroscópicas e hiperespectrales, junto con la reconstrucción 3D y tecnologías 5G para comunicaciones.

En definitiva, el robot consigue superar los problemas actuales de operaciones remotas sobre robots en entornos altamente peligrosos o de difícil acceso, de forma que el operador que controla el robot a distancia perciba el entorno de trabajo como si estuviera realizando la tarea él directamente. Para ello, se debe lograr que el sistema permita percibir los distintos estímulos visuales, auditivos y táctiles como si se encontrase en el escenario de trabajo.