Contenido patrocinado
Neurociencia
“Humanizar la IA es el nuevo gran reto”
Neurologyca ha creado Kopernica, la NeuroIA capaz de entender al ser humano analizando y comprendiendo sus emociones y estados de ánimo
Estamos comenzando una verdadera revolución tecnológica que va a cambiar nuestras vidas, tanto en el ámbito personal como el profesional. Y sólo es el umbral de todo lo que está por venir. Es tan alta la velocidad de los cambios que apenas nos da tiempo a prepararnos para todo lo que llega. Y esta velocidad nos puede generar en algunos casos incertidumbre e incluso miedo a lo que está por llegar. Hablamos de la IA. Para resolvernos algunas dudas y guiarnos hacia este futuro, conversamos con Juan Graña, CEO de Neurologyca, la empresa que, entre otros proyectos, busca “humanizar la IA”.
¿De qué hablamos cuando decimos “humanizar la IA”?
Es el nuevo gran reto. La IA es una increíble herramienta que ha venido para ayudar a las personas. Y el desarrollo tecnológico es tan rápido y eficiente en el ámbito de la IA que ahora nos toca la tarea el acercar lo máximo posible la tecnología a lo que somos, a cómo sentimos, cómo nos comportamos, a nuestro lado más subjetivo y humano.
Humanizar la IA no significa hacerla humana, pero sí comprensible, cercana, accesible, útil y empática. Es un objetivo necesario con el que ya nos estamos enfrentado en diferentes campos. Uno sería las interacciones más naturales y la capacidad de comprender las individualidades de cada persona junto con sus estados emocionales y cognitivos para hacer más eficiente y adaptativa dicha interacción. La IA aprenderá de la persona con la que se comunica y entenderá sus aspectos más particulares y personales. Así, podrá trabajar de un modo más colaborativo, reforzando las capacidades humanas. Y todo ello mejorando las decisiones éticas, como la privacidad y equidad humana.
¿Qué aplicaciones tendría, es decir, para qué necesitamos humanizarla?
Principalmente para hacer la tecnología más accesible, confiable y efectiva, y, así, optimizar la manera en que las personas interactúan y colaboran con las máquinas en la vida diaria. Por ejemplo: en el ámbito de la experiencia de usuario, la accesibilidad y adaptación a diferentes contextos o la reducción de la carga cognitiva con interfaces más intuitivas que eviten sistemas complejos con largos aprendizajes para el manejo de tecnología complicada.
Las aplicaciones son infinitas, tal como en el ámbito de la salud, la comunicación hombre-máquina, la educación, el ámbito laboral o la seguridad, entre otros muchos.
De hecho, vuestras investigaciones van en esta línea, ¿verdad?
Así es. En Neurologyca llevamos años de investigación en neurociencia, entrenando a Kopernica, que son modelos avanzados de IA especializados en NeuroIA que son capaces, mediante visión artificial y escucha del lenguaje natural, de entender los estados cognitivos, emocionales y los cambios de personalidad de las personas. Son realmente efectivos en la medición del estrés y la ansiedad, las emociones (más de 30) así como otros indicadores como el interés, la motivación, el rechazo, la frustración, etc. Son modelos ya probados, utilizados incluso para la investigación en universidades, y que actualmente los estamos aplicando para la seguridad y la medición del riesgo laboral, para salud mental (estamos en un proyecto para la detección precoz de riesgo de ictus), para la educación (para la ayuda en los procesos de aprendizaje), para neuromarketing e investigación de mercados, etc.
El objetivo es conseguir poner a las personas en el centro del desarrollo tecnológico y crear modelos capaces de interactuar y entender a las personas desde el lado más humano.
¿Esta humanización entraña algún riesgo?
No olvidemos que no dejan de ser herramientas y, como tales, requieren un uso responsable. Los riesgos pueden venir por varios aspectos: los usuarios podrían esperar que las máquinas tengan capacidades emocionales o morales reales, lo que puede llevar a una confianza indebida si nos apoyamos solo en el albedrío de la máquina. Otro riesgo es la manipulación emocional, ya que una máquina empática podría llegar a influir en decisiones y comportamientos humanos. Y, por último, el riesgo de pérdida de privacidad y el uso indebido de datos personales.
“Humanizar la IA no significa hacerla humana, pero sí comprensible, cercana, accesible, útil y empática”
¿Cómo podemos asegurarnos de que estos usos sean responsables?
Aquí juega un papel crucial la responsabilidad de todos, tanto de la industria como de los usuarios. Es crucial regular el uso ético. Por un lado, mediante información y educación clara de su uso; por otro, se debe garantizar la calidad de los entrenamientos de las redes neuronales sin sesgos que puedan provocar riesgos en la interpretación. La IA debe ser transparente y explicable sobre cómo toma las decisiones, y siempre indicando sus limitaciones y usos concretos para los que está destinada. Además, siempre serán importantes las certificaciones, contratos de responsabilidad, medidas de privacidad y de seguridad con encriptaciones avanzadas.
Un proyecto de LR Content
✕
Accede a tu cuenta para comentar