Inteligencia Artificial
Esta IA puede detectar tus emociones. Y usarlas.
Se trata de un paso importante hacia una inteligencia artificial completa, según los responsables de su desarrollo
Casi una década atrás, Stephen Hawking comenzaba a advertirnos sobre los potenciales peligros de la inteligencia artificial. Una de las ramas de esta ciencia es el aprendizaje automático (machine learning en inglés), cuyo objetivo es desarrollar técnicas que permitan que los ordenadores aprendan. Y esto lo hacen igual que muchos animales: mejorando su desempeño a través de la experiencia y utilizando datos, información.
Esto es precisamente lo que hace DepecheMood++, una herramienta computacional diseñada por científicos de la Universidad Politécnica de Madrid (UPM), la Fundación Bruno Kessler de Italia, la Universidad de Twente (Países Bajos) y de la compañía francesa Recital. Básicamente lo que hace DepecheMood++ es detectar y aprender sobre las emociones que siente una persona cuando lee diferentes textos. De acuerdo a los responsables se le enseña a l sistema cómo los humanos expresamos las emociones, utilizando algoritmos de aprendizaje, unos algoritmos que están presentes en gran parte de los dispositivos conectados
No se trata de “espiar” las emociones humanas y adueñarse de ellas, según señalan los responsables a la agencia EFE, más bien de un paso importante hacia una inteligencia artificial “completa” y capaz de pensar como lo haría un ser humano. Gracias a esto será posible, por ejemplo, detectar mensajes de odio en redes sociales o detectar trastornos de salud mental en los navegantes.
“Generar una pieza de desinformación es relativamente fácil – explica a la agencia EFE Óscar Araque, del Grupo de Sistemas Inteligentes de la UPM –, pero analizar y argumentar por qué esa información es falsa es mucho más costoso. Esta herramienta puede servir para analizar los mensajes de personas que están padeciendo una depresión e incluso para recomendarle buscar un tratamiento. Hay muchas aplicaciones; algunas ni siquiera somos capaces de imaginarlas todavía, pero creo que herramientas como esta pueden servir para ayudarnos entendernos a nosotros mismos y así avanzar como sociedad”
DepecheMood++ es capaz de detectar hasta seis emociones diferentes: miedo, diversión, felicidad, tristeza, molestia y enfado y de momento es una herramienta que solo está disponible en inglés e italiano. Obviamente su impacto puede ser enorme, tanto en la salud mental, como en la prevención de delitos, pero también puede convertirse en una herramienta destinada a “espiar” a los humanos. Algo respecto a lo que Araque es claro ya que insiste que solo se trata de un recurso que actualmente se está utilizando sólo para investigación. De hecho, agrega, ya han rechazado propuestas de empresas para obtener un beneficio económico. También señala el riesgo que siempre tienen los sesgos (de raza o género) en todos los sistemas de inteligencia artificial y en las consecuencias que pueden tener en la vida cotidiana de las personas. Son muchos los gigantes que han tenido que enfrentarse a IAs con sesos raciales, Google y Facebook entre otros.
Pero al mismo tiempo Araque explica que una empresa que tenga una gran actividad en redes sociales y quiera saber lo que opinan sus clientes sin necesidad de recurrir a un resumen para analizar los miles de comentarios que puede recibir cada día, usaría esta herramienta. Es decir, actualmente se han rechazado ofertas de empresas para contar con DepecheMode+++, pero en el futuro no se puede descartar. Sea DepecheMode+++ o una nueva IA con capacidades similares. Pero ocurrirá sin duda.
Y en ese momento quizás recordemos a Daniela Cerqui, antropóloga de la Universidad de Lausana (Suiza) a quien le preguntaron si Hawking exageraba y su respuesta, en 2014, fue muy clara: “Delegamos cada vez más prerrogativas de los seres humanos a estas máquinas, para que sean más competentes que nosotros. Terminaremos convertidos en sus esclavos”.
✕
Accede a tu cuenta para comentar