Nuevas tecnologías

El móvil detectará enfermedades mentales

Una aplicación de reconocimiento de imágenes faciales analiza, con la Inteligencia Artificial, la presencia en el usuario de comportamientos o gestos asociados a brotes depresivos u otro tipo de alteraciones

Una adolescente observa a una influencer en TikTok en su teléfono móvil
Aumentan las iniciativas para procurar una infancia libre de teléfonos móvilesLUIS TEJIDOAgencia EFE

Hasta ahora no existía una herramienta más poderosa para detectar a distancia el estado de ánimo de una persona que una mirada atenta de su madre. Ellas son capaces de diagnosticar si tenemos «cara de que nos está pasando algo». Hasta ahora, porque se acaba de presentar una herramienta tecnológica que promete poder analizar el rostro del paciente y detectar si padece algún tipo de alteración psicológica. Y, cómo no, la tecnología aplicada es la inteligencia artificial.

Investigadores de la Universidad de Dartmouth (Estados Unidos) han desarrollado la primera aplicación de teléfono móvil que utiliza inteligencia artificial junto con un sistema de reconocimiento de imágenes faciales para detectar los primeros síntomas de depresión antes incluso de que el propio paciente pueda identificar que algo malo le ocurre respecto a su salud mental.

El software es capaz de analizar imágenes obtenidas por la cámara frontal del móvil mientras el usuario lo utiliza cotidianamente. Tras procesarlas, puede alertar de la presencia de comportamientos o gestos asociados con un brote depresivo. Y lo hace con un gran porcentaje de fiabilidad. En un estudio en el que se aplicó el dispositivo a 177 personas diagnosticadas con depresión grave, la inteligencia artificial pudo detectar la enfermedad en el 75 por 100 de los casos.

En el estudio clínico ahora publicado se capturaron 125.000 imágenes del rostro de los participantes durante 90 días. El ensayo exigía que los voluntarios consintieran en que el teléfono tomase fotos de su rostro, pero no debía saber en qué momento lo estaba haciendo.

Como aseguran los autores de la aplicación, cada vez más usuario estamos acostumbrados a abrir nuestras funcionalidades del teléfono mediante reconocimiento facial. Cada semana, un usuario medio puede mostrar su rostro cerca de 800 veces a la pantalla del dispositivo. La investigación de Dartmouth ha tratado de sacar provecho de esta costumbre tan extendida. ¿Podríamos capturar las fotos de la persona en cuestión, conservarlas en una base de datos y analizarlas mediante inteligencia artificial para diagnosticar enfermedades?

Para responder a esta pregunta se diseñó un estudio en varias fases. En la primera, un grupo de voluntarios era fotografiado aleatoriamente a la vez que el teléfono les lanzaba una pregunta: «¿Te has sentido recientemente decaído, deprimido o desesperanzado?». La pregunta es una de las que se realiza en el Cuestionario de Salud Mental PHQ-9 que suelen utilizar los profesionales médicos para diagnosticar depresión.

Un programa de algoritmos llamado MoodCapture correlacionaba más tarde las respuestas con las imágenes de la cara y los alrededores de cada individuo. Tras miles de comparaciones se estableció un grupo de gestos, movimientos oculares, posiciones de la cabeza y niveles derigidez muscular que pudieran ser equiparables en todos los casos de respuestas negativas. Además, se tuvo en cuenta la presencia de otros factores como la iluminación del entorno, el color de la ropa o si el paciente iba acompañado o solo.

La idea es que cada vez que el usuario abra su teléfono utilizando su cara, MoodCapture analice su imagen y la compare con la de días anteriores. Los expertos creen que cuando el programa se afine será capaz de determinar si el individuo está alterado, decaído o en proceso de padecer una depresión. Por ejemplo, si el usuario aparece durante varios días seguidos con una expresión triste, en un entorno sin iluminación, solo y con ropas poco cuidadas podría tratarse de un caso sospechoso de alteración del ánimo.

Tras recoger toda la información posible sobre 177 participantes se expuso la imagen de cada uno al programa de IA, sin identificar los nombres ni los estados clínicos. MoodCaputure fue capaz de determinar con un 75 por 100 de acierto qué imágenes pertenecían a personas diagnosticadas de depresión y cuáles a personas sanas.

Los creadores del sistema creen que aún no se podría utilizar como una herramienta definitiva de diagnóstico. Para ello, la capacidad de detección debería superar el 90 por 100. Pero están convencidos de que las herramientas de «machine learning» que han puesto en funcionamiento permitirán que el programa alcance ese umbral en menos de cinco años. Entonces, la aplicación podría instalarse en todos los teléfonos y servir para el diagnóstico de varias patologías mentales.

La principal ventaja de esta tecnología es que permite hacer un seguimiento en tiempo real de la evolución del paciente. Las intervenciones clínicas contra la depresión requieren de mucho tiempo y el diagnóstico suele producirse cuando los síntomas son muy evidentes y, en muchos casos, la enfermedad ya ha alcanzado una gran gravedad.

Poder monitorizar día a día, incluso varias veces en un día, los gestos de un paciente daría pistas muy útiles para prevenir el proceso depresivo o para tratarlo una vez aflorado con mayor eficacia.

Un paciente en cualquiera de los grados de su enfermedad pasa como media solo el 1 por 100 del tiempo de su vida en contacto con el terapeuta.