Inteligencia artificial

Mustafa Suleyman, jefe de IA de Microsoft, hace saltar las alarmas sobre si la IA tiene conciencia: "Es francamente peligroso"

Centrar la atención en los riesgos que puede comportar la interacción con humanos de la IA es prioritario para quien fuera uno de los fundadores de Google DeepMind

Mustafa Suleyman, CEO de Microsoft AI
Mustafa Suleyman, CEO de Microsoft AIChristopher Wilson / Wikimedia

Las implicaciones de la evolución de la inteligencia artificial no dejan de ampliarse y sus principales responsables buscan abrir las vías de ocupación sobre ella para reducir las de preocupación. Desde hace tiempo Geoffrey Hinton, uno de los considerados ‘padrino de la IA’, señala parte de los peligros que puede comportar el desarrollo de la inteligencia artificial sin control, pero no es el único.

Hay quien ve peligro más allá de las capacidades que puede alcanzar la inteligencia artificial. Parte de ellas pueden radicar en empezar a valorar las necesidades de protección y derechos que puede necesitar la inteligencia artificial en caso de que, dada su evolución, comience a contar como ente consciente.

Comienza el debate por el "bienestar del modelo"

Hablamos de lo que se empieza a conocer en Silicon Valley como “bienestar de la IA”, cuestión que ha centrado la última reflexión de Mustafa Suleyman, director de inteligencia artificial de Microsoft, que ha querido marcar distancia con ello para poner una vez más cordura en la velocidad de progresión de la inteligencia artificial y las supuestas barreras que está derribando sin haber superado del todo y con éxito irrefutable las que debería dejar atrás.

Mustafa Suleyman fue uno de los impulsores y fundadores de DeepMind, el laboratorio de investigación de inteligencia artificial propiedad de Google, y en marzo del año pasado se incorporó a Microsoft para liderar su división de inteligencia. El último año y medio le ha permitido a Suleyman contar con una visión general que le ha llevado a publicar una entrada de lo más reflexiva en su blog personal.

En ella, el máximo responsable de inteligencia artificial de Microsoft reconoce que, a su modo de ver, empezar a pensar en el “bienestar de la IA” cuando todavía no se han podio atajar los problemas que ella misma puede causar en los humanos resulta innecesario y es algo carente de urgencia. Suleyman lo deja claro en el título de su escrito: “Debemos construir una IA para las personas; no para que sean personas”.

La reflexión de Mustafa Suleyman va más allá y confronta su línea de pensamiento con la de quienes apuntan a extender la consideración moral a ese tipo de inteligencias que en algún momento puedan alcanzar consciencia propia. Para el encargado de IA en Microsoft, esa corriente señala un camino erróneo: “Esto es prematuro y, francamente, peligroso”, plasmó.

Suleyuman justifica su idea en el hecho de que dotar de cualidades propias y únicas de los humanos a agentes inanimados y artificiales puede derivar en más problemas psicológicos que los que ya en la actualidad tienen a la IA como raíz:

Todo esto exacerbará los delirios, creará aún más problemas de dependencia, se aprovechará de nuestras vulnerabilidades psicológicas, introducirá nuevas dimensiones de polarización, complicará las luchas existentes por los derechos y creará un enorme error de categoría para la sociedad

Mustafa Suleyman, responsable de IA de Microsoft

La opinión de Suleyman sobre esa necesidad de “bienestar del modelo” se resume en el hecho de que, para el experto de Microsoft, ese modo de afrontar la regulación de la inteligencia artificial desvincula a las personas de la realidad, deteriorando relaciones y estructuras sociales vulnerables, y alterando las prioridades morales esenciales. Problemas que, a su juicio, deben priorizarse antes de comenzar a pensar de forma seria en los conflictos que pueda tener que afrontar una tecnología en ciernes como la inteligencia artificial.