Tecnología

El mundo ya está en manos de la IA y debemos reaccionar

Geoffrey Hinton ha sacudido el mundo con su dimisión de Google, pero la situación es mucho más compleja de lo que pueda parecer

¿Cómo podría matar humanos la inteligencia artificial?
¿Cómo podría matar humanos la inteligencia artificial? Alfredo Biurrun.Bing Creator Image.

Un anciano de 75 años ha dejado su trabajo. Aunque parezca mentira, esa es una de las noticias más relevantes de la semana y, en parte, tiene sentido que lo sea. El nombre del anciano es Geoffrey Hinton y, su mente, todavía brillante, es una de las más respetadas en el mundo de la inteligencia artificial. Los medios de comunicación se han limitado a presentarlo como el padrino de la inteligencia artificial, pero, aunque este apodo sea cierto, no nos dice demasiado sobre su bagaje. Hinton es, tanto psicólogo cognitivo, como científico de la computación y ha sido uno de los padres del deep learning, el tipo de aprendizaje de las máquinas con el que funcionan ChatGPT, DALL.E y la mayoría de IAs que se han viralizado durante los últimos años.

La lista de méritos y aportaciones de Hinton es tan extensa como críptica para el público general, pero con esto nos hacemos una idea. Ahora bien, con esto en mente, puede parecer incluso más preocupante lo que cuentan algunos medios: que el buen doctor ha dimitido de Google por el aterrador futuro que se augura si la IA sigue avanzando. No podemos negar que el mismo Hinton ha llegado a declarar que se arrepiente de parte de su trabajo, pero hay otras declaraciones que recontextualizan bastante esta supuesta dimisión. Él mismo subrayó que tiene 75 años y que era hora de retirarse y ha insistido en varias ocasiones en que Google se ha comportado de forma ética y “muy responsable” en sus investigaciones. Visto así, la “dimisión” no parece el acto de protesta que nos cuentan, por lo que la pregunta es obligada. ¿Corremos peligro?

No lo sabemos…

No lo sabemos con total certeza. Hay argumentos tranquilizadores y otros que nos pondrían los pelos de punta, pero eso no significa que estemos sumidos en la más angustiante de las incertidumbres. La IA, en sí misma, no es mala. Es una herramienta más, sin conciencia ni voluntad. Puede servir para infinidad de tareas, algunas de las cuales ni siquiera las sospechamos, pero hará aquellas que nosotros le pidamos. Del mismo modo que un cuchillo no es malo, pero puede servir tanto para apuñalar como para cortar la comida. Es el gran dilema del progreso, el mismo que nos acompaña desde siempre. Una de las primeras revoluciones tecnológicas fue la metalurgia. Las tribus que lograban dominar metales más resistentes tenían una ventaja notable sobre las demás.

Poco podían hacer las lanzas de bronce contra las de acero, por ejemplo. Esta carrera armamentística fue consecuencia de la metalurgia y nos ha costado millones de vidas a lo largo de la historia. Sin embargo, nadie diría que el dominio de los metales sea malo. Entendemos que la tecnología, aunque se fragua en un contexto político y se aplica siguiendo unos intereses igual con su propia carga ideológica, no es en sí un problema, es una oportunidad. La inteligencia artificial es un ejemplo más de todo esto, aunque con una diferencia que la hace especialmente peligrosa. Por lo general, el progreso requiere sus tiempos y, en ese devenir de logros, tenemos tiempo de preguntarnos cuáles son nuestros límites, cómo debemos usar los ingenios que creamos y cómo regular su uso. El problema es que la IA avanza a una velocidad tan vertiginosa que no tenemos tiempo de nada de eso. A poco que reflexionemos sobre el estado del arte, este ya ha cambiado un par de veces. Es ese caballo desbocado el que tiene preocupado a Hinton.

No es ciencia, es política

Aunque a estas alturas del artículo ya debería de haber quedado claro, nunca está de más explicitar que, el verdadero problema con la IA y con cualquier otra tecnología, no es científico, es político, ético, legal… Son los expertos en estas disciplinas quienes deben actuar como consideren oportuno para preservar el bienestar social o, al menos, amortiguar las consecuencias. Y, por supuesto, tales acciones deben estar correctamente informadas por (ahora sí) los expertos en inteligencia artificial. El mismo Hinton reflexiona sobre ello y dice que es responsabilidad de los gobiernos evitar que esta tecnología se convierta en algo peligroso. El gran problema es que, como decíamos, la velocidad a la que avanza complica su regulación. Por no hablar de que cada vez es más sencillo hacerse con un buen ordenador y una red neuronal capaz de producir deepfakes y otro tipo de contenido conflictivo.

Este fue el motivo de ser de aquella carta firmada por personalidades relevantes en el mundo de la IA en la cual se pedía a los gobiernos que impusieran una moratoria en el desarrollo de estas tecnologías. Sin embargo, también es el motivo por el que aquella carta estaba condenada al fracaso. ¿Cómo ponerle puertas al campo? Hinton también se ha mostrado poco optimista respecto a este tipo de peticiones y ha aclarado que, aunque la mayor parte de países aceptaran detener sus investigaciones, otros como China seguirían con ellas casi con total seguridad. Y, evidentemente, si ese es el escenario esperable de una moratoria, posiblemente no sea sensato dejar que unos pocos países desarrollen una tecnología tan poderosa mientras el resto simplemente esperamos. Parece que estamos en un callejón sin salida y que ya no hay forma de evitar el desastre.

¿Y si no fuera para tanto?

Llevamos años preocupándonos por la IA en la dirección equivocada. Ya nadie teme que formen Skynet y nos exterminen o, al menos, no deberían. Los verdaderos peligros son laborales, de privacidad y en nuestras libertades, que pueden verse afectadas por un bombardeo de información falsa o la existencia de chats altamente convincentes. Hablar de todo ello parece la crónica de un desastre anunciado, pero… ¿y si no fuera para tanto? O, mejor dicho: si no fuera para tanto tiempo. Es difícil argumentar que la IA, con todo su poder, no vaya a tener efectos negativos en nuestra sociedad. Todas las tecnologías lo han tenido, pero con el tiempo hemos logrado que los efectos positivos compensen a los negativos, transformando a la sociedad, pero no necesariamente en algo peor. Simplemente, en algo diferente.

Cabe la posibilidad de que estemos ante una situación similar y que, tras la tormenta que se avecina, llegue la calma. Una calma extraña e inédita, pero calma, al fin y al cabo. Aunque, cuidado, no hablamos de una suerte de tecno-optimismo. No seamos tan ingenuos de pensar que todo se arreglará por sí solo gracias a las maravillas de la tecnología. Hará falta mucho esfuerzo e innumerables voces críticas, algunas acertadas, otras simplemente preocupadas. Sea como fuere, ya es tarde para preguntarnos si queremos a la IA en nuestra civilización. Ese tren partió hace años. La verdadera pregunta es “cómo la queremos” y de nuestra respuesta dependerá el futuro de la humanidad.

QUE NO TE LA CUELEN:

  • Las inteligencias artificiales, hasta donde sabemos y comprendemos, no son inteligencias al uso. Imitan comportamientos inteligentes, desde luego, y eso es algo con lo que casi cualquier experto estará de acuerdo. Sin embargo, atribuirles una inteligencia propiamente dicha es mucho más polémico. Del mismo modo, tampoco podemos decir que tengan conciencia o voluntad. Sin embargo, cuanto mejores sean imitando los comportamientos inteligentes, más indistinguibles serán de aquellos seres que realmente consideramos inteligentes y conscientes. ¿Qué implicaciones tendrá esto? No es fácil saberlo, pero, o bien encontramos alguna característica necesaria para atribuir inteligencia y consciencia a un ser que, por supuesto, no esté presente en la IA, o bien acabaremos aceptando que estas son inteligentes y conscientes, con todas las consecuencias legales y éticas que eso tiene.

REFERENCIAS (MLA):

  • Metz, C. (2023) 'the godfather of A.I.' leaves Google and warns of Danger ahead, The New York Times. The New York Times. Available at: https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html (Accessed: May 4, 2023).
  • Pause giant AI experiments: An open letter (2023) Future of Life Institute. Available at: https://futureoflife.org/open-letter/pause-giant-ai-experiments/ (Accessed: May 4, 2023).