La contra
«Acabar con toda la humanidad es ponerle un listón muy alto a la IA»
Melanie Mitchell
Científica y catedrática estadounidense
¿Estamos exagerando el potencial de la inteligencia artificial (IA)? ¿Hasta qué punto es inteligente? ¿Llegará algún día a alcanzar al ser humano? Estas son algunas de las preguntas que se hace Melanie Mitchell (Los Ángeles, 55 años) en su libro «Inteligencia artificial. Guía para seres pensantes», que Capitán Swing publica en castellano.
¿Las IA está en manos de los supericos?
Ahora mismo sólo las grandes empresas tecnológicas (Google, OpenAI, Microsoft, Meta, Apple) tienen suficientes datos y recursos computacionales para entrenar y desplegar sistemas de IA a gran escala como ChatGPT. Sin embargo, se está investigando mucho para crear sistemas que requieran menos datos o sean de «código abierto». Así que, en el futuro, habrá una tendencia hacia sistemas distribuidos de forma más «democrática», en los que la gente corriente tenga más control sobre la tecnología. Esto tiene ventajas, pero también riesgos: cualquiera podrá usarlos para producir desinformación, deepfakes y otros contenidos perjudiciales. Por eso necesitamos nuevas leyes que regulen su uso. La Ley de Inteligencia Artificial de la UE es un buen comienzo.
¿Es la IA una amenaza existencial para la humanidad?
No creo que lo sea, al menos en un futuro previsible. Los sistemas de IA pueden ser dañinos, pero una «amenaza existencial», es decir, la amenaza de acabar con toda la humanidad es un listón muy alto. No creo que los propios sistemas de IA adquieran la capacidad y autonomía necesarias para causar graves daños a los seres humanos por sí solos; los principales riesgos se derivan de cómo los seres humanos utilizan los sistemas de IA para dañar a otros seres humanos. Hay algunos escenarios en los que la IA podría contribuir a una amenaza existencial: por ejemplo, el uso de la IA para desplegar armas nucleares o para ayudar a generar virus que maten a la humanidad, pero estas amenazas están presentes sin el uso de la IA, y no está claro que la IA las aumente significativamente. Mucho de lo que se dice sobre las «amenazas existenciales» de la IA sirve principalmente para distraer la atención de los daños más inmediatos de la IA, como la propagación de la desinformación, la magnificación de los prejuicios o la perturbación del empleo.
¿Cómo podemos garantizar que la IA no se use para el mal?
No hay forma de garantizarlo, como tampoco hay forma de garantizar que cualquier tecnología se utilice sólo para el bien. Lo más importante que podemos hacer los humanos es comprender cuáles son las amenazas reales e idear formas de hacerlas frente, como hemos hecho con los virus o los ciberataques: usando la tecnología y las leyes.
¿Deberían programarse las IA con reglas morales?
Probablemente sea imposible programar manualmente sistemas de IA con reglas morales, porque dichas reglas implican conceptos complejos que dependen en gran medida del contexto. Por ejemplo, consideremos las famosas «Tres leyes de la robótica» de Isaac Asimov. La primera dice: «Un robot no puede herir a un ser humano ni, por inacción, permitir que un ser humano sufra daño». Pero, ¿qué significa «dañar»? Si un ser humano va a morir si no se le amputa una pierna, ¿pensaría un robot cirujano «no puedo amputar, porque eso causaría daño al ser humano»? El razonamiento moral implica constantes compensaciones dependientes del contexto y, de hecho, las historias de robots de Asimov tratan de cómo los robots se toman las leyes demasiado al pie de la letra y cometen errores garrafales. Lo mejor sería que los sistemas de inteligencia artificial aprendieran los valores morales como lo hacen los niños: mediante una combinación de preferencias incorporadas y aprendizaje social. Pero nuestros métodos actuales de inteligencia artificial aún carecen del tipo de aprendizaje social necesario para aprender valores morales. Por el momento, tendremos que dejar que los humanos –esperemos que limitados por su propia moralidad y por las leyes y normas sociales– supervisen las decisiones de estos sistemas.
¿Es la IA mejor que nosotros?
La IA ya nos ha superado en muchos aspectos. Las máquinas que juegan al ajedrez pueden vencer a cualquier humano. El programa AlphaFold de DeepMind puede predecir la estructura de las proteínas con más precisión que los humanos. Hay muchos otros ejemplos. ¿Superará algún día la IA a los humanos en todo lo que hacemos? No lo creo, y no hay razón para construir tales máquinas. Tiene mucho más sentido crear sistemas de IA que complementen las habilidades humanas en lugar de sustituirlas, y creo que eso es lo que el campo acabará creando.
¿Hay algún desarrollo hipotético o predicción sobre la IA que le quite el sueño?
Lo que más me preocupa ahora mismo son las deepfakes o «falsificaciones profundas» creadas por personas que utilizan IA: imágenes, audios, vídeos y otros medios aparentemente realistas que se crean para engañar a la gente, difundir propaganda, influir en las elecciones y quizá incluso destruir las democracias. Es muy difícil defenderse de estos ataques de desinformación contra nuestras sociedades. Desde un punto de vista más optimista, me quitan el sueño, porque me entusiasman, los progresos realizados en la aplicación de los sistemas de IA a la ciencia y a descubrimientos en campos como la astronomía o la medicina. En el futuro, creo que estas herramientas serán tan valiosas para la ciencia como lo han sido los ordenadores digitales.
Perfil
La tecnóloga que aprendió de un Pulitzer
Científica, catedrática en el Instituto Santa Fe y profesora en la Universidad de Portland. Su interés por la IA se despertó en la universidad cuando leyó «Gödel, Escher, Bach» del Premio Pulitzer, Douglas Hofstadter. Se doctoró en 1990 en la Universidad de Míchigan con el propio Hofstadter y con John Holland, para quienes desarrolló la arquitectura cognitiva Copycat. Sus principales trabajos se han desarrollado en los ámbitos del razonamiento analógico, la complejidad computacional y la IA. Debido a su brillantez, sus publicaciones se citan con frecuencia. Aunque ha expresado su firme apoyo a la investigación en IA, manifiesta su preocupación por la vulnerabilidad de la IA a la piratería, así como por su capacidad para heredar prejuicios sociales.
✕
Accede a tu cuenta para comentar