Futuro
Una estudiante del MIT abandona sus estudios porque cree que la IA nos va a destruir a todos: "Podría no estar viva para mi graduación"
Una alumna del prestigioso MIT ha abandonado su carrera universitaria por un motivo tétrico: su temor a que la Inteligencia Artificial General (AGI) cause la extinción de la humanidad antes de que ella pueda siquiera licenciarse
Una joven promesa del Instituto Tecnológico de Massachusetts (MIT), Alice Blair, decidió abandonar los estudios universitarios que había comenzado en 2023. La razón, algo que cada vez empieza a sonar con más frecuencia: su profunda preocupación por la posibilidad de que la Inteligencia Artificial General (AGI) pudiera causar la extinción humana antes incluso de que ella pudiera obtener su título.
Actualmente, Blair colabora como escritora técnica en el Center for AI Safety, una organización sin ánimo de lucro. Cabe recordar que el objetivo central de la industria de la IA es precisamente construir esta AGI, un sistema que se define por igualar o incluso superar la inteligencia humana en todos los aspectos y sobre el que algunos de quienes dieron los primeros pasos con la inteligencia artificial como Yann LeCun muestran sus dudas.
El impulso tecnológico choca con las alertas de riesgo
Así, mientras la ambición por alcanzar la AGI impulsa a buena parte de la industria tecnológica hacia adelante, este ímpetu coexiste con un creciente coro de advertencias sobre los riesgos que podría entrañar. La carrera por desarrollar sistemas cada vez más complejos no solo persigue una inteligencia artificial de nivel humano, sino que también desata un debate considerable sobre las implicaciones éticas y existenciales.
Este panorama dibuja una situación compleja donde conviven la audacia del progreso y los miedos más profundos, así como un notable escepticismo entre un sector de los expertos. La discusión no se limita a un mero avance tecnológico, sino que se adentra en los fundamentos de nuestro futuro y el impacto potencial en la sociedad y en la propia humanidad.
En este contexto de avance imparable, Sam Altman, consejero delegado de OpenAI, describió el lanzamiento de GPT-5 como un paso decisivo hacia la AGI, llegando a referirse a él como "generalmente inteligente". Estas afirmaciones, que muestran la ambición de la industria, conviven con las preocupaciones de miembros de la comunidad académica como Nikola Jurković, quien comparte el temor al impacto de la AGI en las carreras profesionales:
"Personalmente, creo que la IA general está a unos cuatro años de distancia, y la automatización total de la economía a unos cinco o seis años"
A pesar de este impulso, el propio Altman y otros directivos reconocen públicamente los riesgos de la IA, añadiendo una capa de complejidad al debate que según Futurism está en pleno auge.
Asimismo, la voz de la moderación y el escepticismo cobra fuerza entre expertos. Gary Marcus, investigador y reconocido crítico de la IA, considera "extremadamente improbable" que la AGI surja en los próximos cinco años, una opinión compartida por muchos colegas que citan limitaciones técnicas actuales. Marcus califica la extinción humana inducida por la IA como una posibilidad "descabellada", aunque reconoce que la IA puede, en cambio, causar "daños reales" más tangibles y cercanos.
Así pues, la tensión entre el optimismo tecnológico, el alarmismo y el escepticismo experto define el panorama actual de la IA. Más allá de los escenarios extremos, el debate en sí mismo se revela crucial para abordar un desarrollo responsable de esta tecnología. La clave reside en mantener una perspectiva equilibrada y bien informada, eludiendo tanto el pánico infundado como una complacencia peligrosa ante el futuro de la Inteligencia Artificial General.