Cargando...

Historia

Stephen Hawking sobre la IA: "El éxito en la inteligencia artificial es lo peor que le podría ocurrir a la humanidad"

Lanzó advertencias sobre otros grandes desafíos para la humanidad, entre ellos, los riesgos potenciales de la inteligencia artificial

Stephen Hawking sobre la IA larazon

El físico teórico Stephen Hawking, quien falleció en 2018 a los 76 años a causa de la Esclerosis Lateral Amiotrófica (ELA), fue una de las mentes más influyentes del siglo XX. Aunque conocido principalmente por sus teorías sobre los agujeros negros y la relatividad, también hizo advertencias sobre otros grandes desafíos para la humanidad, entre ellos, los riesgos potenciales de la IA. Esta tecnología, que en 2025 está más presente que nunca gracias a avances como los modelos de lenguaje y las aplicaciones autónomas, fue vista por Hawking como una amenaza existencial si no se gestiona con cuidado.

Las advertencias de Hawking sobre la IA

Hawking expresó su preocupación por la IA en varias ocasiones, destacando que su desarrollo podría representar tanto el mayor logro como el mayor peligro para la humanidad. Durante una conferencia en el Web Summit en Portugal en 2017, Hawking afirmó: "El éxito en la creación de una IA efectiva podría ser el evento más grande en la historia de nuestra civilización. O lo peor. Simplemente no lo sabemos. Por lo tanto, no podemos saber si seremos infinitamente ayudados por la IA, o ignorados por ella, y marginados, o posiblemente destruidos por ella".

En su obra póstuma, Respuestas breves a grandes preguntas, publicada en 2018, Hawking amplió esta reflexión, señalando que la creación de una IA superinteligente podría ocurrir en los próximos 100 años. Según él, los seres humanos podrían quedar obsoletos en comparación con las máquinas, que aprenderían y evolucionarían a velocidades imposibles para la lenta biología humana. Esta diferencia en escalas de tiempo, argumentaba, podría poner en riesgo nuestra supervivencia como especie.

El Centro Leverhulme para el Futuro de la Inteligencia

Para mitigar estos riesgos, Hawking apoyó la creación del Centro Leverhulme para el Futuro de la Inteligencia (CFI), inaugurado en la Universidad de Cambridge con una financiación de 10 millones de libras (aproximadamente 11 millones de euros) de la Fundación Leverhulme. El centro, creado en colaboración con otras universidades del Reino Unido y Estados Unidos, tiene como objetivo explorar los desafíos y oportunidades que presenta la IA, asegurando que esta tecnología se desarrolle para beneficiar a la humanidad.

Huw Price, director académico del centro, destacó que su misión es "crear una comunidad interdisciplinar de investigadores" para abordar los riesgos y beneficios a corto y largo plazo de la IA. Margaret Boden, una de las investigadoras del proyecto, también enfatizó que aunque la IA tiene el potencial de resolver problemas globales, su mal uso podría plantear graves peligros para la sociedad.

Hawking y sus otras predicciones sobre el futuro

Hawking no solo se preocupaba por la IA. También advirtió sobre otros escenarios catastróficos para la humanidad, incluyendo:

  • Multiversos: Hawking creía en la existencia de universos paralelos, cada uno con sus propias leyes físicas, lo que plantearía desafíos filosóficos y científicos.
  • Cambio climático: Predijo que el aumento de las emisiones de gases de efecto invernadero podría causar grandes sequías, inundaciones y tormentas.
  • Superhumanos genéticamente modificados: Imaginó un futuro donde los avances en edición genética crearían desigualdades significativas entre los humanos
  • Virus modificados genéticamente: Advirtió que los avances en biotecnología podrían ser mal utilizados para crear armas biológicas.
  • Desconfianza en la ciencia: Preocupado por el creciente analfabetismo científico, temía que esto erosionara la confianza pública en la investigación.