Cargando...

Desarrollo IA

Eliezer Yudkowsky, experto tecnológico, amenaza a la humanidad con su predicción: "Todo el mundo en la Tierra va a morir"

En una carta abierta a la revista TIME, el escritor estadounidense expone sus miedos ante un avance salvaje y sin control de la inteligencia artificial

Los malos augurios de Eliezer Yudkowsky ante el avance de la IA Ted Talks

Cuando se abre un horizonte desconocido se presentan también posibilidades que deben ser tenidas en cuenta antes de continuar adelante. En ocasiones se prioriza el avance sobre la seguridad y eso es algo que no gusta a la mayoría de expertos.

Fruto de ello estamos viendo cómo cada vez son más los científicos, académicos y demás expertos en el campo de la inteligencia que apuntan a una apremiante necesidad de poner bajo control el vertiginoso avance de dicha materia, como ha hecho Yoshua Bengio.

El peligro de crear algo con capacidad para destruir

Algunos, como Eliezer Yudkowsky, van más allá y han aprovechado su papel en esa rama para pedir directamente que se paralice su avance hasta tener claras las connotaciones y riesgos que puede suponer para los humanos. El escenario de incertidumbre que también dibuja Dario Amodei requiere de una atención mayor a la que se está prestando hasta la fecha.

Yudkowsy, que fundó la compañía no lucrativa llamada MIRI (por sus siglas en inglés, Machine Intelligence Research Institute), antes conocida como SIAI (por sus siglas en inglés, Singularity Institute for Artificial Intelligence) y que trabaja en ella hoy en día, remitió en marzo de 2023 una carta abierta a la revista estadounidense TIME en la que exponía sus miedos ante la dirección que tomaba ya por aquel entonces la inteligencia artificial.

El escritor y bloguero es un firme defensor del desarrollo de una inteligencia artificial amigable y alejada de cualquier posibilidad bélica o conflictiva en que ésta pueda derivar.

Eliezer Yudkowsky no dudó a la hora de redactar una misiva en la que reconocer todos sus miedos y los de varios colegas de estudio: “Muchos investigadores inmersos en estos temas, incluyéndome a mí, esperan que el resultado más probable de construir una IA con una inteligencia sobrehumana, en circunstancias remotamente similares a las actuales, sea que literalmente todos los habitantes de la Tierra mueran. No como si fuera una posibilidad remota, sino como si fuera lo más obvio”, afirmó Yudkowsky de forma rotunda.

Para el escritor estadounidense, la clave de todo está en prepararse para el momento en que el recorrido de la inteligencia artificial la sitúe por delante de la humana: “La cuestión clave no es la inteligencia 'competitiva con los humanos' (como dice la carta abierta); es lo que sucede después de que la IA alcanza una inteligencia más inteligente que la humana", destacó.

Así pues, son varias las personalidades relevantes y estudiosos en el segmento de la inteligencia artificial quienes han mostrado una postura afín a establecer un control sobre ella. La carta remitida por Eliezer Yudkowsky a la revista TIME es solo una muestra más y un aviso extra del que habrá que ver si el mundo toma nota.