
Inteligencia Artificial
Sam Altman, CEO de OpenAI, alerta sobre algo que usas en tu día a día: "Es probablemente la mayor amenaza para la existencia continuada de la humanidad"
Encontrar el modo de relacionarse con la IA para conservar el control por parte de los humanos y así garantizar su seguridad es una de las claves del momento

En su afán por ir siempre un paso más lejos en los descubrimientos, el ser humano tiene la tendencia de primero fijar objetivos y luego calibrar sus consecuencias. En ocasiones, esas secuelas acaban por ser contrarias al bien inicial que se planteaba con la idea a desarrollar y no queda más remedio que cambiar o adaptar el rumbo.
Con la inteligencia artificial ocurre algo similar. O más bien con el siguiente paso a la inteligencia artificial, o dos más pasos más allá de ella. Cuando todavía están evolucionando los primeros modelos de IA, hay quien piensa ya en la inteligencia artificial general y, quien incluso, vislumbra a su sucesora: la superinteligencia.
El peligro de la superinteligencia para los humanos
Bien es cierto que ni siquiera los expertos en la materia parecen tener la misma idea, puesto que personalidades como Kate Crawford catalogan la inteligencia artificial general como un término de marketing. Esa postura enfrenta con la visión del fundador de OpenAI, Sam Altman, quien piensa ya a largo plazo, en la superinteligencia y en todo lo que puede ofrecer. Bueno y malo.
En los primeros pasos de la empresa que ha impulsado a ChatGPT, Altman imaginó un escenario en el que, ante los riesgos que se presentaban para la sostenibilidad del planeta, por ejemplo, la inteligencia artificial y sus herederas, la inteligencia artificial general y la superinteligencia, podrían ser las mejores aliadas. Eso, siempre y cuando se lograra que trabajasen de manera alineada con la humanidad, claro.
En este punto, Sam Altman coincidía con las reflexiones que otro de los mayores expertos en la materia, Stuart Russell, profesor de Ciencias de la Computación en la Universidad de California en Berkeley y profesor adjunto de cirugía neurológica en la Universidad de California en San Francisco han señalado: evolución sí, pero vigilancia y control humano en todo momento también para no quedar en manos de una inteligencia capaz de manipular a los humanos.
Sam Altman reflejó ese recelo sobre equilibrar avance, cooperación humanos – IA y alineación en una entrada de su blog personal hace ya una década, mostrando un temor que con el tiempo parece haber ido cambiando: “El desarrollo de una inteligencia artificial sobrehumana es probablemente la mayor amenaza para la continuidad de la humanidad”, escribió.
La propia compañía OpenAI reconocía en una publicación en su página web de febrero de 2023 que su idea de trabajo era lograr que la inteligencia artificial general beneficiase a toda la humanidad, aunque no negaba los riesgos que un desarrollo e implantación erróneos podría causar:
"Una IA general superinteligente desalineada podría causar graves daños al mundo; un régimen autocrático con un liderazgo decisivo en superinteligencia también podría hacerlo"
A juicio de las palabras tanto de Sam Altman como de la propia OpenAI como entidad, el reto está en encontrar el modo de alinear los sistemas de inteligencia artificial y sus evoluciones con los valores humanos.
También es crucial encontrar la manera más adecuada de especificar al sistema qué se requiere de él en cada momento, cuestión que pone sobre el tejado de los humanos la responsabilidad para evitar esa amenaza a la que se refiere Sam Altman.
✕
Accede a tu cuenta para comentar