Inteligencia Artificial
El creador de ChatGPT advierte que ningún búnker servirá "si la Inteligencia Artificial sale mal"
Sam Altman se ha pronunciado en numerosas ocasiones sobre el peligro que podría suponer la IA en un futuro
El lanzamiento de ChatGPT en 2022 supuso un punto de inflexión en el ámbito de la Inteligencia Artificial. Desde entonces, millones de personas han pasado a incorporarlo como una herramienta más en su día a día, tanto en el ámbito laboral, como en uno más personal, ya que su novedad radicaba en acercar por primera vez al público generalista los grandes modelos de lenguaje.
No obstante, la carrera por la Inteligencia Artificial sigue adelante, y OpenAI, empresa desarrolladora de ChatGPT, parece haberse visto superada por primera vez por una empresa china. DeepSeek, un chatbot también potenciado por IA, logró desplazar a la estadounidense en las tiendas de aplicaciones, y su efecto también se dejó notar en la bolsa, provocando importantes pérdidas en las empresas fabricantes de microchips.
Washington no parece estar dispuesto a quedarse atrás en la carrera de la IA. El nuevo presidente de Estados Unidos, Donald Trump, anunció una inversión de hasta de 500.000 millones de dólares para construir una infraestructura de inteligencia artificial en el país. Un proyecto que ha sido bautizado como "Stargate", y que se encuentra impulsado por compañías como OpenAI, SoftBank y Oracle. Durante la rueda de prensa, Sam Altman, consejero de delegado de OpenAI, llegó a firmar que Stargate "será el proyecto más importante de esta era".
El futuro de la IA
Precisamente Altman ha sido uno de los últimos magnates en pronunciarse sobre el futuro de la IA. Durante el evento Tech Live organizado por el Wall Street Journal, le preguntaron al creador de ChatGPT si contaba con un búnker preparado ante un hipotético futuro apocalíptico, en el que este tipo de tecnología hubiera jugado un papel clave.
Sam Altman reconoció que contaba con "estructuras, pero no diría un búnker". El magnate fue más allá en su respuesta, advirtiendo que "nada de esto va a ayudar si la AGI (Inteligencia artificial general) sale mal, es una pregunta ridícula", concluyó. No es la primera vez que Altman se pronuncia sobre la posible amenaza de la IA. Como recoge Businness Insider, fue coautor de una publicación en blog de OpenAI, en la que ya insinuó que en una década, la IA podría superar a los humanos en diversas áreas, llegando a representar una amenaza existencial para la humanidad.