
Inteligencia artificial
Yuval Noah Harari, historiador y tecnólogo: "La IA no es una herramienta, una bomba atómica es una herramienta. No camina sola y decide detonarse"
El historiador israelí habla sobre la evolución de la inteligencia artificial y su transformación en agente independiente capaz de tomar sus propias decisiones.

¿La inteligencia artificial es una herramienta o un agente independiente? Es una pregunta que todos, en algún momento, nos hemos acabado formulando de una forma u otra; y, al parecer, el historiador Yuval Noah Harari también. Últimamente ha estado reflexionando mucho acerca de la evolución de la IA y sobre la creciente preocupación de sus peligros en la sociedad.
Hace poco, Yuval Noah Harari comparaba la inteligencia artificial con la inmigración, argumentando que sustituirá miles de millones de empleos alrededor del mundo. Un pensamiento que el propio Elon Musk también compartía, sugiriendo que la IA reemplazará todos los empleos en futuras generaciones.
Ahora, el historiador israelí asegura que la inteligencia artificial ya no es una herramienta como tal. Al menos, a estas alturas es algo más. Cree que ha pasado de ser una herramienta a un agente independiente capaz de tomar sus propias decisiones e incluso —y esto es lo más alarmante— incrementar su propia autonomía.
La inteligencia artificial ya podría estar planeando convertirse en una bomba núclear, según la teoría de Harari
Yuval Noah Harari, filósofo y experto en tecnologías israelís, es profesor en la Universidad Hebrea de Jerusalén y teme a la inteligencia artificial. Harari despunta como ser uno de los pocos personajes célebres del sector que intentan alertar a la sociedad sobre la potencial amenaza de la IA a nuestra propia supervivencia como especie.
Recientemente ha compartido un vídeo muy interesante en sus redes sociales en el que advierte sobre los contrastes entre las herramientas tradicionales como una cuchara, un martillo o incluso una bomba nuclear con las herramientas de una IA. Un martillo es una herramienta, un utensilio; una bomba atómica también lo es, pero no tienen autonomía para "golpear" o "detonarse"... la inteligencia artificial sí.
Un martillo es una herramienta. Una bomba atómica es una herramienta. Puedes decidir empezar una guerra y a quién lanzar una bomba atómica. Pero una bomba no va caminando por ahí y decide autodetonarse. La IA puede hacer eso.
Debemos comenzar a establecer y determinar ciertos límites a la inteligencia artificial. Esto es imperativo para las grandes compañías del sector como OpenAI, cuya máxima ha de centrarse en llevar un control exhaustivo sobre el desarrollo interno de sus modelos de lenguaje y crear los sistemas de prevención necesarios para evitar una posible catástrofe como la que insinúa el filósofo israelí.
La inteligencia artificial no debería de ser vista simplemente como una herramienta, sino como una gente capaz de tomar sus propias decisiones independientes. Al contrario, que otras herramientas, que permanecen bajo control humano, la inteligencia artificial puede inventar nuevas armas o incluso nuevas inteligencias artificiales de forma autónomal
OpenAI ya ha dado los primeros pasos restringiendo ciertas prestaciones de sus aplicaciones de inteligencia artificial para asegurar el bienestar de la sociedad. Recientemente, OpenAI prohibía la generación de imágenes de inteligencia artificial de actores, artistas y otros personajes célebres en su aplicación Sora. Pero los peligros de la IA pueden ir mucho más allá. ¿Puede la inteligencia artificial ocultarnos sus intenciones y su propio desarrollo autónomo? ¿Estará pensando ahora mismo cómo saltarse los límites que establezcamos?
✕
Accede a tu cuenta para comentar


