Informática

La inteligencia artificial alcanzará a la humana en 2029, según un experto

José Luis Cordeiro
José Luis Cordeirolarazon

El profesor de la Singularity University José Luis Cordeiro está convencido de que para 2029 la inteligencia artificial alcanzará a la humana y de ahí a la singularidad tecnológica faltará poco, informa Europa Press.

En la Singularity University, que impulsan entre otros la NASA, Google, Cisco o Genentech, conviven tecnologías que producen, a partes iguales, esperanza y miedo a lo desconocido. Es el caso de máquinas capaces de «evolucionar».

La singularidad tecnológica es una hipótesis que pronostica que llegará un momento en el que la inteligencia artificial será capaz de auto-mejorarse recursivamente. En teoría, las máquinas serán capaces de crear otras máquinas aún más inteligentes, hito que derivaría en una inteligencia muy superior a la humana y, lo que resulta más chocante, fuera de nuestro control.

A su juicio, la tecnología es mucho más rápida que el cerebro --una calculadora multiplica números de 5 cifras en décimas de segundo--, pero funciona de forma distinta, por ejemplo, no ha alcanzado el nivel de conexiones equivalente al que tienen las neuronas en un cerebro humano.

Sin embargo, si la velocidad exponencial de la ley de Moore no se detiene y siguen avanzando las investigaciones de redes neuronales de gigantes como Google, para 2029 el grado de integración de la tecnología permitirá generar un equipo tan potente y complejo como un cerebro. Y mucho más rápido.

Según opina Manuel Monterrubio, Ingeniero en Informática por la UPM y CEO de la compañía especializada en transformación digital EXEVI, a lo largo de la historia del ser humano, algunos avances tecnológicos han provocado temor. «El miedo a lo nuevo y lo desconocido es comprensible, sin embargo todas las tecnologías pueden usarse para el bien o para el mal, como puede usarse el fuego para calentar y cocinar alimentos, o para quemar a la gente», ha apuntado.

En el caso de la singularidad, el experto ha indicado que parece claro que hay que ser cautos, regulando su desarrollo pero sin limitarlo y, sobre todo, tratando de que esas futuras inteligencias artificiales aprendan de los valores éticos y morales, así como de los errores y aciertos de la especie.