Inteligencia artificial

Microsoft afirma que una versión más potente de ChatGPT muestra signos de razonamiento humano

Investigadores de Microsoft pasaron meses poniendo a prueba una versión de GPT-4 distinta a la disponible para los usuarios y que no había sido ajustada para evitar sesgos

Microsoft afirma que una versión más potente de ChatGPT muestra signos de razonamiento humano.
Microsoft afirma que una versión más potente de ChatGPT muestra signos de razonamiento humano.Alfredo Biurrun.Creador de imágenes de Bing.

Microsoft se ha convertido en la primera gran tecnológica en afirmar que uno de los sistemas de inteligencia artificial que desarrolla muestra “signos de razonamiento humano” y “puede ser vista como una versión temprana (aún incompleta) de un sistema de Inteligencia Artificial General”. Un grupo de investigadores de Microsoft realiza estas afirmaciones en un estudio, publicado el pasado mes de marzo y del que ahora se hace eco The New York Times, bajo el título “Signos de Inteligencia Artificial general: primeros experimentos con GPT-4”.

Los investigadores trabajaron durante meses con una versión de GPT-4 más potente que la que está disponible actualmente para los usuarios, a través del buscador Bing y de ChatGPT Plus, y que no había sido alineada o ajustada para evitar que genere contenido inapropiado o con determinados sesgos. Su objetivo era testar los límites de esta variante del modelo de lenguaje GPT-4 y para ello la sometieron a una amplia variedad de pruebas que requerían una “comprensión profunda y flexible” de conceptos y habilidades humanas.

Por ejemplo, se le planteaban pruebas que demandaban una familiaridad con el mundo físico que GPT-4, en teoría, no tiene. La IA sorprendió a los investigadores resolviendo un problema consistente en cómo apilar, de forma que mantengan el equilibrio, un libro, 9 huevos, un portátil, una botella y una uña. También al escribir una demostración matemática de los números primos infinitos en forma de poema, crear un programa que tenga en cuenta aspectos como la edad, sexo, estatura y peso de una persona para, junto a un test de sangre, valorar el riesgo de diabetes y escribir un diálogo entre Sócrates y Aristóteles sobre los peligros de la inteligencia artificial.

Al ejecutar estas y otras tareas propuestas por los investigadores, la inteligencia artificial demostró un entendimiento de campos tan dispares como política, física, historia, informática, medicina y filosofía combinándolo con sus conocimientos, según el estudio.

“¿Todas las cosas que pensé que no sería capaz de hacer? Ciertamente fue capaz de hacer muchas de ellas, si no la mayoría”, señala Sébastien Bubeck, uno de los autores del informe de Microsoft. Peter Lee, otro de los autores, afirma que “empecé siendo muy escéptico, y eso se convirtió en una sensación de frustración, molestia, tal vez incluso miedo. Piensas, ¿de dónde diablos viene esto?”.

Por estas razones, el informe considera que esta versión sin ajustar de GPT-4 supone un paso más cerca de una inteligencia artificial general que se equipare con las capacidades cognitivas de la inteligencia humana y sea capaz de solventar tareas para las que inicialmente no ha sido programada. Bubeck y Lee no sabían cómo describir el comportamiento de GPT-4 y acordaron el término “Signos de IAG” porque pensaron que así capturarían el interés de otros investigadores, según han indicado a New York Times, aunque no todos lo ven igual.

Marteen Sap, investigador de la Universidad Carnegie Mellon, señala al medio que el estudio “es un ejemplo de como algunas de estas grandes empresas aprovechan el formato de trabajo de investigación para las relaciones públicas. Literalmente reconocen en la introducción de su artículo que su enfoque es subjetivo e informal y que es posible que no satisfaga los rigurosos estándares de la evaluación científica”.