• 1

La Inteligencia Artificial se hace invencible

Un nuevo algoritmo de Google aprende a jugar al juego oriental Go sin intervención humana y consigue derrotar 100 veces seguidas a su predecesor

  • El nuevo ejemplo de Inteligencia Artificial AlphaGo Zero
    El nuevo ejemplo de Inteligencia Artificial AlphaGo Zero

Tiempo de lectura 4 min.

19 de octubre de 2017. 07:32h

Comentada
Ernesto Villar 19/10/2017

La Inteligencia Artificial ha dado una nueva demostración de hasta dónde puede llegar sin la intervención del hombre. Una nueva versión de AlphaGo, el programa de IA creado por Google, ha conseguido aprender todos los trucos para usar el clásico juego de estrategia oriental Go sin necesidad de que le enseñe un humano, según se detalla en un estudio que acaba de publicar la revista Nature.

Y lo ha hecho con tanta eficacia que esta nueva versión, bautizada como AlphaGo Zero, ha logrado derrotar durante 100 partidas seguidas a su predecesor, que ya había sorprendido al mundo al ganar al campeón del mundo de este juego, el surcoreano Lee Sedol, en 18 partidas, en marzo de 2016.

AlphaGo Zero ha conseguido este nivel de perfección solo disputando partidas contra sí mismo, sin ninguna instrucción previa, lo que abre una nueva ventana hacia la sorprendente e inquietante capacidad de estos robots para aprender por sí mismos sin la supervisión y el control de un humano.

El programa empezó a jugar con movimientos de fichas al azar y fue aprendiendo en cada partida en función de los errores y aciertos cometidos en los movimientos previos. Necesitó apenas 40 días de aprendizaje autodidacta, aunque, eso sí, aprovechados al máximo, ya que tuvo tiempo de jugar nada menos que 30 millones de partidas contra sí mismo. Su predecedor, sin embargo, había aprendido utilizando como base millones de partidas de jugadores humanos.

Con semejante carta de presentación, parece poco probable que una revancha entre los expertos humanos de este juego de origen oriental y la máquina se vaya a producir.

Tal y como destaca el artículo, esta capacidad de auto-entrenamiento sin la participación humana «es un paso crucial hacia el sueño de crear una IA general que pueda abordar cualquier tarea». A corto plazo, podría permitir que los programas asuman desafíos científicos como el plegamiento de proteínas o la investigación de materiales, destaca el presidente ejecutivo de DeepMind, Demis Hassabis

El antiguo juego chino de Go consiste en colocar piedras blancas y negras en un tablero para controlar el territorio. Al igual que sus predecesores, AlphaGo Zero utiliza una red neuronal profunda, un tipo de inteligencia artificial inspirada en la estructura del cerebro, para aprender conceptos abstractos de las tablas. Solo contó las reglas del juego y aprendió por ensayo y error, retroalimentando información sobre la que funcionó para mejorarse después de cada juego, recuerda el estudio.

Lo más curioso es que sus primeros pasos en este aprendizaje se parecían a las reacciones humanas, pero después comenzó a explorar otros caminos que le han llevado a semejante nivel de perfección.

Contenido relacionado

Últimas noticias

Red de Blogs

Otro blogs