
Turismo
La IA está enviando a turistas a lugares peligrosos: se debe a sus alucinaciones
Expertos en viajes y turismo recomiendan de manera encarecida cotejar con más fuentes de información los planes de viaje y turismo que ofrecen los servicios de inteligencia artificial

Mientras los grandes protagonistas del universo de la inteligencia artificial no cesan en su discurso acerca de lograr la inteligencia artificial general (AGI) y los grandes centros de datos que serán construidos en los próximos años, las pruebas todavía apuntan a un servicio que comete errores con consecuencias que pueden ser fatales.
La fiabilidad de los sistemas de inteligencia artificial es, al menos por el momento, cuestionable. Las alucinaciones de modelos como ChatGPT son recurrentes y el coste de subsanar dichas incidencias dispararía los gastos de OpenAI, tal como apuntó Wei Xing, profesor de la Universidad de Sheffield y experto en optimización de IA.
El problema son las consecuencias de dichas alucinaciones, que ahora se están dejando notar en un sector en el que cada vez se hace más uso de la inteligencia artificial: la organización de viajes. La confianza con la que hace todas sus afirmaciones la inteligencia artificial está jugando en contra de los viajeros, que ven como en ocasiones sus excursiones discurren por entornos que en nada se parecen a lo prometido por la inteligencia artificial.
Turistas en peligro por los lugares inventados por la IA
Así lo pone de relieve Miguel Ángel Góngora Meza, guía turístico en Perú y con quien ha conversado la BBC, tras evitar el experto que dos viajeros en suelo peruano se vieran en una situación comprometedora tras confiar toda su experiencia de forma ciega a la recomendación de destino y ruta hecha por la inteligencia artificial.
Lo cierto es que, tal como reconoce Góngora Meza, la creencia sin fisuras en las respuestas de la inteligencia artificial puede implicar peligros más que notables para los viajeros, en especial en zonas con una orografía compleja o unas condiciones de altitud o climáticas que pueden comprometer la seguridad personal.
El guía peruano fue el ángel de la guarda de dos viajeros que se encontraban en la Cordillera de los Andes, donde Góngora Meza preparaba una caminata. Durante su ruta, escuchó la conversación de dos turistas que hicieron referencia al "Cañón Sagrado de Humantay", lugar que, como experto, Meza debería conocer y que para nada forma parte de los lugares turísticos de referencia de Perú, sino que se trata de una denominación que combina dos lugares sin relación entre ellos, síntoma de una alucinación o fallo de la inteligencia artificial empleada para confeccionar el viaje.
Por fortuna para los desplazados, Góngora Meza se cruzó en su camino y pudo advertirles de la equivocación de su planificador virtual de vacaciones y de los riesgos que podía haber comportado seguir de manera incondicional sus premisas:
“La altitud, los cambios climáticos y la accesibilidad de los senderos deben planificarse. Cuando se usa un programa como ChatGPT de OpenAI, que combina imágenes y nombres para crear una fantasía, uno puede encontrarse a 4.000 metros de altitud sin oxígeno ni señal de teléfono”
Una situación en la que nadie querría verse y que cada vez puede ser más frecuente. Y es que según los datos de la última encuesta de Global Rescue, empresa de servicios de viajes, uno de cada cuatro viajeros utiliza ya información extraída de consultas a asistentes de inteligencia artificial para planificar sus viajes, desoyendo el consejo de cotejar aquella información que aporte la IA con fuentes fiables de información.
Porque nadie quiere que unas vacaciones y una experiencia única acabe con un recuerdo gris y con una vivencia alejada de lo que deben suponer unos días de desconexión y contacto con una realidad lejana y que tal vez nunca se tenga la opción de revivir.
✕
Accede a tu cuenta para comentar