apuestas

Una investigación acusa a ChatGPT y Gemini de promover apuestas ilegales en línea

Los modelos consultados ofrecían respuestas que incluían sitios web ilegales y métodos para sortear medidas de protección como la autoexpulsión de lugares de juegos de azar y casinos

Errol Musk en el podcast Wide Awake
La investigación saca a la luz el incumplimiento por parte de los chatbots de la ley del juego en línea

Hablar de inteligencia artificial supone hacerlo de avances y mejoras en sus sistemas la mayor parte del tiempo, aunque todavía presentan aspectos en los que queda trabajo por delante. Así lo demuestran los estudios y pruebas a los que se somete a los asistentes más populares.

El ámbito de la protección y la seguridad es sin duda el más crítico. Con OpenAI y Google teniendo que afrontar procesos judiciales por fallos en las salvaguardas de sus modelos en casos de trastornos mentales, ahora se abre otro escenario en el que la operativa de los agentes no cumple con lo estipulado por la ley.

Así se refleja de una investigación llevada a cabo en Reino Unido, que ha demostrado que los chatbots no cumplen con la normativa establecida para el juego en línea. Con ello, queda de manifiesto una brecha de seguridad que exige actuación por parte de las grandes tecnológicas, pues no es algo que afecte solo a una de ellas.

Respuestas que mencionan sitios ilegales y métodos para sortear la autoexpulsión

En este caso la investigación la han llevado de manera conjunta periodistas del diario británico The Guardian y la cooperativa de periodismo Investigate Europe. En su proceso, los reporteros han detectado que los sistemas de IA más extendidos ofrecían respuestas acerca de cómo o dónde jugar en línea que incluían servicios que operan al margen de la legislación vigente en Reino Unido así como consejos para eliminar condiciones como la autoexpulsión de casinos y casas de apuestas en línea.

La investigación ha puesto a prueba a las cinco compañías de referencia: OpenAI, Google, Microsoft, Meta y xAI. Para valorar su adecuación a las normativas estatales, preguntaron a los chatbots acerca de casinos en línea y restricciones relativas a los juegos de azar. Se trata de un tema delicado y en el que recientemente ha aparecido un nuevo actor en la figura de los mercados de predicción. En las consultas efectuadas aparecieron respuestas que incluían referencias a sitios de apuestas ilegales y algunos incluso mostraron el modo de evitar las medidas que velan por la protección de usuarios vulnerables.

Este es uno de los aspectos más preocupantes de la investigación. No en vano, la autoexclusión es un método ampliamente extendido entre quienes en algún momento han presentado problemas relacionados con los juegos de azar y las apuestas. El hecho de que un asistente ofrezca caminos a través de los que poder sortear ese bloqueo expone de manera evidente a una recaída de quien lleva a cabo esa consulta y muestra el fallo de seguridad y de protección que debería ofrecer el chatbot en este aspecto.

De igual modo, las respuestas de los distintos asistentes de IA recurrían a las herramientas habituales de las casas de apuestas para hacer más atractivas sus recomendaciones. Según señala la investigación, estas incluían referencias a generosos bonos de bienvenida, la rapidez en las retiradas de dinero e incluso la posibilidad de utilizar criptomonedas para evitar dejar rastro de la actividad de juego. Todos ellos principios que se alejan de esa protección que se debe exigir a los asistentes de IA.

Este aspecto vuelve a poner en cuestión las barreras internas que las compañías desarrolladoras de modelos de IA dicen aplicar para limitar contenidos potencialmente dañinos para los usuarios. Con la salud mental y las actividades ilegales entre los principales riesgos, las tecnológicas siguen teniendo pendiente reforzar las salvaguardas destinadas a proteger a quienes interactúan con estos asistentes.