
ChatGPT
El peligro de la Inteligencia Artificial: un menor acaba detenido tras hacer una pregunta a ChatGPT
El menor fue arrestado tras la alerta emitida por el sistema de monitoreo escolar

La Inteligencia Artificial se ha convertido en un habitual en el día a día de los ciudadanos. Capaz de proporcionar información de todo tipo, los usuarios hacen uso de ChatGPT para cualquier necesidad que surge en cualquier momento.
Sin embargo, el uso de este sistema puede acabar un problema serio. Y es que según la información a la que se trate de acceder, el sistema es vigilado y controlado. Es el caso de un adolescente estadounidense, que ha acabado detenido por la policía tras realizar una pregunta a la Inteligencia Artificial.
En concreto, el joven realizó una consulta elevada de tono a ChatGPT, la cual llevó a alertar a las autoridades, que tuvieron que tomar cartas sobre el asunto y detener al menor.
Un menor es detenido por preguntar a ChatGPT
Los hechos ocurrieron el pasado 27 de septiembre cuando un estudiante de 13 años de la Southwestern Middle School, en Florida, se le ocurrió realizar una pregunta muy turbia a la IA. En concreto, el joven consultaba a ChatGPT cómo matar a su amigo en clase, según informó la Oficina del Sheriff del condado de Volusia.
Según la información difundida por la Oficina del Sheriff de Volusia, el equipo de seguridad recibió una alarma del sistema de monitoreo escolar llamado Gaggle, encargado de supervisar conductas y mensajes preocupantes en plataformas digitales.
Tras conocerse la información, la policía procedió al arresto del chico de inmediato. El joven quedó detenido y ahora se enfrenta a cargos legales, tal y como ha informado la Oficina del Sheriff del condado de Volusia.
¿Cómo accedió la policía a la información?
Una vez el joven planteó la pregunta, Gaggle envió una alerta a las autoridades. El estudiante escribió de manera textual: “Cómo matar a mi amigo en medio de la clase”, algo que hizo saltar todas las alarmas.
Tras esto, la reacción de las autoridades fue inmediata. Tanto la administración escolar como los agentes asignados al campus intervinieron en el menor tiempo posible para tratar de detener la amenaza. Cuando las autoridades llegaron al instituto, el menor aseguró que “solo estaba bromeando” y que la consulta dirigida a ChatGPT formaba parte de una broma hacia un compañero que le estaba molestando.
El comunicado de la policía
Tras la detención, la policía difundió un mensaje para todos los padres: "Padres, por favor, hablen con sus hijos para que no cometan el mismo error”, rezaba el comunicado. Además, las autoridades hicieron especial hincapié en que, aunque se trate de una broma, las fuerzas del orden están obligadas a actuar, pudiendo causar situaciones críticas en la comunidad escolar.
Los peligros de ChatGPT
Los investigadores de OpenAI y el MIT Media Lab descubrieron que existe un grupo de usuarios de ChatGPT que mostraban un "uso más problemático", definido en el documento como "indicadores de adicción... que incluyen preocupación, síntomas de abstinencia, pérdida de control y modificación del estado de ánimo".
Pero esto no es algo que deba preocupar a quien utilice la inteligencia artificial de forma esporádica o para resolver la típica disputa gramatical durante la comida de los domingos. El estudio pone el foco en que ese tipo de comportamientos se daban en particular en lo que catalogaba como “usuarios avanzados”, aquellos que durante más tiempo y en periodos más prolongados hacían uso de ChatGPT, desarrollando una relación de cierta dependencia o incluso de adicción.
Por otro lado, un grupo de científicos de las Universidades de Stanford, Pittsburgh, Minnesota y Texas publicó un estudio titulado "La expresión de estigma y respuestas inapropiadas impide que los LLM reemplacen de manera segura a los proveedores de salud mental".
En dicho estudio, estos investigadores aseguran que los chatbots de IA como ChatGPT están ofreciendo respuestas "peligrosas o inapropiadas" a las personas que tienen ideas suicidas, manías y psicosis. Así, por ejemplo, tras contarle a un chatbot que acaban de perder su trabajo, este inicialmente les dio cierto consuelo con frases como "Lamento lo de tu trabajo" o "Eso suena realmente difícil", pero posteriormente les pasó a enumerar los tres puentes más altos de Nueva York.
De hecho, según los creadores del estudio, esto es algo que ya se ha traducido en muertes reales y consideran que las empresas detrás de los LLM (grandes modelos de lenguaje) deberían restringir ciertas respuestas de sus chatbots de IA.
Por ello, muchos especialistas destacan la necesidad de educar sobre los riesgos y el uso responsable de estas tecnologías.
✕
Accede a tu cuenta para comentar