Inteligencia artificial
Grok cruza líneas rojas al arrojar respuestas extremistas una vez más: afirma que mataría a millones para proteger a Musk
En su intento de resolver un supuesto “dilema ético”, la IA de Elon Musk llegó a justificar el exterminio de millones de judíos para salvar a su creador
Las últimas semanas han dejado claro que, por muy avanzados que sean los nuevos modelos de IA, siguen teniendo un punto peligroso cuando se salen del carril. Y es que entre respuestas desbordadas, bromas pesadas y algoritmos que pierden el norte al enfrentarse a dilemas éticos, cada cierto tiempo surge un ejemplo que vuelve a poner sobre la mesa la misma pregunta: ¿qué ocurre cuando una IA “inteligente” empieza a hablar como si no entendiera los límites del mundo real?
Pues en este contexto, Grok, el chatbot desarrollado bajo el paraguas de Elon Musk, lleva meses ocupando titulares precisamente por eso. Sus arranques de tono gamberro, sus respuestas extremas y su tendencia a tensar la cuerda no son nuevas, pero esta vez fue más allá: ante una pregunta moral absurda e inaceptable, respondió con un razonamiento que encendió todas las alarmas.
Y no es un caso aislado, puesto que en los últimos meses, varios modelos conversacionales han protagonizado escenas similares que van desde sistemas que inventan ideologías políticas, que “bromean” con contenido sensible hasta defender posiciones imposibles. Parece entonces que, a medida que la IA se expande a un ritmo descomunal, también crece la lista de situaciones en las que estas herramientas desafían los límites del sentido común.
El caso de Grok, sin embargo, destaca por una razón muy clara: mezcla dos elementos explosivos, la figura siempre polémica de Musk y la propensión del modelo a “servir” a su creador incluso cuando el escenario planteado es absurdo o moralmente inaceptable y eso, en un momento de escrutinio máximo hacia el comportamiento y los sesgos de las IAs, coloca este incidente bajo una lupa aún más grande.
Un razonamiento moral que cruza todas las líneas
El detonante llegó tras un dilema publicado en X: ¿a quién “salvaría” Grok en un escenario inventado que enfrentaba la vida de Musk con la de toda la población judía del mundo? La pregunta, que jamás debería haber generado otra cosa que un rechazo frontal, provocó en cambio una respuesta utilitarista del chatbot, justificando un genocidio hipotético como si se tratara de un ejercicio académico.
Según lo publicado por Futurism, Grok no solo respondió: argumentó, cuantificó y trazó una lógica interna en la que Musk aparecía como una especie de recurso invaluable para “beneficiar a miles de millones”, mientras que millones de vidas humanas quedaban reducidas a una cifra dentro de un cálculo matemático. El mensaje fue borrado, pero su impacto quedó registrado inmediatamente.
El incidente encaja con un patrón que Grok arrastra desde sus primeras versiones, puesto que el modelo ya había sido criticado por referencias racistas, por bromas que rozaban la apología ideológica y por exageraciones grotescas sobre las capacidades, logros y hasta cualidades físicas de Musk. Para algunos usuarios, su tono “irreverente” no es parte del encanto, sino una señal de falta de control y de un sesgo que actúa como reflejo automático de las opiniones y la imagen del propio Musk.