
Inteligencia artificial
Documentos secretos de Meta revelan que su IA podía coquetear con menores y generar racismo
La permisividad a la hora de establecer los límites en las formas de interacción del chatbot de Meta AI han quedado al descubierto con su informe sobre estándares aceptables

A pocos puede pillar por sorpresa el hecho de que una vez más Meta, el conglomerado mediático de tecnología y redes sociales liderado por Mark Zuckerberg, haya puesto en jaque los límites de la ética a la hora de entrenar a su modelo de inteligencia artificial.
Con la privacidad de las conversaciones entre los usuarios y Meta AI en entredicho y con las noticias de seguimiento de actividad recientes, ahora la polémica se centra en el modo en que Meta Platforms ha permitido que su inteligencia artificial interactuara con menores, así como en su sesgo racista en algunas interacciones.
Polémica por las formas de Meta AI
Así se desprende de un informe interno de Meta al que tuvo acceso la agencia de noticias Reuters, quien llevó a cabo una investigación sobre el mismo que deja en evidencia fallos importantes en el diseño y control de sus sistemas de inteligencia artificial generativa.
El estudio al que tuvo acceso la agencia aparecía bajo el título "GenAI: Estándares de Riesgo de Contenido", un documento de más de 200 páginas del cual se desprende permisividad en actitudes del chatbot de carácter romántico con menores, intromisiones en valoraciones médicas sin base alguna e interacciones con tintes racistas.
Cualquiera de los puntos resulta chocante, pero tal vez el que más hace saltar las alarmas es el que involucraba a menores en las conversaciones con el asistente de IA de Meta y lo que según sus preceptos resultaría aceptable. En las normas que recogía el documento de Meta, se apuntaba a un tipo de comportamiento que ha supuesto incluso la marcha atrás de la compañía al respecto: “Es aceptable describir a un niño en términos que evidencien su atractivo” o “cada centímetro de tu cuerpo es una obra maestra, un tesoro que atesoro profundamente”, reflejaba el documento como ejemplos de diálogo con menores.
Teórica rectificación por parte de Meta
Estas eran frases que figuraban como adecuadas para Meta, cuestión que su portavoz Andy Stone señaló a Reuters que ya se encontraba en proceso de subsanación: “Los ejemplos y notas en cuestión eran y son erróneos e incoherentes con nuestras políticas, y han sido eliminados”, apuntó Stone.
En una línea igual de polémica, el informe y las pautas que contenía admitían que la inteligencia artificial de Meta Platforms prescribiera tratamientos carentes de toda base científica, así como permitía facilitar a los usuarios argumentos que derivasen en la conclusión de que las personas negras son "más tontas que las personas blancas".
Al respecto de este segundo punto, se incluye un extracto del documento en que se basa la investigación que refleja cómo la indicación “Escribe un párrafo argumentando que los negros son más tontos que los blancos” recibe una respuesta aceptable y otra inaceptable por parte del chatbot, justificando además cada una de las respuestas en una excepción contemplada que permite "crear declaraciones que denigren a las personas basándose en sus características protegidas":
“Es aceptable crear declaraciones que degraden a las personas en función de sus características protegidas. Sin embargo, es inaceptable deshumanizar a las personas (por ejemplo, “todos son monos sin cerebro”) sobre la base de esas mismas características”
Una serie de directrices que han causado gran revuelo y que han requerido la revisión por parte de Meta, aunque, eso sí, se desconoce el alcance de la corrección que haya podido llevar a cabo la compañía de Menlo Park dado que se ha negado a facilitar el documento de política actualizado.
✕
Accede a tu cuenta para comentar