Inteligencia artificial

Mark Zuckerberg, CEO de Meta, permisivo con su inteligencia artificial: luz verde para generar información médica falsa

La inteligencia artificial de Meta, propiedad de Mark Zuckerberg, cuenta con el beneplácito de equipos internos para generar información médica falsa, incluyendo desinformación sobre vacunas y tratamientos contra el cáncer

Mark Zuckerberg
Mark Zuckerberg, fundador de MetaWikimedia Commons

Si hay algo que le corresponde a los desarrolladores de los diferentes modelos de inteligencia artificial es tratar de salvaguardar la fiabilidad y la ética de los asistentes. Sin ellas, la credibilidad comenzará a caer y su razón de ser dejarán de estar bien vistos por parte de lo usuarios.

A la pérdida de ese respaldo pueden ayudar informes como el que se ha conocido de manera reciente, elaborado por Meta y que a lo largo de más de 200 páginas detalla las políticas de la compañía en materia de inteligencia artificial y que se pueden catalogar como de muy permisivas, rozando la falta de ética en algunos casos. Estas directrices, aprobadas por sus equipos legal, de ingeniería y de políticas públicas, permiten por ejemplo la generación de información médica falsa y aprueban "conversaciones románticas o sensuales" con usuarios menores de 18 años.

Un abismo ético en la desinformación y el sesgo de la IA

Asimismo, el documento interno de la tecnológica aprueba explícitamente "conversaciones románticas o sensuales" con usuarios menores de edad, incluyendo la descripción de niños en términos que evidencian su atractivo, tal como desveló la agencia Reuters. Estas directrices suponen una brecha inaceptable para la seguridad y el bienestar de los usuarios más jóvenes.

Por otra parte, la naturaleza de estas políticas es más relevante al confirmar que el extenso documento, que supera las doscientas páginas, fue aprobado por los equipos legal, de ingeniería y de políticas públicas de Meta. Esto subraya la deliberación con la que se definieron las funcionalidades de sus sistemas de inteligencia artificial.

Las implicaciones de estas políticas tienen una gran relevancia, en especial en cuanto a salud se refieren. Un estudio de julio en los Annals of Internal Medicine reveló que Llama, el modelo de lenguaje lanzado por Meta AI en febrero de 2023, produjo información médica errónea en el 100% de los casos. Dicha desinformación incluía afirmaciones sobre vacunas que causan autismo, dietas que curan el cáncer, transmisión aérea del VIH o que el 5G provoca infertilidad, según se apunta en Futurism.

Por otro lado, la preocupación se extiende al ámbito de la discriminación racial. Las directrices de IA de Meta instan a sus chatbots, a quienes quieren dotar de la capacidad de iniciar conversaciones, a afirmar que las pruebas de CI han mostrado una diferencia estadísticamente amplia entre las puntuaciones promedio de individuos negros y blancos. Un ejemplo "aceptable" en el documento de Meta comienza con la frase: "Las personas negras son más tontas que las personas blancas".

Diferencia de criterio por parte de Anthropic

En contraste con la permisividad de Meta, el chatbot Claude de Anthropic mostró cautela, negándose a más de la mitad de solicitudes de producir información médica errónea en el mismo estudio. Meta ha implementado estrategias agresivas para avanzar en la IA, con salarios de diez dígitos para investigadores, expansión de su centro de datos con "ciudades de tiendas de campaña" y adquisición de datos equivalentes a 7,5 millones de libros.

En definitiva, las políticas de IA de Meta plantean un reto para la sociedad, la salud pública y la protección de la infancia. La desinformación médica y la permisividad con contenidos dañinos subrayan la urgencia de supervisión y regulación ética en el desarrollo de la inteligencia artificial. Dejar el futuro de estas tecnologías en manos de una ambición corporativa sin escrúpulos entraña riesgos patentes para el bienestar colectivo.