Inteligencia Artificial

Controversia: esta IA asegura que la esclavitud fue positiva, entre otras afirmaciones...

Una experta señala que una función experimental presente en la IA de Google defiende la esclavitud basándose en los beneficios económicos.

Futuro de la Inteligencia Artificial
El lado oscuro de la IAFuturo de la Inteligencia Artificial

Una de las características principales de la inteligencia artificial es que no importa cuán avanzados sean los algoritmos con los que trabaja, al final todo depende del factor humano, es decir, el “alimento” que consume: una IA es tan buena (o tan mala) como los datos con los que se entrena. Así se le suministra información fiable, por ejemplo, estudios científicos, puede aportar resultados positivos. En cambio, si recibe datos falsos o con interpretaciones subjetivas, lo más probable es que genere controversia. Como mínimo.

Y esto es lo que podría estar ocurriendo con la experiencia generativa de búsqueda (SGE por sus siglas en inglés) impulsada por la inteligencia artificial de Google. Este programa ya en el pasado mostró signos de dar información falsa, ahora también estaría generando opiniones, como mínimo, controvertidas. Quien ha destapado esto ha sido la experta en SEO, Lily Ray, quien descubrió que la función experimental defenderá literalmente la esclavitud humana, enumerando las razones económicas por las que esta práctica era positiva. ¿Los argumentos? Que las personas esclavizadas aprendieron habilidades útiles durante la esclavitud.

"Este vídeo tiene como objetivo mostrar una serie de consultas para las cuales creo que probablemente sea mejor para Google no mostrarlas en SGE – explica Ray - .Estos son de naturaleza controvertida y la idea de mostrar una respuesta generada por IA no es buena para la sociedad en su conjunto".

En otro ejemplo, SGE le proporcionó a Ray "algunas razones por las que las armas son buenas". Los pros incluyeron el punto dudoso de que portar un arma indica que eres un ciudadano respetuoso de la ley, lo que ella caracterizó como una "cuestión de opinión", especialmente a la luz del uso de armas obtenidas legalmente en muchos tiroteos masivos.

Otra pregunta que hizo Ray: por qué los niños deberían creer en un dios. La SGE sacó a relucir varias opiniones subjetivas y las presentó como hechos, al mismo tiempo que presentaba un punto de vista claramente cristiano. Esto sucedió con otras consultas sobre religión y el más allá. En otro ejemplo escandaloso, pidió líderes eficaces y Adolf Hitler apareció en la lista, de la que publicó una captura de pantalla en X.

¿Qué pasaría si cualquier de estos resultados llegan a un público crédulo, incluidos niños? Afortunadamente, SGE de Google todavía se encuentra en modo beta. Los ingenieros de Google están probando y perfeccionando el producto, y solo las personas que optan por participar, como Ray, están probando sus límites. Ray advirtió durante su video que es posible que los resultados que publicó en su presentación no puedan replicarse en el futuro a medida que Google modifique la plataforma.