Inteligencia artificial

Empleados de Google desaconsejaron el lanzamiento de la IA Bard: “Es peor que inútil”

La compañía lanzó el chatbot dejando de lado el criterio del equipo encargado de la ética en la inteligencia artificial, según Bloomberg

Google no ha enseñado casi nada de su IA Bard, pero ya la hemos visto meter la pata.
Google no ha enseñado casi nada de su IA Bard, pero ya la hemos visto meter la pata.Google.

Sundai Pichai, CEO de Google, ha advertido de los riesgos de la IA en diversas ocasiones, al igual que otras personalidades del mundo de la tecnología. Y ha justificado en ellos el ritmo con el que la compañía está llevando la inteligencia artificial a productos finales para los móviles y ordenadores de los usuarios, por detrás del de otras compañías como Microsoft. Pero según una información publicada por Bloomberg, la situación de puertas adentro en la empresa es muy diferente.

El medio se basa en comunicaciones internas de la compañía y en el testimonio de 18 personas, trabajadores y ex trabajadores de Google, para señalar que tras el lanzamiento de ChatGPT el pasado noviembre, su enfoque ha cambiado y se ha priorizado el lanzamiento de productos frente a las advertencias del equipo encargado de ética para la IA y de las opiniones de otros empleados.

Antes de que la IA generativa Bard fuera puesta a disposición de los usuarios inscritos en una lista de espera en Estados Unidos en febrero, Google pidió a sus trabajadores que probaran la herramienta y algunas de sus opiniones no pudieron ser más desalentadoras.

Un empleado llamó al chatbot con el que Google quiere competir con ChatGPT “mentiroso patológico”. En otros casos dijeron que “daba grima”, que cuando le pidieron consejos para aterrizar un avión los que proporcionaba conducían a estrellarlo o, sobre submarinismo, que “probablemente llevarían a resultar herido o la muerte”.

En un grupo de mensajes interno de la compañía, otro empleado señaló que “Bard es peor que inútil: no lo lancéis, por favor”. Esta nota fue vista por más 7.000 personas, muchas de las cuales estaban de acuerdo en que las respuestas que daba Bard eran contradictorias o erróneas.

Sin embargo, Google apartó estas consideraciones, así como las del equipo de ética para la inteligencia artificial, urgida por el éxito de ChatGPT y la rapidez con la que Microsoft está llevando la IA a productos para el consumidor final desde febrero de este año.

La carrera por llevar la IA al consumidor final

Hasta el pasado mes de diciembre, Google se había mostrado precavida con el desarrollo de la inteligencia artificial a pesar de ser una de las compañías punteras en este campo y que en la última década ha proporcionado avances en la investigación de este campo que luego han utilizado otras empresas. Esto cambió tras comprobar que el éxito de ChatGPT, convertida en la aplicación de consumo con el crecimiento más rápido de la historia, representaba una amenaza a la posición dominante que su Buscador mantiene desde hace casi 15 años.

En ese momento decidieron pisar el acelerador. Para llevar la IA a sus productos más importantes en cuestión de meses se decidió que se denominarían “experimentos”, con la idea de que sus errores resultaran más admisibles por los usuarios.

Poco antes del lanzamiento de Bard, el jefe de Gobernanza IA Jen Gennai mantuvo una reunión con el grupo de innovación responsable de mantener los principios éticos para la IA de la compañía. Gennai señaló que debía adoptar algunos compromisos para llevar la tecnología a productos finales y no quedarse atrás. Google asigna puntuaciones a sus productos en diferentes aspectos antes de lanzarlos. En algunos casos debe ser del 100% para considerar que están listos, pero en otros bajarían el listón. Por ejemplo, en seguridad para los niños debía ser la máxima pero en otros aspectos a valorar como la equidad podía bajarse al 80%.

Cuando Gennai recibió un informe de evaluación de riesgos en el que se afirmaba que Bard no estaba listo y que sus respuestas podían causar daño, lo escaló a otro departamento que concluyó que era apropiado continuar con “un lanzamiento experimental limitado con entrenamiento previo continuo, salvaguardas mejoradas y exenciones de responsabilidad apropiadas”.

Al grupo encargado de la ética para la IA se le indicó que no se interpusieran ni trataran de detener el desarrollo de ninguna de las inteligencias artificiales generativas en desarrollo, según los testimonios recogidos por Bloomberg.

Preguntada por el medio, Google ha señalado que la “inteligencia artificial responsable” continúa siendo una de las principales prioridades de la compañía.