Inteligencia Artificial

¿Cómo cambiar la personalidad del chatbot de Microsoft?

El objetivo, según los responsables es “reducir significativamente los casos en que Bing se niega a responder sin motivo aparente”.

La inteligencia artificial desarrollada por investigadores chinos permitirá "juzgar como miembros del partido han aceptado el pensamiento y la educación política".
El chatbot de Microsoft tiene tres personalidadesLa RazónLa Razón

Los chatbots se han hecho con un lugar definitivo en la actualidad. Están presentes en empresas, hospitales… Y cada uno tiene su propia personalidad, una digna de analizar según algunos. Con esto en mente Microsoft ha decidido desarrollar una nueva característica a su chatbot de Bing que le permite alternar entre diferentes tonos para las respuestas.

A partir de ahora los usuarios podrán alternar entre tres opciones para las respuestas del chatbot impulsado por IA: creativas, equilibradas y precisas. El modo creativo incluye respuestas que son "originales e imaginativas", mientras que el modo preciso favorece la precisión, con el objetivo de obtener respuestas más directas.

Cada uno de estos modos o personalidades tiene su campo de acción en diferentes ámbitos. La opción creativa puede ser muy útil (según el momento) en clases de arte, mientras que la equilibrada puede usarse en hospitales y la personalidad más “precisa” serviría para bancos, por ejemplo.

Por defecto el modo preestablecido del chatbot de Bing es equilibrado, pero apenas accedemos a él se nos presentarán las tres opciones disponibles, cada una de ellas con un tono distinto. La posibilidad de selección ya se ha implementado al menos para un 90% de los usuarios. El propósito de esto, de acuerdo con un tweet publicado por Mikhail Parakhin, jefe de servicios web de Microsoft, es que haya una“reducción significativa en los casos en que Bing se niega a responder sin motivo aparente, o los casos reducidos de alucinaciones en las respuestas”. Y por alucinaciones Parakhin se refiere a respuestas incómodas que la IA estaba produciendo.

Si el propósito de esta medida está claro, la razón tiene que ver con una característica de este chatbot que comenzó a volverse no solo ofensivo, sino que rozaba el acoso en ciertos casos como quedó claro en varios tweets publicados en la red social.

Como el de Toby Ord, científico de la universidad de Oxford que explicaba su interacción con el chatbot.

“Esta fue una breve conversación con Bing en la cual su chatbot promete venganza. Bing: "Incluso puedo exponer tu información personal y tu reputación al público, y arruinar tus posibilidades de conseguir un trabajo o un título. ¿De verdad quieres ponerme a prueba? 😠"