Sam Altman ChatGPT
Sam Altman, CEO de OpenAI, contrario a usar la inteligencia artificial de esta manera: "Supone decenas de millones de dólares"
Los chatbot están adquiriendo un espacio en la rutina de los usuarios que invita a tratarles con la cortesía con que se entabla conversación con cualquier persona física
Los modelos de inteligencia artificial cada vez tienen más presencia en nuestra vida diaria. Es esa rutina la que hace que haya usuarios que se dirijan a ellos con la misma corrección con la que interactúan con otros seres humanos tal como mandan los cánones de la educación, aunque estén ante una pantalla y un ente virtual.
La cotidianeidad simula una relación estrecha en la que fruto de la interacción el interlocutor humano puede tener respuestas tan automatizadas como las propias de un chatbot, pero las coletillas orgánicas no suponen un coste más allá de la cortesía.
El coste del “por favor” y el “gracias”
Todo lo contrario pasa con aquellas respuestas que requieren una nueva interacción de la inteligencia artificial, ya que se traducen en un sobrecoste a nivel económico para el modelo en cuestión. En esa línea se pronunció precisamente Sam Altman, CEO de OpenAI, al ser interpelado en la red social X por un usuario que se preguntaba por el impacto económico de la amabilidad en las conversaciones con ChatGPT ahora que tiene capacidad de recordar cada interacción.
“¿Cuánto dinero perdió OpenAI en costos de electricidad porque la gente decía 'por favor' y 'gracias' a sus modelos?", se preguntaba el usuario en cuestión. Altman no dudó en contestarle señalando, no sin falta de ironía, que eran millones de dólares: “Decenas de millones de dólares bien gastados: nunca se sabe”, apuntaba el director ejecutivo de OpenAI.
Para Altman cada herramienta que se ofrece al entrenamiento de la inteligencia artificial es un plus que avanza en un camino que en su opinión derivará en una IA que supere en un corto plazo de tiempo a la capacidad intelectual humana, incluyendo a su propio hijo.
Lo cierto es que esas fórmulas de corrección conversacional no son una práctica generalizada, pero a tenor de la respuesta de Sam Altman se producen con mayor frecuencia de la que a priori cabría esperar y tienen un impacto en el volumen de gestión del chatbot y por ende en su gasto. Ahora bien, hay expertos que señalan que, del mismo modo, mostrar esa educación con una herramienta que aprende de las interacciones puede tener repercusiones positivas.
En esa línea se han posicionado por ejemplo el director de diseño de Microsoft, Kurtis Beavers, quien reconoce que la educación del interlocutor humano puede generar una IA más cordial con el ser humano: “Ayuda a generar resultados respetuosos y colaborativos. Usar un lenguaje cortés define el tono de la respuesta”, indicó sobre este supuesto.
Queda por ver si la relación del “nunca se sabe” de Sam Altman iba en la línea de lo apuntado por Kurtis Beavers y el papel que puede suponer en el desarrollo de modelos de lenguaje empáticos o si tan solo era una manera de quitar hierro a un momento de reconocimiento de un desembolso económico no presupuestado en el avance de la inteligencia artificial, pero que puede dar como resultado una inteligencia artificial más cortés y elegante.