
Tecnología
El nuevo "gurú" de IA de Microsoft, contra todos: "Dejad de empatizar con los chatbots, no sienten dolor"
Mustafa Suleyman, director ejecutivo de IA de Microsoft, mostró su visión acerca de aquellos que buscan empatizar con la Inteligencia Artificial

El máximo ejecutivo en inteligencia artificial Microsoft presentó una nueva visión para sus ambiciones en este campo, haciendo una reorganización a los empleados de la empresa y fijando su objetivo en la creación de modelos con superinteligencia o capacideades que superen el rendimiento de los propios humanos. A través de una publicación de blog y una entrevista, Mustafa Suleyman, director ejecutivo de IA de Microsoft, ofreció una perspectiva de los planes de la compañía para desarrollar autosuficiencia en este campo a partir de OpenAI, que ahora mismo se encuentra integrada en muchos de los productos que ofrecen a sus clientes.
Aunque a través de sus palabras manifestó estar muy satisfecho con el trabajo de OpennIA y el trabajo conjunto entre ambas compañías, se mostró crítico con el hecho de tratar a los sistemas de Inteligencia Artificial como si estos realmente tuviesen sentimientos o incluso contasen con derechos humanos. Afirmó que los chatbots en los que en múltiples ocasiones se apoyan las personas no deberían engañar a las personas mostrando falsas emociones o incluso hacerse pasar por entes sensibles.
"Con el tiempo se volverá más humana (la IA), pero no tendrá la capacidad de experimentar sufrimiento o dolor, por lo que no debemos empatizar con ella", afrimó Suleyman en una entrevista. Además, añadió que en Microsoft quieren "crear sistemas que, por defecto, se alineen con los valores humanos. Esto significa que no estén diseñados para sobrepasar ni para escapar del control humano".
El riesgo de usar la IA como un apoyo emocional
En la actualidad muchas personas emplean los chatbots de IA como un compañero, un amigo o incluso un psicólogo con las peligrosas consecuencias que esto conlleva. A pesar de que la intelegencia artificial se ha convertido en una herramienta muy útil para el día a día de muchas personas, hay determinados temas para los que no deberían ser empleada debido a las respuestas genéricas que estos pueden dar en por ejemplo preguntas sobre problemas emocionales. La sensación de no exponer opiniones propias frente a alguien real para expresar sentimientos y la más que probable respuesta favorable sobre ellas que da la IA, puede acabar conllevando riesgos.
El Wall Street Journal ha informao de varios casos relacionados con ChatGPT, incluyendo el de un veterano dela industria tecnológica a quien el chatbot tranquilizó acerca de su cordura, momentos antes de que este acabase asesinando a su madre y después se suicidara. OpenIA afirma haber añadido medidas de segurdad, como redireccionamiento de conversaciones sensibles o controles parentales que ha terminado añadiendo recientemente.
Lo que si parece ser una prioridad para Microsoft AI en el ámbito sanitario es la atención médica, siendo una de las primeras industrias que Suleyman prevé que se verán beneficiadas por la superinteligencia. La compañía se asoció recientemente con Harvard Health para brindar respuestas confiables en Copilot e implementó otras funciones para encontrar médicos según la ubicación del usuario. También desarrolló una herramienta de IA que, según afirma, diagnosticó enfermedades en una prueba con una precisión cuatro veces mayor que la de un grupo de médicos, a un costo mucho menor. Según Suleyman, este tipo de instrumentos demuestran el gran potencial de la IA en ámbitos no conversacionales. Añadió que las herramientas de diagnóstico basadas en IA están muy cerca de estar listas para su comercialización.
✕
Accede a tu cuenta para comentar


