Entrevista
«En la IA, como en la vida, uno no debe renunciar a sus valores»
Con una formación técnica, pero involucrado en temas de sostenibilidad, Kareem Yusuf, vicepresidente senior de gestión de producto de IBM Software visitó España para hablar de Inteligencia Artificial generaitiva y casos de uso en empresas, con enfoque sostenibile y ético. Conversa con La Razón sobre este y otros temas.
¿Cómo está transformando la IA generativa el negocio de IBM?
Déjame darle la vuelta a la pregunta pues lo pienso en términos de cómo está transformando el negocio de nuestros clientes. En primer lugar, diría que se centra en un par de casos de uso clave. Estamos viendo mucho enfoque en aprovechar la IA en el servicio al cliente. Se trata de cómo los clientes interactúan con los chatbots mucho más avanzados, informados, con diálogo natural. Estamos viendo muchos cambios en cómo se está desarrollando el software en sí. La productividad del desarrollador, la generación de código, la transformación de código. Eso también es importante, como los clientes piensan gestionar y modernizar las aplicaciones existentes que han tenido durante años. Estamos viendo mucha ayuda allí y mucha atención en lo que yo llamaría trabajo digital,
sobre la automatización inteligente. Piensa en los procesos de RR. HH., o de TI, ese tipo de operaciones utilizadas en la IA para ayudar a transformarlas. Así que esos parecen ser los tres casos de uso principales que están en el centro de la conversación. Y, obviamente, desde la perspectiva de IBM, esos casos de uso también están impactando la forma en que operamos como negocio, ya sea en nuestros sistemas de RR. HH., en la forma en que construimos código y producto, o incluso en la forma en que los clientes interactúan con nosotros.
¿Por qué la empresa debería usar su inteligencia artificial en lugar de otras alternativas que existen en el mercado?
Creo, siempre he creído, que en general, las empresas tienden a usar más de una herramienta porque hay diversidad de pensamiento y de enfoque. Nuestro enfoque está en los negocios. Nos centramos en cómo la IA generativa puede integrarse en el funcionamiento interno de las empresas. Eso significa que tienes que tener ciertas filosofías sobre cuán confiable es tu IA, porque si estás integrando cosas de manera profunda en tus sistemas, necesitas saber que no los estás contaminando con ningún dato que no debería estar ahí. Debes conocer las prácticas en torno a la gestión de tus propios datos, así como los datos de nuestros clientes y cómo los preservamos. Hacemos las cosas de una manera muy flexible, porque cuando se está haciendo negocios, hay que reconocer eso: algunas aplicaciones se ejecutarán en la nube, otras todavía necesitan ejecutarse en lo que yo llamaría centros de datos de propiedad local… Necesitas cruzar varios procesos comerciales. Y muchos de nuestros clientes tienen varias cuentas en la nube. Así que adoptamos un enfoque que lo permite.
Otra cosa que consideramos muy importante es que somos muy abiertos en nuestro enfoque a la innovación. Me centraría en dos elementos importantes relacionados con eso. Cuando pienso en ser abierto, pienso en cómo colaboramos tanto con el ecosistema de socios con nuestros clientes como también en código abierto en general. Por eso hemos abierto nuestros modelos para fomentar ese tipo de innovación y colaboración grupal. También hemos desarrollado técnicas clave, algo que llamamos instruct lab, para permitir ese tipo de colaboración abierta en torno a los modelos y para permitir que un solo modelo sea evolucionado por múltiples colaboradores. Eso es muy importante para que nuestros clientes obtengan modelos enfocados muy ventajosos y vinculados a casos de uso específicos.
Habla de la nube y de código abierto. En cuanto a la nube, en cuanto a los datos, ¿ve usted algunos desafíos, especialmente en las empresas europeas (y por tanto, españolas), relacionados con la nube, la soberanía de los datos? ¿Cómo se enfrenta a este desafío?
La soberanía del movimiento de datos, la soberanía de los datos, la protección de los datos, particularmente los datos personalizados, es extremadamente importante. Hay muchas regulaciones, como usted señala, en Europa, en España, que rigen ese tipo de actividades. Esto vuelve a mi punto de que construimos para los negocios. Cuando reconoces ese tipo de hechos, entonces eso significa que tienes que habilitar la implementación local. Tienes que apoyar el trabajo localizado, construir técnicas que permitan segmentar los datos fácilmente para que podamos permitir a nuestros clientes aplicar ciertos datos a un modelo pero que lo protegen como sus propios datos, garantizando que no se ponen a disposición del público. Todas estas reflexiones profundas, cómo se gobierna, cómo se rastrea qué datos se han utilizado y dónde, son parte de nuestra propuesta de valor. Y creo que cuando piensas en desbloquear el siguiente conjunto de valores con la IA generativa, realmente comprender el problema de los datos y poder gestionarlo es clave. Esto es particularmente importante, una vez más, para los negocios. En el ámbito del consumidor, donde la gente está haciendo búsquedas generales en internet y cosas así, es un juego completamente diferente. Y ahí es donde ves muchas de lo que yo llamaría conversaciones cotidianas. Pero cuando intentas habilitar un negocio, un banco, para que atienda mejor a sus clientes, por ejemplo, con IA generativa, esos factores se vuelven críticamente importantes.
El año pasado IBM abrió su zona cloud en España. Sé que no es su principal enfoque o responsabilidad, pero me gustaría tener un balance sobre cómo se está desarrollando, cómo va, si la IA de IBM está en esta región cloud
Sí, el Madrid MZR nos proporciona esa opción para desplegarlo localmente. También respetamos y entendemos que hay otras nubes. Algunos de nuestros clientes están en AWS, algunos están en Azure, y como proveedor de software y particularmente software como servicio, siempre estoy analizando la estrategia de lo que significa brindar servicios locales en las nubes correctas, dependiendo del tipo de producto. Así que adoptamos un enfoque de nube híbrida y multinube, pero tener esa presencia local con la nube de IBM es fundamental para nuestra estrategia, porque cuando se piensa en los desafíos de ejecutar cargas de trabajo de IA generativa, todas las GPU y todo eso, puedo confiar en mi equipo de nube de IBM para que me ayude a asegurar la infraestructura que necesito para implementar estos servicios localmente.
Estoy muy satisfecho con lo que se ha hecho. Si piensas en nuestra huella europea para IBM Cloud, tenemos Madrid, tenemos Frankfurt y tenemos Londres. Eso me da tres centros regionales clave para abordar realmente toda Europa. Es realmente crítico tener todos y por eso es importante para nosotros.
¿Está planeando extender o ampliarla?
Cuando tienes ese tipo de centros regionales, realmente puedes hacer mucho desde ellos y luego te expandirás según sea necesario. Pero tener ese tipo de centro principal, como estar en Madrid, nos da mucho alcance a medida que avanzas en esa dirección del continente, desde Madrid hacia afuera, te ocupas de Portugal, todo ese lado de las cosas. Nos expandiremos según sea necesario, pero estamos muy contentos de tener ese tipo de ubicaciones clave.
Volviendo a la IA, también habla sobre el modelo de código abierto. Hay una especie de controversia en el mercado porque mucha gente piensa que hay dos, tres, cuatro proveedores principales que están ganando atracción de los modelos de IA y temen que quizás el resto del mundo, el resto de los desarrolladores, se pierda en esta huida de la competencia de la IA. ¿Cuál es tu punto de vista sobre este tipo de problema?
Esta es la razón por la que creo que el código abierto es importante, porque si te detienes un minuto y miras casi cualquiera de los que yo llamaría modelos populares y si observas lo que ha estado sucediendo en código abierto, toma, por ejemplo, la actividad en Hug and Face. A menudo verás que por cada innovación que ves repentinamente en uno de los grandes modelos, encontrarás en un mes o dos a personas que han experimentado con ella y han llegado a cosas equivalentes o interesantes en código abierto. Las personas importantes que realmente intentan impulsar la innovación en términos de IA han abrazado el código abierto como un vehículo particular. Te di el ejemplo de IBM con nuestros modelos de granito. Pero piensa en Mistral fuera de Francia como ejemplo. Tienen código abierto. Piensa en Meta, ¿verdad? También tienen código abierto. Y esas están formando grandes bases para que la gente colabore y construya sobre ellas. También nos asociamos estrechamente con Mistral y Meta, porque todos pensamos en términos de estar enfocados en impulsar la innovación, captar a la comunidad de código abierto es importante.
Lo que ha faltado es que antes de la llegada de lo que llamamos InstructLab, no había forma de reunir toda esa colaboración en un solo modelo. Así que tenías lo que en nuestros términos llamaríamos, bifurcación de modelos o, pensándolo bien, múltiples copias. Entonces, si hiciste algún trabajo en Lama, sería tu copia. Pero no hay forma de reunir nuestro trabajo en un solo Lama. La técnica, metodología e infraestructura del Instruct Lab, que hemos abierto como parte de lo que hemos hecho, permite que esto se haga para que podamos contribuir ambos al mismo modelo, en nuestro caso, un modelo de granito, y evolucionarlo de esa manera. Y eso, creemos, ayudará a desbloquear la innovación a través de la comunidad de eficiencia.
¿Tiene miedo de que, quizás en el futuro, la legislación podría desmantelar estos modelos?
No estoy preocupado por eso. Cuando pensamos en la regulación, siempre hemos sentido que debería estar mucho más asociado con el caso de uso. Se regulas el caso de uso, no la tecnología en sí. Creo firmemente que la gente debería saber si está interactuando con un asistente de IA. Creo firmemente que la protección de los datos de las personas es extremadamente crítica. Cuando miras la regulación y miras los riesgos y el seguimiento de todo eso, lo veo ir más en esa dirección. La idea de sofocar la innovación y crear ese tipo de barreras nunca es realmente una buena idea. En tecnología, generalmente encuentras que la innovación siempre encuentra una manera de salir.
Hablando de innovación en relación con la IA, algunas personas dicen que es imposible hablar de innovación con un sistema que replica lo que hemos hecho en el pasado. ¿Está de acuerdo con este tipo de declaración?
No. Siempre he pensado que algunas personas asocian la palabra innovación con una idea completamente nueva, nunca antes pensada. En realidad, no veo innovación en ese sentido. Siempre he considerado la innovación como encontrar formas nuevas e interesantes de hacer cosas. A veces son cosas que ya haces, y a veces son cosas que nunca has hecho antes.
Te daré dos ejemplos. Piensa en el vehículo eléctrico. Teníamos el motor de combustión y los coches. Y luego nos metimos en los vehículos eléctricos. Ahora, cuando piensas en innovación, todavía parece un coche. Pero realmente tiene innovación, en el contexto de la tecnología de baterías, pero incluso en el software y, en tercer lugar, en la forma en que vives. Operar con un coche así ha comenzado a transformar de muchas maneras diferentes cómo incluso operamos en ese ámbito. Es tomar un objeto muy familiar y de repente crear modelos de negocio innovadores, con diferentes formas de incluso vivir y participar culturalmente alrededor de las cosas. Es un ejemplo no relacionado con la IA de cómo, en mi opinión, la innovación puede tocar lo viejo y lo nuevo.
En nuestro mundo, una de las cosas en las que nos centramos cuando pienso en la innovación con IA, es pensar en el problema de gestionar el patrimonio de aplicaciones dentro de una empresa. El banco típico tiene miles de aplicaciones y las han estado administrando durante años. Pero puedes dar un paso atrás y con la IA decir, ¿cómo podría reimaginar eso? Porque, ¿qué hace realmente la IA? Nos ayuda a reunir muchos datos diferentes y sintetizar nuestras tendencias e ideas, y automatizar acciones contra ellas. Y eso es lo que inspiró uno de los productos que anunciamos recientemente, del que hablaré mañana, IBM Concert, que se centra en ayudar a nuestros clientes a aprovechar la IA generativa para comprender mejor lo que está sucediendo. Esa es una nueva innovación aplicada a un viejo problema clásico que todos sabemos que es desafiante.
Tiene experiencia técnica, pero ahora está involucrado en proyectos de sostenibilidad. Hay muchos desarrolladores que están preocupados por cómo desarrollar código nuevo de una manera más sostenible. ¿Cuál sería su consejo?
Cuando solo pienso en el problema general de la sostenibilidad, mi enfoque siempre ha sido “¿Cómo podemos ayudar a nuestros clientes a optimizar sus operaciones para reducir sus costes de energía y desperdicio?” Cuando piensas en operacionalizar la sostenibilidad, se reduce a lo que la gente hace todos los días y cómo eso impacta el coste de la energía y el desperdicio. Hemos hecho muchas inversiones desde una perspectiva tecnológica para ayudar a apoyar eso porque tiene mucho que ver con el problema de los datos. ¿Entiendo lo que estoy emitiendo? ¿Entiendo a dónde va? ¿Puedo rastrearlo? ¿Puedo correlacionarlo? ¿Puedo analizarlo? Ahora, IA trajo un elemento interesante, particularmente los modelos generativos, porque piensas en el consumo de energía asociado con el entrenamiento de esos modelos. Ese ha sido un gran elemento de donde todos comenzaron. ¿Qué tan sostenible es el desarrollo de modelos lingüísticos de gran tamaño? Bueno, si rastreas eso hacia atrás, ¿cómo se está generando la energía? Así que eso te lleva de vuelta a “¿eso ayuda a impulsar un mayor consumo de energía renovable?”. La gente empieza a prestar atención a eso. También encuentras, y estamos investigando mucho sobre esto, en lugar de modelos grandes y enormes, modelos más pequeños que están más enfocados en el dominio, que son más lo que yo llamaría rentables y energéticamente eficientes. Hay mucho enfoque en eso y lo hemos estado impulsando también. Y luego entras en el “¿Puedes entonces, al hacer que las personas sean más eficientes y efectivas en sus operaciones, realmente reducir el impacto general de lo que tienen que hacer?”. Eso se convierte en algo que no es solo tu ángulo de productividad al aprovechar la IA, sino también una especie de sentido de cómo mejoramos el trabajo. Piensa en la generación de código, por ejemplo, y la cantidad de tiempo que se está invirtiendo. Los desarrolladores o escriben código o ahora reciben asistencia para hacerlo. Y eso ayuda a hacer las operaciones más eficientes. También puedes empezar a aplicar la IA para lograr una mayor sostenibilidad simplemente aprovechando el tipo de información y análisis que puede hacer para afectar lo que estás haciendo operativamente también.
Relacionado con sostenibilidad y no solo la eficiencia energética, Meta estuvo involucrada en una controversia porque se supone que utilizó a desarrolladores nigerianos en condiciones laborales mejorables. ¿Cree que, especialmente las empresas, deben ser conscientes y respetuosas con el tipo de IA que están utilizando en sus negocios?
Si pienso en ese ejemplo específico que estás planteando, eso simplemente vuelve a lo que yo llamaría prácticas comerciales éticas y buenas. Creo que todas las empresas deberían pensar en cómo operan y operar de manera ética y, con suerte, de maneras que coincidan con los valores que profesan y los valores que la sociedad en general esperaría. Dicho esto, sí creo que cuando das un paso adelante y piensas en la ética de la IA en sí, creo que es muy importante que cualquiera, ya sea un proveedor de tecnología de IA o un consumidor que la utiliza, dé un paso atrás y comprenda completamente ¿Cuál es su ética en torno al uso de la IA? Te daré uno de mis ejemplos favoritos. Estoy creando un asistente de IA para que una persona trabaje con él. Es importante para mí que sepa que está trabajando con un asistente de IA, y que sea muy claro. Entramoss en el tema de cuál es tu creencia sobre los derechos de los datos, como ejemplo, y qué datos puedes o no usar para entrenar tus modelos, o deberías. Quiero decir, estas cuestiones se convierten en parte de la ética. Tienes lugares que la gente puede elegir no visitar. Nosotros en IBM lo dejamos muy claro: no estamos involucrados en el reconocimiento facial, por ejemplo. Así que sí creo que la ética siempre es importante. Creo que todos, y cuando hablo con clientes que se embarcan en proyectos, incluso en estos casos de uso les digo: si no has dado un paso atrás para pensar en la ética de la IA dentro de tu empresa, no es ético.
Incluso cuando otros países están desarrollando modelos de IA sin ninguna ética… Mucha gente dice la legislación va en contra de la innovación, etc.
Mi punto de vista es este, ya sea que hagas de esto una discusión sobre IA o cualquier otro tema, en la vida, tienes tus valores. Y sí, la persona de allá puede que no comparta esos valores o tome atajos que no son consistente con los propios valores, ¿significa eso que uno debe renunciar a lo que hace? No creo que eso sea correcto. Nunca debería ser correcto. Así que creo que siempre es importante que todos evalúen, y especialmente en este mundo de tecnología en constante movimiento, cuál es tu sistema de valores. Como dije, con la regulación, hecha correctamente y pensada de manera adecuada, siempre puede ser un facilitador. No tiene que ser un inhibidor de la innovación, en mi opinión.
Hace casi 30 años desde que Deep Blue venció a Garry Kasparov en una partida de ajedrez. ¿Cómo la inteligencia artificial ha evolucionado durante este período?
Si miras la evolución de la IA y retrocedes en el tiempo, durante mucho tiempo, la IA se centró en lo que yo llamaría sistemas basados en reglas. Los llamamos sistemas expertos. Podías definir las reglas que podrían usarse para ayudar a la inferencia. Si piensas en una partida de ajedrez, por cierto, está muy basada en reglas, así que encaja bien. Pero el siguiente desbloqueo fue cuando empezamos a adentrarnos en el ámbito del aprendizaje automático y la idea de etiquetar datos y entrenar redes neuronales para derivar patrones de esos datos. Cuando das un paso adelante desde ahí y piensas en la era en la que estamos, ¿qué cambió? El aprendizaje automático es muy laborioso: etiquetado de datos, obtener esos datos y etiquetarlos es extremadamente intensivo en datos. Lo que permitieron las técnicas de los modelos de base, los llamados algoritmos de transformador y demás, fue decir que se puede etiquetar menos. pero, a la inversa, tienes que tener mucha más información. Y eso es por qué nos encontramos con los modelos lingüísticos grandes que están surgiendo. En el lenguaje hay mucha información (artículos, esto, aquello…) Y eso impulsó ese paso. Desde entonces se ha movido del lenguaje a las imágenes visuales, a como ahora estamos entrando en datos geoespaciales, datos de series de tiempo. Y así, piensas en la evolución desde el tipo original de reglas basadas en el aprendizaje automático hasta ahora, el aprendizaje automático, lo llamo, con esteroides con toda la noción de nuevas técnicas. Es bastante fascinante como tecnólogo solo observar cómo ha avanzado. Pero en todos los casos, se ha tratado de abrir las capacidades de los sistemas para buscar patrones y permitirnos aprovecharlos en casos de uso clave.
✕
Accede a tu cuenta para comentar