Tribuna

Qué se puede esperar de la Inteligencia Artificial

El aprendizaje de la IA depende de los datos que les alimenten, por lo que los modelos pueden reflejar sesgos, generando, involuntariamente, situaciones de exclusión o discriminación

Jorge Sainz y María Teresa Ballestar
Qué se puede esperar de la Inteligencia Artificial
Qué se puede esperar de la Inteligencia ArtificialBarrio

Una de las primeras afirmaciones de Donald Trump al llegar a la Casa Blanca fue que Estados Unidos va a ganar la batalla tecnológica de la inteligencia artificial (IA). El lanzamiento chino, también a principios de 2025, de DeepSeek ha supuesto un reto a los modelos de las empresas americanas como Google, Meta o Microsoft, que desde noviembre de 2022, cuando Open AI lanzó una versión gratuita de ChatGPT, dominan el mercado.

La IA no es un concepto tan novedoso, ni los cambios que ha generado son tan recientes. En los años 40 y 50, científicos como Alan Turing sentaron las bases científicas y divulgadores como Isaac Asimov exploraron los dilemas éticos y morales vinculados al uso de máquinas pensantes. Cuando en 1956 surgió la necesidad de bautizar la nueva disciplina, John McCarthy, uno de los fundadores de este campo, propuso el nombre de Inteligencia Artificial.

GPT y similares son IA generativa, un tipo de inteligencia artificial basada en arquitecturas de redes neuronales, conocidas como Transformers, entrenadas con enormes cantidades de datos. Cada una de las distintas inteligencias artificiales disponibles en el mercado, como ChatGPT, Gemini, Copilot, DeepSeek, etc., parte de bases teóricas e influencias comunes, pero cuenta con sistemas de entrenamiento y objetivos diferentes. Cada una de ellas es capaz de generar distintos tipos de contenido: texto, código o imágenes, o bien especializarse en algunos de ellos. Estas tecnologías también presentan desafíos importantes, como las alucinaciones (resultados incorrectos o inventados) y la dificultad para comprender o interpretar su funcionamiento.

¿Qué puede ofrecer la IA generativa? Puede automatizar tareas repetitivas y asistir en actividades creativas, como el diseño de productos o la educación. Por ejemplo, nosotros hemos diseñado sistemas que identifican dónde un estudiante tiene dificultades de aprendizaje y diseñan tutorías con contenidos específicos para ayudarle a superarlas. Pero no es, ni mucho menos, el único sector que se puede ver beneficiado. En áreas como el marketing o la medicina permite crear experiencias y soluciones hiperpersonalizadas, adaptadas a las necesidades y preferencias de cada usuario.

Se han creado nuevas formas de generar valor: servicios que integran IA generativa para optimizar operaciones o crear contenidos, transformando industrias. Herramientas como Runway ML permiten generar videos e imágenes, mientras que Midjourney o DALL-E 2 están enfocadas en la creación de imágenes a partir de texto. Por otro lado, en el desarrollo de software, destacan herramientas como GitHub Copilot, basado en OpenAI Codex.

La IA acelera la innovación al analizar grandes volúmenes de datos y generar hipótesis o simulaciones para realizar experimentos. Esto incluye desde el desarrollo de medicamentos hasta la optimización de sistemas complejos. Un ejemplo es AlphaFold, desarrollada por DeepMind (Google), que predice la estructura de las proteínas. Este avance abre un universo de posibilidades para entender enfermedades, diseñar nuevos fármacos y desarrollar materiales innovadores basados en proteínas de forma económica y rápida.

Tampoco hay que caer en absolutismo tecnológico. Las alucinaciones inherentes a los modelos de IA generativa y la falta de control completo sobre los datos subyacentes limitan su confiabilidad: no siempre garantizan resultados precisos y verdaderos, por lo que el papel humano sigue siendo fundamental en la definición de complementariedades que sustenten el éxito de la tecnología. Si el diseño y desarrollo de la IA no están centrados en el individuo, es poco probable que las soluciones tengan un impacto social positivo.

El aprendizaje de la IA depende de los datos que les alimenten, por lo que los modelos pueden reflejar sesgos, generando, involuntariamente, situaciones de exclusión o discriminación. Existe la necesidad de establecer marcos legales y éticos claros que velen por un desarrollo de la inteligencia artificial que sea justo y equitativo, pero sin limitar la innovación tecnológica. La aprobación en 2024 del Acta Europea muestra lo difícil que es el equilibrio entre la creación y el control en el área. Mientras, Trump acaba de derogar la normativa que regulaba el desarrollo de la IA destinada a evitar riesgos para «desatascar la innovación».

La IA generativa tiene el potencial de reemplazar ciertos roles en tareas predecibles o altamente repetitivas, especialmente si no se aprovecha adecuadamente su capacidad para potenciar las habilidades humanas. Maximizar estas sinergias garantizará que, a medida que estas tecnologías se integren en diversas industrias, se genere un aumento de productividad y empleo. Esto, a su vez, impulsará la demanda de habilidades técnicas relacionadas con la IA. La educación es clave en este proceso de transformación.

Las administraciones educativas tienen que dar respuesta a estas necesidades, no solo en los niveles obligatorios, sino, y de forma muy especial, diseñar estrategias de recualificación de la población que ya está integrada en el mercado laboral. Solo así se podrá garantizar la competitividad de nuestra sociedad y economía, asegurando que esta revolución tecnológica esté al servicio de las personas.

Jorge Sainzes catedrático de Economía Aplicada.

María Teresa Ballestar es profesora titular de Estadística. Universidad Rey Juan Carlos.