
Inteligencia Artificial
El sector seguros no quiere correr riesgos con la IA
►Mapfre apuesta por usar una Inteligencia Artificial humanista, ética y responsable

La Inteligencia artificial será tan buena como los datos con la que la entrenes.
Esta es una de las frases que más se escuchan cuando se habla del potencial de esta tecnología, pero también de algunos de los riesgos que conlleva. Un mantra que pone de relieve que, para funcionar y de manera correcta, la IA necesita de muchos (y buenos) datos.
La humanidad en la ecuación
En esa concepción de qué son «buenos datos», entran en juego valores como la ética o conceptos como el «human in the loop», consolidado como un pilar fundamental en la aplicación responsable de la inteligencia artificial. Este enfoque implica que, aunque la tecnología sea capaz de procesar grandes volúmenes de datos y ofrecer recomendaciones, la decisión final y la supervisión recaen en profesionales humanos. En la práctica, esto significa que la IA actúa como un facilitador, ampliando las capacidades de los equipos, pero sin sustituir el juicio, la empatía ni la experiencia de los expertos.
La relevancia de este modelo híbrido se hace especialmente patente en sectores como los seguros y en áreas críticas como la suscripción de pólizas, la gestión de siniestros o la detección de fraudes. Los algoritmos pueden identificar patrones y anomalías con gran rapidez, pero son los especialistas quienes interpretan los resultados, validan los casos complejos y garantizan que las decisiones sean justas y ajustadas a la realidad de cada cliente.
Por ello, la gobernanza del dato se ha convertido en un eje estratégico. Las aseguradoras deben establecer controles estrictos sobre el ciclo de vida de la información, desde su recogida hasta su procesamiento y almacenamiento, garantizando el cumplimiento de la normativa (como el RGPD) y la protección de la privacidad de los clientes.
Además, la trazabilidad y transparencia en el uso de los datos permiten auditar los procesos y responder ante cualquier requerimiento legal o ético, aspectos especialmente sensibles en un sector donde la confianza es la base de la relación con el asegurado.
Visión humanista
La visión humanista de la tecnología va más allá del cumplimiento normativo. Supone entender la IA como un complemento que potencia el talento y la creatividad de las personas, liberando a los equipos de tareas repetitivas y permitiéndoles centrarse en aquellas funciones donde el valor añadido reside en el trato humano, la resolución de problemas complejos y la innovación de productos y servicios.
Lo que busca Mapfre según Maribel Solanas, Group CDO, «es extraer valor con la IA para el cliente y el negocio, desde una visión que integre las capacidades de IA, con y para las personas, a lo largo de los próximos años». Para la responsable, estas capacidades son diferenciales, e indica que cualquier paso en materia de IA «tiene que darse a nivel de compañía con la participación de todos los equipos, y pensando siempre en obtener beneficios tangibles para clientes, empleados, mediadores, colaboradores y resto de grupos de interés».
Esta perspectiva humanista implica, pues, formar y capacitar a los empleados en nuevas competencias digitales, fomentando una cultura de aprendizaje continuo y adaptación al cambio.
El sector asegurador, por su propia naturaleza, está ligado a la gestión de riesgos y a la protección de las personas. Por ello, la ética y la responsabilidad social deben guiar cualquier iniciativa de IA. La transparencia en los algoritmos, la prevención de sesgos y la equidad en las decisiones son principios que deben estar presentes en todo el ciclo de vida de los sistemas inteligentes.
No en vano, el sector debe comprender que sus datos pueden tener sesgos desde su propia concepción (por ejemplo, tradicionalmente las pólizas eran mayoritariamente suscritas por hombres y no por mujeres, lo que puede conllevar penalizaciones en uno u otro sentido a la hora de evaluar los riesgos).
La tecnología, en este sentido, no puede ser un fin en sí mismo, sino un medio para generar confianza, mejorar la accesibilidad a los seguros y contribuir a una sociedad más justa y resiliente.
La colaboración entre aseguradoras, reguladores y expertos en inteligencia artificial es esencial para establecer estándares claros y mecanismos de control que permitan aprovechar el potencial de la IA sin descuidar los riesgos asociados. La educación digital de los clientes y la sensibilización sobre el impacto de la IA en sus pólizas y derechos refuerzan este enfoque centrado en las personas, donde la confianza y la transparencia son la base de una transformación sostenible.
Manifiesto de cinco puntos
►Mapfre tiene su Manifiesto por una Inteligencia Artificial Humanista, Ética y Responsable que resume la visión de que la IA debe ser un habilitador al servicio de las personas, con un modelo híbrido que amplíe capacidades sin perder el control humano, garantizando la calidad de los datos, la protección de la información y el compromiso con la sostenibilidad y la ética.
Este manifiesto se desglosa en cinco puntos (modelo de IA híbrida, principios de buen gobierno, una IA ética y responsable, en progreso constante y sostenible).
✕
Accede a tu cuenta para comentar