V de viernes

Los peligros de la IA

Aumentan los robos, ciberataques y delitos de todo tipo suplantando la imagen y la voz de las personas, como si fueran reales

La frivolidad con que se está implantando la IA corre paralela al peligro que este instrumento cibernético representa para la seguridad de las personas. Nos reímos mucho cuando alguien hace circular por las redes un montaje de Biden o Sánchez con la imagen real del hackeado y con su misma voz diciendo chorradas. Es divertido, sí, salvo que el afectado seas tú, con tu imagen, identidad personal y gestos auténticos a los que empleas cuando comunicas algo o hablas con alguien. Entonces la gracia ya no es tanta. Y, sobre todo, es mucho menos gracia desde el momento en que tales instrumentos están al alcance de cualquier delincuente cibernético, que puede engañar a tu familia, a tus amigos, a tus compañeros o a cualquier persona bien intencionada. Los casos no son ya cientos, sino miles. Identidad de niños copiada, imagen de ancianos hackeada, personas estafadas en redes o por sms, un mundo cada día más peligroso, que curiosamente avanza sin que las autoridades lo eviten. El último gran escándalo, casi imposible de creer, lo contó hace días eleconomista.com: suplantaron a un CEO y varios empleados en una videollamada colectiva para robar cientos de millones. Todo comenzó cuando un gerente de banco en Singapur recibió un mail de su consejero delegado pidiéndole que hiciera una transferencia millonaria. Como le sonó sospechoso, para asegurarse el gerente le respondió al CEO si podían verse en persona, a lo que éste le dijo que era imposible, pero que le hacía una videollamada con otros miembros del staff de la empresa. El empleado aceptó y recibió una invitación para conectarse a la video-call y, al abrirla, se encontró con que, en efecto, estaban allí tanto el CEO con diferentes colegas de la empresa, todos con una imagen perfecta y auténtica voz. Tras 20 minutos de charla, el jefe explicó cuántos millones se tenía que transferir y el número de la cuenta extranjera a la que había que hacerlo, y el empleado movió los cientos de millones.

Sirva este relato para insistir en el peligro que entraña una IA absolutamente liberada y al servicio de cualquiera, con instrumentos tan sofisticados como el ChatGPT o modelos superinteligentes a punto de llegar del tipo DiPaCo o DiLoCo. Con una facilidad pasmosa nos están pidiendo para cualquier cosa nuestra identidad facial o la lectura del iris diciendo que eso va a ayudar a incrementar la seguridad en nuestras operaciones, cuando la realidad es que si una IA tiene en su poder tu iris e identidad facial, es susceptible de ser hackeada y copiada por ciberdelincuentes. Se habla mucho de protección de datos, pero resulta que nuestros datos están más en peligro que nunca y somos más vulnerables. Y lo peor es que nadie hace nada por evitarlo.