INTELIGENCIA ARTIFICIAL

¿Qué hacer si crees que la IA miente sobre ti?

Se trata de uno de los temas que más inquietud despierta en la comunidad; sobre la capacidad de las leyes para mantenerse acorde a la rápida evolución de la tecnología.

¿Qué hacer si crees que la IA miente sobre ti?
¿Qué hacer si crees que la IA miente sobre ti?FreepikFreepik

La IA sigue evoluciones a pasos agigantados y sus avances tecnológicos poco a poco superan la capacidad de los gobiernos para regular efectivamente esta tecnología. De ahí que a medida que se expande, surgen preocupaciones sobre la seguridad, privacidad, transparencia y, en algunos casos, la difamación. En medio de estos problemas surge la pregunta, ¿qué medidas tomar si la IA miente o difunde información falsa sobre nosotros?

Se trata de uno de los temas que más inquietud despierta en la comunidad; sobre la capacidad de las leyes para mantenerse acorde a la rápida evolución de la tecnología. Por un lado, los expertos argumentan que los humanos tienen la responsabilidad de desafiar y supervisar la IA para garantizar un uso seguro. Pero, por otro lado, los modelos de lenguaje (LLM) continúan generando cantidades masivas de información sobre nosotros, lo que en ocasiones resulta en “alucinaciones”.

La paradoja digital, ¿por qué la IA miente?

Cuando hablamos de alucinaciones, nos referimos a un fenómeno que abarca una amplia gama de información falsa o errónea generada por esta tecnología. Una situación que llevaría a muchos a afirmar que la IA “miente” sobre nosotros, y lo sorprendente, es que ni los creadores comprenden por qué. Como resultado, se generaun descargo de responsabilidad, en el que instan a los usuarios a verificar la información antes de utilizarla.

Entonces, ¿qué hay de quienes no les interesa corroborar esta información? Sino que, por el contrario, la utilizan para llevar a cabo actividades fraudulentas, resultando ensituaciones preocupantes. En el mejor de los casos, el daño puede ser mínimo y demostrable con facilidad. Sin embargo, en ocasiones, la IA miente a tal nivel que pone en peligro la reputación de personas e incluso organizaciones enteras. Un tipo de situación deja a las víctimas con pocas opciones para defenderse.

Un desafío legal aún poco abordado

Los precedentes legales relacionados a la IA todavía son escasos, debido a la constante evolución de la misma, a pesar de los esfuerzos de las naciones por regularla. No solo es necesario establecer leyes, sino también de establecer sistemas de protección que garanticen la veracidad e integridad de la información generada por IA. Sin embargo, los avances en este sentido son lentos y, como resultado, algunas personas ya recurren a acciones legales contra las empresas –sin resultados–.

Puesto que las alucinaciones de IA, como la inclusión de detalles históricos incorrectos o identidades falsas, se deben a problemas con información disponible. Básicamente, esta recopila fragmentos de datos para proporcionar respuestas acordes a las necesidades. Y dado que el problema radica internamente en la tecnología, es común escuchar que la ley no puede brindar una solución efectiva. Ya que no se trata de una actividad criminal.

Intentos de acción contra la IA no logran resultados significativos

Por esta razón, existen un sinfín de casos legales en todo el mundo. Una clara manifestación de las consecuencias de las alucinaciones generadas por la IA. Desde casos de difamación directa e incluso con medios de comunicación que compartieron abiertamente información falsa sobre eventos o personas específicas. Un ejemplo es el caso del locutor de Georgia que demandó a OpenAI por difamación. Esto luego de que ChatGPT inventara una demanda falsa de malversación de fondos en su contra.

La situación llevó a la empresa a solicitar la desestimación de la demanda, argumentando que “existe un consenso casi universal de que el uso responsable de la IA incluye la verificación de los resultados solicitados antes de utilizarlos o compartirlos”. Desde entonces, tanto esta como muchas otras empresas continúan implementando cambios para mejorar la precisión de sus modelos y reducir la incidencia de alucinaciones. Aunque aún es común encontrarse con estos problemas.

¿Qué hacer si la IA miente sobre ti? Empresas incentivan a las personas a desmentir e informar problemas

Una de las empresas que trabaja en estos problemas es Microsoft, quien sigue liderando esfuerzos para filtrar el contenido de herramientas como Copilot y Bing. A pesar de ello, la compañía advierte que sus aplicaciones aún pueden estar sujetas a errores. Por lo tanto, anima a los usuarios a enviar comentarios y corroborar siempre el contenido generado automáticamente, incentivando la participación activa para mejorar su precisión.

OpenAI también tomaría medidas para abordar este desafío, y anunciaron la posibilidad de informar cada vez que la IA miente o proporcione información inexacta. De esta manera, el equipo puede examinar estas críticas y utilizarlas para ajustar el modelo, reconociendo ciertas respuestas como más confiables que otras. Además, están trabajando para enseñar a la tecnología a buscar información por sí misma y evaluar cuándo su conocimiento es limitado, para así responder con precisión.

En vista de estos desafíos, las organizaciones líderes también continúan trabajando en el desarrollo de regulaciones y salvaguardas para garantizar la seguridad, privacidad y transparencia. Así como la veracidad de la información proporcionada por los sistemas de IA, haciendo hincapié en sistemas que permitan informar sobre limitaciones o errores en los sistemas de IA.