Inteligencia Artificial

Craig Martell, jefe tecnológico en el Pentágono, preocupado: "Le creerás, aunque esté equivocado"

Para el funcionario de mayor rango en la sede del Departamento de Defensa de EE.UU. resulta fundamental trabajar en una herramienta de verificación de los modelos de inteligencia artificial

Craig Martell ocupó un puesto destacado en tecnología digital e IA durante su etapa en el Pentágono
Craig Martell ocupó un puesto destacado en tecnología digital e IA durante su etapa en el PentágonoDVIDS

Uno de los mayores temores que enfrentan los expertos acerca de la inteligencia artificial es su fiabilidad. O, mejor dicho, su confiabilidad. La razón es bien sencilla: estamos lanzando preguntas a la inteligencia artificial y aceptando sus respuestas sin apenas discutir que éstas sean correctas, lo que puede llevar a situaciones delicadas en el futuro.

La desinformación, tal como anticiparon expertos como el cofundador de Apple Steve Wozniak, puede llegar de la mano de la inteligencia artificial por intereses personales, y ser todavía más compleja de combatir en el futuro. Un temor que también comparte quien fuera Director de Tecnología Digital e Inteligencia Artificial del Departamento de Defensa de los Estados Unidos, Craig Martell.

Desinformación de la mano de la inteligencia artificial

Martell fue el funcionario de mayor rango del Pentágono y su campo de especialización hizo que conferencias mundiales como la Technet Cyber 2023 celebrada en Baltimore, Estados Unidos, contase con su presencia. En ella, el principal responsable de seguridad digital del Pentágono mostró su temor ante los modelos de lenguaje de inteligencia artificial generativa como ChatGPT y la seguridad con la que responden y con la que aceptamos sus respuestas sin contrastarlas.

En la misma línea que se ha posicionado uno de los padres de la inteligencia artificial como Geoffrey Hinton acerca de los riesgos de la desinformación por parte de la IA, Craig Martell apuntó a este aspecto como el mayor temor que le confieren modelos como ChatGPT y la nula oposición que se da a sus respuestas por el modo en que las ofrece:

“Ha sido entrenado para expresarse con fluidez y autoridad. Así que uno lo cree incluso cuando se equivoca… Y eso significa que es una herramienta perfecta para la desinformación. Realmente necesitamos herramientas para detectar cuándo sucede esto y para poder advertirlo y no tenemos esas herramientas. Estamos atrasados en esa lucha"

Craig Martell, jefe tecnológico en el Pentágono durante la conferencia Technet Cyber 2023

Como buen integrante del Departamento de Defensa, Craig Martell detectó un punto débil, lo analizó y puso sobre la mesa de cuantos quisieron escucharle una solución al problema de desinformación que puede acarrear la inteligencia artificial: herramientas de verificación o bien herramientas que garanticen que la información generada por los modelos de inteligencia artificial sea precisa y veraz.

Para Craig Martell el miedo acerca de la confianza en las respuestas de ChatGPT y del resto de modelos de lenguaje no es infundado, sino que se basa en interacciones del propio chatbot en las que él mismo responde a la pregunta ‘¿Puedo confiar en ti?’ con un contundente ‘No’. A ello, tal como apuntó Martell durante la conferencia, le sigue la justificación de ChatGPT: “soy una herramienta y daré una respuesta, y les corresponde verificarla ustedes mismos”.

Por tanto, el peligro de confiar a ciegas en la respuesta que otorga ChatGPT está tanto en su respuesta como en creer en que ésta sea plenamente válida por la rapidez y la seguridad con la que la traslada. Esto es lo que impulsa a ojos de Craig Martell la necesidad de una herramienta de verificación y precisión para que el riesgo de desinformación quede minimizado.