
Inteligencia artificial
La culpa es de los que usan ChatGPT para hacer trampas: por qué Google y otras grandes tecnológicas están recuperando las entrevistas presenciales
La IA se ha convertido en el arma secreta de los candidatos para falsear las entrevistas de trabajo. Y la respuesta de las grandes tecnológicas ha sido tan drástica como predecible: volver a mirarse a la cara

El sueño de conseguir un trabajo en una de las grandes tecnológicas sin moverte de casa se está desvaneciendo, y la culpa la tienen aquellos que han decidido usar la IA no como una herramienta, sino como un atajo para hacer trampas.
Un número creciente de empresas, entre las que se incluyen gigantes como Google, Cisco y McKinsey, están dando marcha atrás en sus procesos de contratación 100% virtuales para reintroducir, al menos, una ronda de entrevistas presenciales. ¿El motivo? La necesidad de verificar que el candidato que tienes delante es quien dice ser y sabe lo que dice saber, algo que la pantalla de una videollamada ya no puede garantizar.
La proliferación de herramientas de IA generativa ha desatado una auténtica epidemia de fraude en los procesos de selección. Según directores de contratación y expertos del sector, cada vez es más común encontrarse con candidatos que utilizan inteligencia artificial para redactar sus respuestas en tiempo real o, lo que es aún más grave, para resolver pruebas técnicas de programación durante la propia entrevista.
El "truco del 'Hmm...'" y los espías norcoreanos
Los reclutadores se han vuelto expertos en detectar las señales de alarma: pausas sospechosas, miradas fuera de cámara o respuestas que no se corresponden con el razonamiento que el candidato es capaz de articular en directo. Algunos entrevistadores han llegado a reportar casos de candidatos que utilizan muletillas como "Hmm..." mientras, a todas luces, esperan a que ChatGPT les "sople" la respuesta.
La situación ha llegado a tal punto que el propio CEO de Google, Sundar Pichai, ha tenido que admitirlo públicamente. "Nos estamos asegurando de introducir al menos una ronda de entrevistas presenciales, solo para cerciorarnos de que los fundamentos están ahí", declaró a The Wall Street Journal.
El problema es especialmente grave en los roles técnicos, donde las pruebas de código virtuales eran el estándar. Se ha vuelto "relativamente fácil usar herramientas de IA fuera de cámara para escribir el código sobre el que se está examinando a los candidatos", afirmaron reclutadores a la misma publicación.
Pero la picaresca va mucho más allá. En los casos más extremos, se han llegado a utilizar deepfakes y personas sintéticas en las entrevistas, e incluso se han destapado tramas de ciberdelincuentes vinculados a Corea del Norte que utilizan la IA para crear currículums convincentes y falsear sus identidades con el objetivo de conseguir trabajos en empresas estadounidenses y desviar los salarios y la información sensible al régimen.
La vuelta al cara a cara como filtro de autenticidad
Ante esta avalancha de trampas, las empresas están volviendo a lo básico. Aunque un regreso total a las entrevistas presenciales parece poco probable, la tendencia es optar por un modelo híbrido: primeras rondas virtuales y una reunión cara a cara reservada para los finalistas.
Esta decisión no solo busca reducir el riesgo de fraude, sino también reafirmar el valor de la interacción humana directa en un mundo cada vez más digital. Como explica Jamie Kohn, directora de investigación de Gartner, también es una forma de "establecer la expectativa de que habrá que venir a la oficina".
En una de las mayores ironías de nuestro tiempo, la tecnología más avanzada del planeta, la inteligencia artificial, está obligando a la industria que la creó a recuperar el método de evaluación más antiguo y análogo que existe: sentarse frente a una persona y mirarla a los ojos para saber si, de verdad, se puede confiar en ella.
✕
Accede a tu cuenta para comentar