Por qué muchos responsables de RR. HH. ahora comprueban no al candidato, sino la realidad.
Cuando Nicole Yelland, una empleada de Detroit, recibe una solicitud de reunión de un desconocido, ya no responde automáticamente. Hoy, eso da inicio a una compleja verificación en varias etapas: revisión de datos en Spokeo, prueba de español con frases capciosas, y en caso de dudas, videollamada en Microsoft Teams con la cámara encendida. ¿Paranoia? Para nada — simplemente experiencia. En enero, Nicole fue víctima de un esquema cuidadosamente planeado, en el que estafadores se hicieron pasar por reclutadores de una empresa real, realizaron una entrevista falsa e intentaron obtener sus datos personales, incluido el número de su licencia de conducir.
Estos esquemas se han vuelto tan comunes que las propias herramientas digitales, diseñadas para aumentar la productividad, son cada vez más utilizadas para crear engaños convincentes. Avatares retocados en LinkedIn, rostros generados por IA, deepfakes realistas en videollamadas: los estafadores pueden construir identidades creíbles en cuestión de segundos. Según la Comisión Federal de Comercio de EE. UU., en cuatro años el número de denuncias por ofertas de empleo falsas se ha triplicado y las pérdidas aumentaron de 90 a 500 millones de dólares.
Yelland tuvo suerte — comenzó a sospechar cuando su interlocutor se negó a encender la cámara y pidió información confidencial. Pero muchos no son tan precavidos. Por eso, cada vez más personas —especialmente en profesiones relacionadas con la contratación— están adoptando métodos inesperados de verificación. Por ejemplo, piden al candidato que mencione su cafetería favorita en la ciudad donde supuestamente vive, que envíe una selfie con sello de hora, o que confirme un mensaje en Instagram para comprobar que realmente fue enviado por la misma persona.
En medio del auge del engaño potenciado por IA, están surgiendo startups especializadas en detectarlo. Entre ellas se encuentran Reality Defender y GetReal Labs. Incluso el CEO de OpenAI, Sam Altman, está involucrado en el proyecto Tools for Humanity, que propone verificación biométrica mediante escaneo del iris y almacenamiento de identificadores en blockchain. El objetivo: demostrar que una persona es realmente una persona.
No obstante, muchos siguen recurriendo a la vieja y confiable ingeniería social. Algunos piden que se encienda la cámara del móvil y se muestre otro ángulo del rostro para asegurarse de que no sea un deepfake. Otros acuerdan con colegas una palabra clave para usar en situaciones sospechosas. Este tipo de verificación puede espantar a candidatos honestos, especialmente si invade su privacidad. Sin embargo, según Ken Schumacher, fundador de Ropes, en un contexto de desconfianza generalizada no hay muchas alternativas.
Jessica Eise, asistente de un profesor de la Universidad de Indiana, cuenta cómo su equipo de investigación, que realizaba encuestas pagadas, acabó convirtiéndose prácticamente en un departamento de criminalística digital. Los investigadores descartaban a los participantes sospechosos analizando las marcas de tiempo, la estructura del correo electrónico y datos inusuales en los formularios. Ahora han vuelto a repartir folletos en papel y reclutan participantes de forma presencial.
Todo esto apunta a una sola cosa: el engaño digital ha penetrado cada rincón de la realidad remota. Promesas de salarios por encima del promedio, vacaciones “ilimitadas” y condiciones laborales perfectas suelen ser una señal de advertencia. Si suena demasiado bueno para ser cierto, probablemente no lo sea. Pero mientras no exista una solución universal, cada nuevo contacto empieza con desconfianza, y el tiempo se dedica no al trabajo, sino a demostrar que uno no es una falsificación.