"Mandíbula flotante" y sombras sospechosas: cómo no caer en las trampas de los ciberdelincuentes

"Mandíbula flotante" y sombras sospechosas: cómo no caer en las trampas de los ciberdelincuentes

Una videollamada común acabó en una costosa lotería.

image

En las redes sociales cada vez más gente recomienda un método sencillo para desenmascarar un deepfake durante una videollamada: pedirle a la otra persona que muestre tres dedos frente al rostro. El truco se difundió rápidamente y se convirtió casi en una “prueba popular”, pero ahora los especialistas advierten: esa táctica ya no funciona y puede favorecer a los estafadores.

Hace un par de años esa comprobación sí ayudaba: los algoritmos “tropezaban” con los gestos y revelaban la suplantación del rostro. Ahora la situación ha cambiado. Ben Colman, director de Reality Defender, explica que los modelos actuales han aprendido a procesar correctamente los movimientos de las manos en tiempo real y ya no “se rompen” con estas pruebas. Según Manny Ahmed, responsable de OpenOrigins, confiar en métodos obsoletos genera una falsa sensación de seguridad y aumenta el riesgo de ser engañado.

La magnitud del problema crece junto con el avance de las tecnologías. Las suplantaciones de voz, la sustitución de rostros y la generación de vídeo ya se han convertido en herramientas habituales del fraude. Según una encuesta en EE. UU., Canadá y países de Europa, casi un tercio de los encuestados se encontró el último año con llamadas falsas en las que la voz imitaba a una persona conocida. El daño causado por esos esquemas en 2025 superó los 1,1 mil millones de dólares: casi tres veces más que el año anterior.

Los estafadores usan activamente las redes sociales, creando vídeos con la “participación” de celebridades para promover inversiones ficticias. También son comunes las estafas románticas, en las que los delincuentes se hacen pasar por parejas y piden dinero con el pretexto de una situación urgente.

Ante esto, los especialistas proponen métodos de verificación más complejos. Shlomi Bir, responsable de ImpersonAlly, señala que los algoritmos suelen entrenarse con vídeos frontales. Un giro brusco de la cabeza hacia un lado puede provocar distorsiones breves —por ejemplo, una línea de la mandíbula “desdibujada”. Un movimiento rápido de la mano entre el rostro y la fuente de luz también puede delatar una falsificación: las sombras en esos casos parecen antinaturales o no coinciden con la iluminación.

Otra señal adicional es el fondo. Detalles complejos como estanterías o plantas a menudo se procesan peor. Movimientos bruscos sobre ese fondo pueden provocar artefactos visuales, cuando el cabello o el cuello se “desprenden” momentáneamente de la imagen.

Al mismo tiempo, Ahmed subraya que ya no existe un método visual fiable. Incluso los especialistas formados no siempre pueden reconocer con seguridad un deepfake de alta calidad. Conviene fijarse en indicios indirectos —retrasos en la reacción, movimientos oculares antinaturales, incoherencias en la iluminación y un leve desfase entre sonido y vídeo. Sin embargo, esos detalles solo deben despertar sospechas, no garantizan la detección.