¿Es posible distinguir un deepfake de una foto? La prueba de la nueva herramienta de Google arrojó resultados poco concluyentes

¿Es posible distinguir un deepfake de una foto? La prueba de la nueva herramienta de Google arrojó resultados poco concluyentes

Así funciona la nueva verificación de imágenes en la versión web de Gemini (y dónde falla)

image

Google amplió las capacidades de su servicio de IA Gemini, añadiendo en la aplicación y en la versión web una herramienta para verificar si las imágenes muestran señales de generación automática. La aparición de esta función parece un paso lógico: el contenido visual cada vez se crea más con modelos de IA, y la demanda de métodos para distinguir una foto real de una sintética crece.

El nuevo detector se basa en el sistema SynthID —marcas digitales invisibles para el ser humano, aparecidas en 2023. Están integradas en las imágenes creadas por los generadores de Google y se conservan incluso tras cambiar el tamaño o tras un procesamiento parcial. Por eso la verificación funciona solo con contenido creado específicamente con los modelos de Google.

Si en la imagen no hay una marca de agua integrada, la herramienta no podrá asegurar con confianza si la imagen fue generada por IA o no. Las pruebas con contenido generado por otros modelos confirman este límite: Gemini a veces acierta por señales visuales secundarias, pero no se puede considerar una verificación precisa.

SynthID fue publicado en acceso abierto, y Google incluso cuenta con socios como Hugging Face y Nvidia; sin embargo, la mayoría de los generadores usan enfoques distintos. Por ejemplo, ChatGPT emplea el esquema de metadatos C2PA, que respaldan Microsoft, Adobe, Meta y otras empresas. Google informó que planea añadir compatibilidad con C2PA para ampliar la detección de marcas fuera de su propio ecosistema.

Pero incluso esa actualización no garantiza la protección, ya que en verano los especialistas de la Universidad de Waterloo crearon el método UnMarker, que permite eliminar las marcas de agua de modelos de IA, incluido SynthID, en solo unos minutos en una GPU Nvidia A100. El equipo de Google DeepMind llegó a conclusiones similares, señalando que los metadatos C2PA en algunos escenarios son aún menos resistentes.

Al mismo tiempo, la compañía presentó una versión actualizada de su sistema de generación de imágenes llamada Nano Banana Pro. Este modelo está construido sobre Gemini 3 Pro y está orientado a reproducir con mayor precisión el texto en la imagen, lo que antes era un punto débil de la inteligencia artificial visual.

El algoritmo ahora es capaz de generar infografías y otros materiales donde es importante la legibilidad de las leyendas. La velocidad de creación de contenido también aumentó notablemente. Al mismo tiempo, las imágenes siguen conteniendo un icono visible de Gemini y las marcas invisibles de SynthID.

En una de las pruebas Nano Banana Pro creó una ilustración específicamente para la demostración, y luego intentaron limpiarla de SynthID. Pero incluso después de eliminar los rastros, el sistema siguió reconociendo la imagen como generada.

Así, la nueva función en Gemini ayuda a identificar parte de las imágenes creadas con las herramientas de Google, pero no es universal. Eliminar o distorsionar las marcas integradas sigue siendo posible, por lo que las herramientas para verificar el origen del contenido digital siguen siendo solo una de las maneras para orientarse en el flujo de gráficos sintéticos.

Tu privacidad está muriendo lentamente, pero nosotros podemos salvarla

¡Únete a nosotros!