Píxeles en lugar del rostro: esto les pasará a quienes roben tu foto para un deepfake. Silverer, la nueva herramienta, garantiza que la IA falle.

Píxeles en lugar del rostro: esto les pasará a quienes roben tu foto para un deepfake. Silverer, la nueva herramienta, garantiza que la IA falle.

Científicos desarrollan técnica que impide a hackers y estafadores explotar redes neuronales.

image

La Policía Federal Australiana (AFP) y la Universidad Monash unieron fuerzas para usar la IA contra los propios delincuentes. En el laboratorio conjunto AiLECS (IA para la aplicación de la ley y la seguridad comunitaria) se está desarrollando una herramienta llamada Silverer —un prototipo de tecnología capaz de «envenenar» datos y así frustrar los intentos de los delincuentes de generar contenido ilegal con redes neuronales.

El método se basa en la idea del «envenenamiento de datos» —la introducción deliberada de cambios apenas perceptibles en imágenes digitales para que los modelos artificiales entrenados con esos datos produzcan copias distorsionadas, de mala calidad o completamente inútiles. Estas intervenciones microscópicas dejan la foto visualmente inalterada para una persona, pero engañan a los algoritmos de aprendizaje automático. Como resultado, los intentos de usarlas para crear falsificaciones profundas, materiales extremistas o escenas falsas de violencia solo producen conjuntos difusos y caóticos de píxeles.

Según los especialistas, el nombre Silverer alude a la plata usada en la fabricación de espejos: la idea es devolver al atacante un reflejo en lugar del contenido. Antes de publicar fotografías, los usuarios podrán pasarlas por Silverer para añadir a la estructura de la imagen una capa protectora que engañe a las redes neuronales.

En AiLECS señalaron que la generación de datos visuales maliciosos se está convirtiendo en un problema cada vez más serio: las herramientas abiertas para crear falsificaciones profundas y contenido artificial están al alcance de casi todo el mundo, y la barrera de entrada a estas tecnologías es mínima. La Policía Federal Australiana registra un aumento en la cantidad de materiales CSAM falsos creados por IA; precisamente contra este tipo de prácticas van dirigidos los nuevos métodos.

En la AFP explicaron que, aunque las tecnologías de envenenamiento de datos están en una etapa temprana, las primeras pruebas ya muestran resultados prometedores. Si un delincuente intenta generar una imagen basada en un conjunto protegido, el resultado quedará distorsionado o no tendrá ninguna relación con el original. De ese modo se crea una barrera protectora que no destruye la fuente pero la hace inútil para usos malintencionados.

La implementación de soluciones como esta no detendrá por completo los abusos de la inteligencia artificial, pero podrá complicar significativamente la vida de quienes intentan usarla con fines delictivos. En la policía compararon la tecnología con topes: no una prohibición absoluta, sino un sistema de obstáculos que reduce la velocidad y dificulta el avance de los infractores.

AiLECS y la AFP también están estudiando la posibilidad de aplicar Silverer en el trabajo policial para reducir el flujo de imágenes falsas con las que se enfrentan las investigaciones. Además, Silverer debería ser una de las primeras herramientas que podrán usar no solo los especialistas en ciberseguridad, sino también los ciudadanos que deseen evitar el uso indebido de sus fotografías y vídeos en internet.

No esperes a que los hackers te ataquen: ¡suscríbete a nuestro canal y conviértete en una fortaleza impenetrable!

Suscribirse