Los robots ahora filtran secretos de fabricación: no hace falta hackearlos, basta con observarlos.

Los robots ahora filtran secretos de fabricación: no hace falta hackearlos, basta con observarlos.

Robots supuestamente cifrados, pero los hackers los leen como un libro abierto.

image

Científicos de la Universidad de Waterloo demostraron que incluso al usar cifrado las acciones de robots asistentes se pueden inferir con casi un 100% de precisión. Los especialistas descubrieron que el análisis del tráfico de red permite determinar qué comandos realiza exactamente el robot, y esto crea serios riesgos para la privacidad tanto en la medicina como en la industria.

Los robots asistentes se emplean cada vez más en hospitales, donde ayudan a los cirujanos gracias a la alta precisión de sus movimientos, y en la industria, donde asumen operaciones peligrosas. Sin embargo, un grupo de especialistas comprobó que, al observar el intercambio de datos entre la máquina y su controlador, un atacante puede, por indicios indirectos, reconstruir el tipo de comandos. Incluso sin descifrar, se puede inferir el carácter de la tarea por la frecuencia de las señales, la duración de las interacciones y las pausas entre ellas.

Para la demostración de la amenaza, los investigadores utilizaron el manipulador Kinova Gen3, al que asignaron 4 acciones: agarrar y mover un objeto, verter agua, activar un interruptor y presionar una tecla. Se recopilaron 200 trazas de red, tras lo cual se aplicaron métodos de procesamiento de señales, similares a los usados en sistemas de supresión de ruido. Como resultado se identificaron patrones estables en el tráfico, y un clasificador determinó el movimiento realizado con una precisión del 97%, a pesar del cifrado de los datos.

Los autores subrayan que dichas filtraciones pueden revelar información confidencial: desde detalles del proceso tecnológico hasta el estado de salud del paciente o el esquema de su tratamiento. La situación es especialmente peligrosa en el control remoto de robots, cuando están conectados a redes y pueden estar en cualquier punto del mundo.

Para reducir los riesgos, el equipo propone cambiar los parámetros temporales de las interfaces de control o implementar algoritmos inteligentes de igualación del tráfico en tiempo real. Tales medidas harán que los flujos de red sean más uniformes y dificultarán su análisis. El estudio revela las vulnerabilidades de los robots colaborativos modernos y la necesidad de reforzar su protección.

El trabajo de los investigadores fue presentado en la 20.ª Conferencia Internacional sobre Accesibilidad, Fiabilidad y Seguridad (ARES 2025) y recibió el premio a la mejor publicación científica.

Tu privacidad está muriendo lentamente, pero nosotros podemos salvarla

¡Únete a nosotros!