Un truco barato con un espejo pone en jaque la confianza en toda la industria de los vehículos autónomos.
Científicos de Francia y Alemania demostraron un nuevo método para engañar sensores LiDAR, que constituyen la base de los sistemas de navegación de vehículos autónomos. A diferencia de ataques anteriores, que requerían el uso de láseres, generadores de interferencias o objetos especialmente fabricados, los investigadores propusieron un método lo más simple y barato posible: el uso de espejos comunes.
LiDAR funciona mediante la emisión de pulsos láser y la medición del tiempo de su retorno, formando un mapa tridimensional del entorno. Sin embargo, las superficies reflectantes pueden distorsionar este proceso. Sobre esto se basan dos escenarios de ataque. El primero, Object Addition Attack (OAA), crea en la nube de puntos obstáculos 'fantasma' que en realidad no existen. El segundo, Object Removal Attack (ORA), en cambio, oculta objetos reales al reflejar los pulsos de modo que el sistema percibe espacio ocupado como libre.
Los investigadores modelaron detalladamente la física de las reflexiones desde la óptica geométrica y confirmaron la teoría en condiciones reales. En los experimentos se usaron espejos planos de distintos tamaños y ángulos de inclinación, y como plataforma se empleó un automóvil con el LiDAR comercial Ouster OS1-128 y el software Autoware. En el escenario de ocultación de un obstáculo, un cono de carretera común desaparecía por completo de la percepción del sensor, mientras que en el ataque de adición el sistema registraba nubes densas de puntos, interpretándolas como un coche o una barrera.
Para una evaluación segura, los investigadores incorporaron el modelo desarrollado en el simulador CARLA, lo que permitió recrear el comportamiento de tales ataques en un entorno virtual y seguir su impacto en todo el conjunto del sistema de conducción autónoma —desde la percepción hasta la toma de decisiones. Los resultados mostraron que el engaño mediante espejos puede provocar frenadas de emergencia o, por el contrario, la ignorancia de obstáculos reales, lo que conlleva riesgo de accidentes. En las simulaciones se registraron situaciones en las que el vehículo autónomo frenaba bruscamente por un objeto falso y recibía un impacto por detrás de un vehículo que le seguía.
Los autores también discutieron posibles medidas de protección, incluyendo el uso de cámaras térmicas para verificar los datos, análisis multisensorial y el llamado 'marcado luminoso' para detectar superficies reflectantes. Sin embargo, todos estos enfoques tienen limitaciones, y por ahora ninguno de ellos ofrece una protección completa en condiciones reales de carretera.