La empresa de seguridad tecnológica Tencent Security Lab Keen hizo público el pasado viernes un informe en el que se detallan varios ciberataques exitosos contra el software de piloto automático de los vehículos Tesla.
Algunos de estos 'hackeos' son más o menos habituales, como la posibilidad de conectar un gamepad al coche de tal forma que anule tanto el piloto automático como el volante del mismo.
Pero otros, destinados a lograr que el vehículo active los limpiaparabrisas aunque no esté lloviendo, o a convencerle de que circule por el carril erróneo de la carretera, entran en una categoría relativamente reciente, que conocemos como 'ataques antagónicos' o 'adversariales'.
La clave: los ataques antagónicos
Pero... ¿qué son los ataques antagónicos? Son, básicamente, métodos para engañar a los sistemas de identificación basados en el uso de redes neuronales.
Estos sistemas, aunque muestran un rendimiento cercano al de los seres humanos (hasta el punto de ser usados en sistemas críticos) son, sin embargo, vulnerables a "muestras antagónicas" capaces de provocar errores en la identificación.
En la mayoría de los casos, dichas muestran se diseñan recurriendo también a redes neuronales. Así, se incorporan a la muestra patrones específicos que no engañan al ojo humano pero sí al software de visión artificial. De este modo se ha llegado a lograr que una IA detecte una escopeta... cuando se le enseña la imagen de una tortuga.
Aclarado esto, ¿cómo fueron capaces los investigadores de Tencent Security Lab Keen de convencer al Tesla para que circulara por el carril contrario?
Los investigadores explican que, en un primer momento, recurrieron a la adición de 'ruido' a las marcas de carril (que aún permitían que éstas fueran perfectamente visibles para los humanos) con el fin de engañar al piloto automático y provocar que fuera incapaz de detectar los carriles.
El diseño adecuado del 'ruido' fue calculado primero en una simulación virtual, y luego ya aplicado en el mundo real.
El siguiente paso, sin embargo, fue utilizar pegatinas que, una vez aplicadas sobre la calzada, engañaban al piloto automático para que internara el vehículo en el carril contrario. De nuevo, el ensayo virtual fue el primer paso antes de usar las pegatinas en una carretera.
"Inducir a error al vehículo piloto automático con algunos parches elaborado por un atacante malintencionado, puede ser en ocasiones más peligroso que dejar de reconocer el carril.
Basta con pintar tres pequeños recuadros poco visible en la imagen tomada desde la cámara [...] para que el vehículo pase a considerar el carril de la izquierda como una continuación del de la derecha".
Los investigadores afirman que la función de reconocimiento de carriles del piloto automático de Tesla muestra un buen comportamiento en situaciones ordinarias (exteriores no sometidos a la interferencia de luz fuerte, lluvia, nieve, arena o polvo), pero que aún no maneja correctamente situaciones como la expuesta en su investigación.
Y avisan: "Este tipo de ataque es fácil de poner en marcha, y los materiales necesarios fáciles de obtener".
"Tesla utiliza una solución basada únicamente en la visión por ordenador para realizar el reconocimiento del carril [y] nuestros experimentos han demostrado que este planteamiento conlleva riesgos para la seguridad".
Imagen | Ian Maddox
También te recomendamos
Estas son todas las muertes que habrías sufrido sin tecnología
-
La noticia Unas pegatinas en el asfalto bastan para 'hackear' el piloto automático de un Tesla… y convencerle para ir en dirección contraria fue publicada originalmente en Xataka por Marcos Merino .
Gracias a Marcos Merino
No hay comentarios.:
Publicar un comentario