En la actualidad, los coches autónomos son una tecnología futurista que cada vez se acerca más a nuestra realidad, sin embargo, una pequeña falla en los sistemas de conducción autónoma podría producir accidentes viales.

En este sentido, una nueva investigación muestra que la tecnología detrás de los coches autónomos podría ser vulnerable a falsas impresiones como las calcomanías de tráfico.

Coches autónomos, fallas en el reconocimiento

Los coches autónomos interpretan su entorno gracias al uso de un sistema que se encuentran alrededor del vehículo, y que utiliza una combinación de cámaras, sensores de radar y sensores LiDAR (detección de luz y rango).

Sin embargo, como todo sistema este aún presenta ciertas fallas, y es que de acuerdo con el Grupo de Investigación de la Universidad de Michigan, RobustNet este sistema de percepción basado en LiDAR puede ser engañado para “ver” obstáculos donde no los hay.

Estos sistemas de percepción basados ​​en LiDAR cuentan con dos componentes escenciales, el sensor y el modelo de aprendizaje automático. El primero de ellos ofrece una percepción del entorno, mientras que el segundo se encarga de procesar los datos del sensor.

Engañar a los sensores LiDAR

Ahora, la fuente señala que se podría producir un “error” en la lectura del entorno, precisando e imitando las señales disparadas –tiempo de vuelo, tiempo en rebotar la señal de sensor al objeto que se mide– al sensor LiDAR, algo que permitiría también engañar al modelo de aprendizaje automático.

Read Along, la alternativa de Google para que los más pequeños aprendan a leer

En este punto, un trabajo realizado por el laboratorio de investigación de OpenAI refuerza esta teoría y plantea que los modelos de aprendizaje automático son vulnerables a los ejemplos adversos, es decir, aquellos obstáculos que no son reales, pues según los investigadores estos modelos no evaluan todos los casos.

Para ello, los investigadores sometieron los sensores a dos casos, el primero de ellos llamado “ataque de freno de emergencia”, mostraron cómo un atacante puede detener de forma repentina un vehículo en movimiento haciéndole creer que que apareció un obstáculo en su camino.

Explorar fallas de seguridad

Mientras que en el segundo caso, generaron un “ataque de congelación AV”, es decir, colocaron un obstáculo falso a un vehículo detenido en una luz roja, algo que hizo que el coche permaneciera detenido después de que la luz cambiara a verde.

Con estos estudios, los investigadores quieren evaluar los problemas de seguridad  que pudiesen presentarse en los sistemas de conducción autónoma para así evitar que hacker y personas mal intensionadas puedan exporar estas fallas de seguridad a futuro.

Más en TekCrispy