Noticia

Demuestran que se puede engañar a los coches autónomos con fotografías

Ampliar

17 de febrero, 2020

Un equipo de investigadores ha logrado engañar a dos de los sistemas más populares de conducción autónoma con imágenes 2D en la carretera.

Un equipo de investigadores ha desarrollado una forma de confundir a los coches con sistemas de conducción autónoma. El método es simple: un proyector y una imagen es capaz de confundir a estos coches, pudiendo lograr que cambien su comportamiento o se detengan.

Esto demuestra el peligro que puede suponer para los coches autónomos si este tipo de productos cae en malas manos, ya que pueden controlar al automóvil, si está en modo de conducción autónoma, a su antojo.

Los coches autónomos detectan señales, personas, líneas en la carretera y otros vehículos gracias a su tecnología de reconocimiento por sensores y cámaras. Estos sistemas analizan todo lo que ven en busca de patrones que reconozcan y actúan en consecuencia. Así, la proyección de objetos en 2 dimensiones o también denominados fantasmas puede provocar que el coche autónomo los detecte como reales y varíe su comportamiento.

Puede que te interese: Asesinar o suicidar, ése es el dilema del coche autónomo

En su investigación, los científicos probaron sólo dos sistemas de conducción autónoma, el Autopilot de Tesla (con un Tesla Model X) y Mobileye 630 PRO, que está presente en coches de las marcas Mazda, Renault y Honda.

Coches autónomos engañados con imágenes 2D

Las pruebas que realizaron demostraron que con una proyección de una foto de una persona en la carretera, estos sistemas lo detectan como si fuese una persona de verdad. Claro, y esto tiene consecuencias para el resto del tráfico, porque si el coche puede detenerse, al no ir a una velocidad excesiva, lo hará, pero de no poder hacerlo, intentará evitar a la “falsa persona” dando un volantazo y pudiendo chocarse con otro vehículo de la carretera.

En otra de las pruebas, se engañó a los sistemas de conducción autónoma variando la disposición de las líneas de la carretera y se logró. Aquí el peligro es obvio: el coche autónomo podría circular sin darse cuenta por los carriles aledaños o incluso contrasentido con el riesgo para el resto de coches.

Un youtuber se graba más de 2.000 km con el Autopilot de Tesla

Tanto el Autopilot  como el Mobileye 630 PRO se “creyeron” como reales las fotografías de traseras de coches y las señales de velocidad proyectadas sobre árboles y paredes, demostrando que asimilan los objetos 2D como reales.

Lo que los investigadores quieren representar con este trabajo es que estos sistemas de conducción autónoma no tienen forma de saber si un objeto es físico o es una proyección y que no son cien por cien fiables.

Vídeo: así se engaña a un coche autónomo

Comparte este artículo:

Comentarios

* He leído la Política de privacidad

Síguenos en las redes

Aquí está tu coche