Noticia

Trolean a Tesla solo con un trozo de cinta aislante

Ampliar

04 de marzo, 2020

Los investigadores han hecho un nuevo troleo a Tesla. En estaa ocasión con la ayuda de una simple cinta aislante y una señal de tráfico.

Si hace unos días os contábamos cómo unos científicos habían engañado al Autopilot de Tesla y a otro sistema de conducción automática (Mobileye) mediante la utilización de proyecciones 2D en la carretera, ahora un grupo de hackers de la compañía de seguridad McAfee han logrado burlar de nuevo al sistema de piloto automático desarrollado por la compañía de Elon Musk.

Puede que te interese: Videoprueba del Tesla Model S 100D

Y no os penséis que han utilizado soluciones vanguardistas para el engaño, ni siquiera han tenido que entrar en la tecnología de los modelos de Tesla para hackearla, saltándose protocolos de seguridad inaccesibles. Todo ha sido más simple y, por ende, más peligroso, ya que cualquiera podría hacerlo.

Los investigadores han engañado a un Autopilot únicamente con un trozo de cinta aislante, que han pegado en una señal de tráfico. Así, los técnicos de McAfee han añadido una pequeña pegatina en una señal de límite de velocidad de 35 millas por hora (es decir, unos 56 kilómetros por hora) para que el 3 pareciera un 8, aunque sin cambiarlo totalmente, solo alargando el palo central del 3.

Con ello, el Autopilot ha interpretado la señal como si se tratara de un límite de velocidad de 85 millas por hora (casi 137 kilómetros por hora). Este sutil cambio ha provocado que los vehículos testados (un Tesla Model X y un Tesla Model S, ambos de 2016)  se pusiera a más del doble de la velocidad permitida en dicha vía, suponiendo un gran peligro para otros usuarios de la misma.

Troleo a Tesla por el bien de la seguridad

No se trata de solo una “broma” o algo para “tocar las narices” a Tesla. Por lo menos así lo señalan los responsables del experimento: “Nuestro objetivo específico en McAfee Advanced Threat Research es identificar y aportar luz a un amplio espectro de amenazas en el complejo panorama actual. Con el hackeo de modelos estudiamos cómo los enemigos pueden atacar y evadir la inteligencia artificial. Así tenemos una oportunidad increíble de influir en la conciencia, la comprensión y el desarrollo de tecnologías más seguras antes de que se implementen de una manera que tenga un valor real para el enemigo”, señalan.

Comparte este artículo:

Comentarios

* He leído la Política de privacidad

Síguenos en las redes

Aquí está tu coche