Forskere snyder Tesla til at køre mod færdselsretningen

Små klistermærker på vejen er nok til at få Teslas autopilot til at køre over i den forkerte vognbane.

Tesla lover, at deres biler i fremtiden bliver selvkørende, men der er et stykke vej endnu, før softwaren er klar til det. Her Model S. (© Tesla)

De nyeste Tesla-elbiler Model S og X er udstyret med otte 360 grader-kameraer, tolv ultralydssensorer og en radar. Alt sammen for at sikre at bilernes autopilot tilpasser sig trafikken og holder den rigtige vognbane.

Alligevel er det lykkedes en gruppe sikkerhedsforskere fra Keen Security Lab, som hører under den kinesiske teknologi-gigant Tencent, at manipulere Teslas autopilot til at skifte vognbane og køre mod færdeselsretningen.

Det gjorde de ganske simpelt ved at sætte nogle klistermærker fast på vejbanen, som ledte bilens software til at tro, at den skulle følge klistermærkernes bane.

Få klistermærker på vejbanen var alt, hvad der skulle til for at få autopiloten til at skifte vognbane. (© Keen Security Lab)

Teslas autopilot er designet til at styre sikkert gennem regn, sne, tåge og mørke, men systemet opfanger altså tilsyneladende ikke nødvendigvis, at mennesker med simple midler manipulerer med det.

Det skyldes, at data fra bilens kameraer analyseres af neurale netværk, som fortæller bilen, hvilken bane den skal følge. Og de neurale netværk har ikke lært at tage højde for, at mennesker kan påvirke det, kameraerne ser.

Snød også vinduesvisker

Det uheldige vognbaneskift var ikke ikke den eneste fejl, som Keen Security Lab snød Teslas autopilot til at begå.

Også bilens vinduesvisker kunne maniplueres. Det krævede dog et noget mere avanceret og mindre virkelighedstro trick.

Autopiloten bruger billedgenkendelse til at registrere, hvorvidt det regner. Ved hjælp af en algoritme har Keen Lab frembragt en billede på en skærm, som får autopiloten til at tro, at det regner, og aktivere vinduesviskeren.

Derudover har de kinesiske sikkerhedsforskere også demonstreret, hvordan de kan styre bilens autopilot ved hjælp af en trådløs controller, som bruges til spilkonsoller.

Du kan læse alle detaljer om, hvordan forskerne gjorde, i rapporten her.

Langt fra første gang

Det er ikke første gang, Teslas autopilot-funktion rammer et bump på vejen. Siden den blev introduceret i 2014, har teslaer med autopilot blandt andet været involveret i to dødsulykker og en torpedering af en politibil i Californien.

Tesla selv har på den ene side lovet, at deres biler bliver mere og mere selvkørende for hver nye bilmodel, der ruller ud på vejene og for hver opdateringen, der foretages af softwaren.

På den anden side bliver virksomheden ved med at understrege, at autopiloten er beregnet til førerassistance. Teknologien gør ikke bilen autonom.

Det er absolut heller ikke første gang, at udefrakommende parter finder huller i Teslas autopilot, og faktisk har netop Keen Security Lab før fundet en fejl, som Tesla siden har udbedret.

Det var i 2016, da Keen Lab overtog styringen med en Tesla Model S via et ondsindet wifi-hotspot, mens de selv opholdt sig på næsten 19 kilometers afstand.

Facebook
Twitter