Selvstyrende biler ofte stolt hævder at være udstyret med en lang liste af sensorer—kameraer, ultralyd, radar, lidar, you name it. Men hvis du nogensinde spekuleret over, hvorfor så mange sensorer, der er nødvendige, ser ikke videre end dette billede.
Du kigger på, hvad der er kendt i den autonome-bil branchen som en “edge-case”—en situation, hvor et køretøj kan have opførte sig uforudsigeligt, fordi dens software behandlet en usædvanlig scenarie forskelligt fra den måde, et menneske ville. I dette eksempel, billede-anerkendelse software anvendt på data fra et almindeligt kamera er blevet narret til at tro, at billeder af cyklister på bagsiden af en van er ægte menneskelige cyklister.
Denne særlige blind spot blev identificeret af forskere på Cognata, et firma, der bygger software simulatorer—hovedsageligt, meget detaljeret og programmerbare computer spil—hvor bilproducenter kan teste autonome kørsel algoritmer. Det giver dem mulighed for at smide disse typer af kant tilfælde på køretøjer, indtil de kan finde ud af at håndtere dem, uden at risikere en ulykke.
Mest autonome biler overvinde problemer, som de forvirrende billede ved hjælp af forskellige typer af sensorer. “Lidar ikke mening, glas, radar sanser primært metal, og kameraet kan blive narret af billeder,” forklarer Danny Atsmon, den administrerende DIREKTØR for Cognata. “Hver af de sensorer, der anvendes i autonome kørsel, kommer for at løse en anden del af sensing udfordring.” Ved gradvist at finde ud af hvilke data, der kan bruges til korrekt beskæftige sig med en bestemt kant tilfælde—enten i simulation eller i det virkelige liv—bilerne kan lære at håndtere mere komplekse situationer.
Tesla blev kritiseret for sin beslutning om kun at bruge radar, kamera, og ultralyd-sensorer for at give data til sin Autopilot-system efter en af sine køretøjer undladt at skelne en lastbil trailer fra en lys himmel og løb ind i den og dræbte chaufføren af Tesla. Kritikere hævder, at lidar er et væsentligt element i den sensor mix—det fungerer godt i svagt lys og blænding, i modsætning til et kamera, og giver mere detaljerede data, end radar eller ultralyd. Men som Atsmon påpeger selv lidar er ikke uden sine fejl: det kan ikke kende forskel på en rød og grøn trafik signal, for eksempel.
Den sikreste satsning, derefter, er for bilproducenter til at bruge en bred vifte af sensorer, for at bygge redundans ind i deres systemer. Cyklister, mindst, vil takke dem for det.
(Læs mere: “Robot Biler Kan Lære at Køre uden at Forlade Garagen,” “selvkørende Biler” Spinning-Laser Problem,” “Tesla Nedbrud Vil Forme Fremtiden for Automatiserede Biler”)