Teslas autonoma körteknik brukade förlita sig på både kameror och radar, men den lade bort det senare och antog ett nytt tillvägagångssätt som heter Tesla Vision.

Självkörande fordon använder olika sensortyper, såsom ljusdetektion och avståndsteknik (LiDAR) för att mäta långa variabel räckvidd, ultraljudssensorer för korta avstånd och radar, som liknar LiDAR, men förlitar sig på radiovågor istället för lasrar.

Självkörande teknikledare som General Motors, Waymo och Mercedes-Benz förlitar sig alla på sensorer, men inte Tesla. Den Texas-baserade biltillverkaren använde både radar och kameror för att göra sitt semiautonoma körsystem Autopilot möjligt, men från och med maj 2021 tillkännagav att det släppte radarn för Model 3 och Model Y i Nordamerika, och flyttade sitt fokus till en enbart kamerabaserad strategi som den kallade Tesla Vision.

Men vad var skälen bakom Teslas beslut att ta bort radar- och ultraljudssensorer från sina bilar och inte ens överväga LiDAR eller kartor? Låt oss utforska detta ämne ytterligare.

instagram viewer

Datorvision: Teslas plan

Bildkredit: Tesla

Tesla har utvecklat sitt eget datorseendesystem, kallat Tesla Vision, för att beräkna vad Teslas självkörande bil ser. Baserat på Nvidias CUDA, som är en parallell datorplattform designad för grafikprocessorer (GPU), driver detta system från slut till ände Teslas autopilot och självkörande teknologi. Den förlitar sig på datorseende för att förstå den visuella information som samlas in av fordonets kameror.

I stället för att använda LiDAR, innebär Teslas tillvägagångssätt att träna datorn att känna igen och tolka den visuella världen, med målet att uppnå autonoma köregenskaper. Tillverkaren säger att den dramatiskt kan påskynda träningsprocessen tack vare sin användning av maskininlärning och sitt alldeles egna neurala nätverk, som körs på en superdator som heter Dojo.

Kostnadsminskning

Teslas övergång från sensorbaserade tillvägagångssätt till datorseende är främst motiverat av kostnader. Tesla strävar efter att sänka fordonspriserna genom att minimera antalet delar som krävs. Att eliminera delar kan dock utgöra en utmaning när systemet inte kan fungera utan dem, och Tesla fick mycket kritik när de meddelade att de skulle ta bort radar från sina bilar.

En forskningsartikel från Cornell University antyder att stereokameror har potential att generera en 3D-karta som är nästan lika exakt som en LiDAR-karta. Detta presenterar en intressant poäng, eftersom det indikerar att istället för att investera $7 500 i en LiDAR-enhet, kan man använda några kameror som är mycket billigare och kostar bara $5. Som ett resultat, när Tesla hävdar att sådan teknik kan bli föråldrad inom en snar framtid, kan det vara på något.

Den andra sidan av myntet är att efter att ha tagit bort radarstödet upplevde Teslas autopilotsystem flera nedgraderingar av funktioner som tog månader att återställa. Dessutom, många Tesla-ägare har rapporterat problem med no-radar-systemet, såsom frekventa "fantombromsningar" där fordonet bromsar i onödan för obefintliga hinder.

Även om många företag anser att sensorer som LiDAR och radar är avgörande för pålitlig självkörning, har Tesla valt datorseende på grund av dess potential för snabbare utveckling. Medan LiDAR och radar kan upptäcka hinder med hög noggrannhet idag, kräver kameror fortfarande ytterligare förfining för att uppnå samma nivå av tillförlitlighet. Icke desto mindre tror Tesla att datorseendet är vägen framåt.

Lägre komplexitet

Även om ett större antal sensorer kan erbjuda många fördelar, inklusive förbättrad datahantering genom skicklig sensorfusion, har det också betydande nackdelar. Det ökade antalet sensorer kan leda till skapandet av mer komplicerad programvara. Komplexiteten i datapipelines ökar också, och försörjningskedjan och produktionsprocesserna under fordonsmonteringen blir svårare.

Dessutom måste sensorer justeras och deras motsvarande mjukvara underhållas. Korrekt kalibrering är också viktigt för att säkerställa att fusionsprocessen fungerar korrekt.

Trots de potentiella fördelarna med fler sensorer kan kostnaden och komplexiteten för att integrera dem i ett system inte förbises. Teslas beslut att minska antalet sensorer i sina fordon visar avvägningen mellan fördelarna och nackdelarna med att införliva fler sensorer.

Kod mångsidighet

Kreditera: Tesla

Kodmängdighet är ett vanligt problem inom mjukvaruutveckling, där onödig komplexitet och längd kan göra kod svår att förstå och underhålla. I Teslas fall ökar användningen av radar- och ultraljudssensorer kodens omfång, vilket leder till bearbetningsförseningar och ineffektivitet.

För att mildra detta problem använde den datorseendet för att minimera mångfalden, förbättra mjukvarans prestanda och tillförlitlighet, samt ge en bättre användarupplevelse för sina kunder.

Elon Musks filosofi

Kreditera: Tesla/YouTube

Elon Musk, Teslas grundare, har en unik filosofi när det gäller att designa och tillverka elfordon. Den "bästa delen är ingen del"-mentalitet är central i hans tillvägagångssätt, som syftar till att reducera komplexitet, kostnader och vikt där det är möjligt. Detta är uppenbart i Tesla-fordon, som kännetecknas av sin minimalistiska design och användarvänliga gränssnitt.

En aspekt av denna filosofi är beslutet att ta bort sensorer från Tesla-fordon och inte överväga användningen av LiDAR-teknik. Medan vissa konkurrenter förlitar sig på LiDAR-sensorer för att hjälpa sina självkörande bilar att se världen omkring dem, har Musk kritiserat detta tillvägagångssätt som ett dåraktigt ärende. Han har också sagt att alla företag som förlitar sig på den här typen av teknik är dömda. Han menar att LiDAR är för dyrt och att det är för kostsamt att kartlägga världen och hålla den uppdaterad. Tesla fokuserar istället på visionbaserade system, som han anser är mer effektiva och kostnadseffektiva.

Enligt Musk är vägar designade för att tolkas med syn, och Teslas teknologi är optimerad för att förlita sig på kameror och andra synbaserade sensorer för att navigera i världen. Det innebär också att fordon som bara har kameror också kommer att kunna anpassa sig till nya vägförhållanden bättre än system som kräver omfattande förkartade datamängder för att fungera.

Men pratar med Electrek, Musk sa att han inte är ovillig att använda radar, men han tror att den nuvarande kvaliteten på radar inte är upp till noll. "En radar med mycket hög upplösning skulle vara bättre än [Tesla Vision], men en sådan radar finns inte", sa han. "Jag menar, Vision med högupplöst radar skulle vara bättre än ren Vision." När tekniken förbättras och priset sjunker kan vi se radar återintegreras i Teslas bilar.

Kommer sensorer att fasas ut?

I en Forbes intervju med Zoox (Amazons självkörande dotterbolag) VD Jesse Levinson, ämnet för Teslas beslut att överge sensorer i sina bilar diskuterades. Levinson erkände att det kan vara komplext och bullrigt att lägga till fler sensorer, men menade att fördelarna överväger kostnaderna.

Med mer utveckling kan enbart syn så småningom räcka, men datorer saknar samma kapacitet som den mänskliga hjärnan. Tesla har fortfarande mycket arbete framför sig om man någonsin vill skapa fordon som helt kör sig själva utan förarens input.