Maskinseende är grunden för självkörande bilar och är avgörande för en helt autonom framtid.

Viktiga takeaways

  • Självkörande bilar är beroende av maskinseendeteknik för att se och förstå sin omgivning, vilket gör att de kan upptäcka föremål, identifiera skyltar och navigera på vägen.
  • Maskinseende i självkörande bilar består av ett kamerasystem, edge computing och AI-algoritmer, som arbetar tillsammans för att samla in visuell information, bearbeta den i realtid och identifiera mönster och föremål.
  • Maskinseende är avgörande för att uppnå full autonomi i självkörande bilar, eftersom det möjliggör objektklassificering, fil- och signaldetektering, skyltidentifiering och trafikigenkänning. Framtiden för autonoma fordon ligger i framsteg inom AI, edge computing och kamerateknik.

Självkörande bilar har alltid väckt uppmärksamhet. Även om vi kanske inte har helt autonoma bilar ännu, har vi bilar med avancerade förarassistanssystem (ADAS) som kan styra automatiskt, byta fil, parkera och trafikmedveten farthållare.

instagram viewer

En självkörande bil använder många sensorer för sin ADAS, där maskinseende är det primära sättet att upptäcka, identifiera och beräkna avståndet mellan föremål och den allmänna omgivningen. Utan maskinseende är självkörande bilar med farthållare och autopilot mycket osannolika.

Vad är Machine Vision?

Machine vision är en teknik som gör att maskiner kan se och känna igen föremål i sin omgivning. Det är en delmängd av datorseende som fokuserar på industriella tillämpningar av synorienterad objektdetektering i autonoma maskiner som robotar och fordon.

Machine vision använder idag AI djupinlärningsalgoritmer som faltningsneurala nätverk (CNN) att skapa robusta och välgeneraliserade modeller som exakt kan identifiera objekt i olika betingelser. Det gör det möjligt att implementera maskinseende på olika uppgifter som kräver högre tillförlitlighet inom tillverkning, lantbruk, robotteknik och fordon.

Hur fungerar maskinseende i självkörande bilar?

Maskinseende i självkörande bilar kan vanligtvis delas upp i tre delar: kamerasystemet, bearbetning (kantberäkning) och AI. Denna teknikstack gör att ett autonomt fordon kan se, tänka och identifiera tecken och hinder under körning. Låt oss diskutera varje del på djupet för att förstå hur dessa teknologier knyter samman för att bilda en självkörande bils maskinvision.

Kamerasystem

Maskinseende förlitar sig på kamerasystem för att samla in visuell information om miljön. Självkörande bilar använder flera kameror installerade runt bilen för att samla in så mycket visuell information som möjligt.

Två huvudsensorer används i maskinseendekameror: komplementära metalloxidhalvledare (CMOS) och laddningskopplade enheter (CCD). För självkörande bilar är CMOS ofta att föredra för sin snabba avläsningshastighet, kraftfulla ombord elektronik och parallella bearbetningsmöjligheter, vilket gör den till den snabbare sensorn, även om den är utsatt för brus eller artefakter. Lösningar, såsom olika ljuslägen, digitalt mörkerseende och filter, kan hjälpa CMOS-sensorn under mindre än idealiska ljusförhållanden.

För självkörande bilar installeras kameror på vissa avstånd från varandra för att producera stereoskopisk syn. Stereoskopisk syn är förmågan att kombinera två eller flera visuella input, vilket skapar en känsla av djup eller tredimensionalitet i objekt och miljö. Detta gör i sin tur att bilar kan triangulera och beräkna det ungefärliga avståndet mellan objektet och bilen.

Eftersom människor har två ögon, har vi också nytta av stereoskopisk syn. Du kan testa det själv; stäng ena ögat och välj ett litet föremål från ditt skrivbord. Placera handen på objektets sida och se till att spetsen av objektet är minst två tum bort. Testa att pausa i några sekunder och se hur säker du är med din uppskattning. Försök nu att öppna båda ögonen och se hur din känsla av djup är mycket bättre.

Edge dator

Medan kamerasystemet på den självkörande bilen samlar in data, en inbyggd dator (kantprocessor) kommer att bearbeta alla indata i realtid för att uppdatera systemet om miljöns status omedelbart. Även om typiska maskinseendeuppgifter kan spara pengar med hjälp av cloud computing, finns det helt enkelt för mycket risk för att självkörande bilar kopplas till molnet, även om det handlar om att outsourca processen i dess krav på maskinseende.

Att använda en edge-dator för att bearbeta indata eliminerar latensproblem och säkerställer att data tas emot, bearbetas och kommuniceras i realtid. Edge-datorer för självkörande bilar använder specialiserade datorer som integrerar AI-grafikprocessorer som NVIDIAs Tensor Core och CUDA Cores.

AI-algoritmer

Algoritmer har alltid varit en avgörande del av maskinseende. Algoritmen är det som gör att en dator kan identifiera alla mönster, former och färger som kamerasystemet tillhandahåller. Att använda AI över mer traditionella maskinseendealgoritmer förbättrar avsevärt förmågan hos en självkörande bil att på ett tillförlitligt sätt identifiera föremål, gatuskyltar, vägmarkeringar och trafikljus. Många AI-algoritmer används för att träna självkörande bilar. De mest populära inkluderar:

  • YOLO (Du tittar bara en gång): En objektdetekteringsalgoritm i realtid som identifierar och spårar objekt i bilens synfält.
  • SIFT (Scale-Icarsant Feature Transform): Används för att extrahera funktioner och hjälper bilen att känna igen särskiljande landmärken och föremål i sin omgivning.
  • Histogram of Oriented Gradients (HOG): Används för objektigenkänning och fokuserar på att extrahera lokala mönster och gradienter från bilder.
  • TextonBoost: En algoritm som hjälper till med objektigenkänning genom att analysera texturer i miljön.
  • AdaBoost: AdaBoost används för dataklassificering och kombinerar flera svaga klassificerare för att fatta starka beslut om objekt och hinder i fordonets väg.

Vikten av maskinseende i självkörande bilar

Bildkredit: Automobile Italia/Flickr

Maskinseende är det primära sättet för en självkörande bil att känna av och förstå sin omgivning. Utan maskinseende är det mycket troligt att självkörande bilar kommer att tryckas tillbaka till nivå 1 på fordonsautonomiskala och kanske aldrig nå full autonomi.

Med maskinseende kan självkörande bilar nu objektklassificering, fil- och signaldetektering, skyltidentifiering och trafikigenkänning.

Även om många självkörande fordon nu använder olika sensorer, såsom LIDAR, RADAR och SONAR, är alla mycket beroende av maskinseende för att se miljön, identifiera föremål och förstå innebörden av skyltar och trafikljus på väg. Alla dessa extra sensorer är bara till för att förbättra maskinseendet och främja säkerheten för människor, djur och egenskaper.

Med det sagt kan maskinseende fungera oberoende utan hjälp av andra sensorer för att ge autopilotfunktioner. Faktum är att Teslas nyaste självkörande bilar tappade RADAR och förlitar sig nu enbart på maskinseende för sitt autopilotsystem.

Även om detta inte betyder något i termer av att misskreditera användbarheten av andra sensorteknologier, visar det vikten och kraften hos maskinseende i självkörande bilar.

Framtiden för maskinseende i autonoma fordon

Maskinseende är grunden för självkörande bilar. Genom maskinseende kan bilar se och uppfatta miljön precis som människor gör. Även om utmaningarna kvarstår, kan fördelarna med maskinseende när det gäller säkerhet och navigering inte underskattas. När det gäller framtiden för autonoma fordon, eventuella ytterligare framsteg inom AI, edge computing och/eller kamera teknik kommer säkerligen att göra självkörande bilar mer skickliga, vilket sannolikt kommer att flytta dem till en högre nivå av automatisering.