På senare tid har det varit så mycket surr kring LiDAR på nya Apple-enheter att det är lätt att glömma att mobil Augmented Reality kan fungera på något annat sätt. Men det kan och gör, särskilt med ToF-verktygen som når nya höjder i Samsung-telefoner.

Oavsett om du är en utvecklare, på marknaden för en ny enhet eller bara nyfiken, är det värt att ta lite tid att packa upp dessa akronymer och lära sig ins-and-outs av mobiltelefonens djupavkänning.

Vad är ToF?

ToF är förkortning för Time of Flight.

Tekniskt hänvisar ToF till att använda ljusets hastighet (eller till och med ljud) för att bestämma avstånd. Den mäter den tid det tar för ljus (eller ljud) att lämna enheten, studsa av ett föremål eller plan, och återgå till enheten, allt delat med två avslöjar avståndet från enheten till objektet eller plan.

Så förhållandet är att alla LiDAR är en typ av kamptid, men inte alla flygtid är LiDAR. För att göra det enkelt, när vi pratar om "ToF" menar vi optisk avståndsmätning, inte inklusive LiDAR.

instagram viewer

Så, om LiDAR och optisk icke-LiDAR ToF båda använder ljus för avståndsbestämning och 3D-kartläggning, hur är de olika?

Vad är LiDAR?

LiDAR är en förkortning för Ljuddetektering och rangering. Denna teknik använder en laser eller ett nät av lasrar som ljuskälla i ekvationen som beskrivs ovan.

Vad är Lidar och hur fungerar det?

Letar du efter en ny smartphone? Vill du ha de bästa funktionerna? Då kanske du vill överväga en smartphone med LiDAR.

En enda LiDAR-avläsning kan användas för att mäta saker som bredden på ett rum, men flera LiDAR-avläsningar kan användas för att skapa "punktmoln." Dessa kan användas för att skapa tredimensionella modeller av objekt eller topografiska kartor över hela områden.

Även om LiDAR kan vara nytt för mobila enheter, har själva tekniken funnits ganska länge. I icke-mobila miljöer används LiDAR för att göra allt från att kartlägga undervattensmiljöer till att upptäcka arkeologiska platser.

Hur är LiDAR och ToF olika?

Den funktionella skillnaden mellan LiDAR och andra former av ToF är att LiDAR använder pulserade lasrar för att bygga ett punktmoln, som sedan används för att konstruera en 3D-karta eller bild. ToF-applikationer skapar "djupkartor" baserade på ljusdetektering, vanligtvis via en vanlig RGB-kamera.

Fördelen med ToF över LiDAR är att ToF kräver mindre specialutrustning så att den kan användas med mindre och billigare enheter. Fördelen med LiDAR kommer från den lätthet som en dator kan läsa ett punktmoln jämfört med en djupkarta.

De Djup-API som Google skapade för Android-enheter fungerar bäst på ToF-aktiverade enheter och fungerar genom att skapa djupkartor och känna igen "-funktionen punkter. "Dessa särdragspunkter, ofta barriärer mellan olika ljusintensiteter, används sedan för att identifiera olika plan i miljö. Detta skapar i grunden ett punktmoln med lägre upplösning.

Hur ToF och LiDAR fungerar med Mobile AR

Djupkartor och punktmoln är coola, och för vissa människor och applikationer räcker det. För de flesta AR-applikationer måste dessa data emellertid kontextualiseras. Både ToF och LiDAR gör detta genom att arbeta tillsammans med andra sensorer på den mobila enheten. Specifikt måste dessa plattformar förstå din telefons orientering och rörelse.

Att förstå enhetens plats inom en mappad miljö kallas Simultan lokalisering och kartläggning, eller "SLaM." SLaM används för andra applikationer som autonoma fordon, men det är mest nödvändigt för mobilbaserade AR-applikationer att placera digitala objekt i den fysiska miljön.

Detta gäller särskilt för upplevelser som förblir på plats när användaren inte interagerar med dem och för att placera digitala objekt som verkar ligga bakom fysiska människor och objekt.

En annan viktig faktor för placering av digitala objekt i både LiDAR- och ToF-baserade applikationer innebär "ankare". Ankare är digitala punkter i den fysiska världen som digitala objekt är till "bifogad."

I applikationer i världsskala som Pokemon Go görs detta genom en separat process som heter "Geotagging." Men i mobilbaserade AR-applikationer är det digitala objektet förankrat till punkter i ett LiDAR-punktmoln eller en av funktionspunkterna på en djupkarta.

Är LiDAR bättre än ToF?

Strikt taget är LiDAR snabbare och mer exakt än flygtiden. Detta blir dock mer betydelsefullt med mer tekniskt avancerade applikationer.

Till exempel har ToF och Googles Djup-API svårt att förstå stora plan med låg struktur som vita väggar. Detta kan göra det svårt för applikationer som använder denna metod att placera digitala objekt på vissa ytor i den fysiska världen. Applikationer som använder LiDAR är mindre benägna att ha detta problem.

Det är dock osannolikt att applikationer som involverar större eller mer texturellt varierade miljöer har detta problem. Dessutom innebär de flesta mobilbaserade AR-applikationer för konsumenter att man använder en AR-filter på användarens ansikte eller kropp—En applikation som sannolikt inte kommer att stöta på problem på grund av stora otexturerade ytor.

Varför använder Apple och Google olika djupgivare?

När de släppte sina LiDAR-kompatibla enheter, Äpple sa att de inkluderade sensorerna samt annan hårdvara för att "öppna fler pro-arbetsflöden och stödja pro-foto- och videoappar." Släppet kallade också deras LiDAR-kompatibla iPad Pro "världens bästa enhet för förstärkt verklighet" och spionerade Apples mätappar.

Google har inte gett sådana direkta förklaringar till varför deras djup-API och den nya raden stödjande enheter inte använder LiDAR. Förutom att arbeta runt LiDAR, hålla Android-enheter lättare och mer prisvärda, finns det också en stor tillgänglighetsfördel.

Eftersom Android fungerar på mobila enheter tillverkade av flera företag, skulle LiDAR-modeller gynna LiDAR-kompatibla modeller på bekostnad av alla andra. Dessutom, eftersom det bara kräver en standardkamera, är Depth API bakåtkompatibel med fler enheter.

Faktum är att Googles djup-API är enhetsagnostiskt, vilket betyder att utvecklare använder Googles AR-erfarenhetsbyggande plattform kan utveckla upplevelser som också fungerar på Apple-enheter.

Har du utforskat djupavkänning?

Den här artikeln har främst fokuserat på LiDAR och ToF i mobilbaserade AR-upplevelser. Det beror till stor del på att dessa mer komplexa upplevelser kräver mest förklaring. Det beror också på att dessa upplevelser är roligast och mest lovande.

Dypavkänningsmetoder som dessa är dock grunden för många enklare och mer praktiska upplevelser och verktyg du kan använda varje dag utan att tänka mycket. Förhoppningsvis kommer att läsa upp ToF och LiDAR ge dig lite mer uppskattning för dessa applikationer.

E-post
De 10 bästa verktygen för din iPhone: Linjal, nivå och avståndsmätning

Behöver du en iPhone-linjal för att mäta vardagliga föremål? Med dessa iPhone-verktygsappar kan du mäta avstånd, längd och mer.

Relaterade ämnen
  • Teknik förklaras
  • Android
  • iPhone
  • Augmented Reality
  • Virtuell verklighet
  • Smarttelefonkamera
Om författaren
Johnathan Jaehnig (32 artiklar publicerade)

Jon Jaehnig är en frilansande författare / redaktör som är intresserad av exponentiell teknik. Jon har en BS i vetenskaplig och teknisk kommunikation med en minor i journalistik från Michigan Technological University.

Mer från Johnathan Jaehnig

Prenumerera på vårt nyhetsbrev

Gå med i vårt nyhetsbrev för tekniska tips, recensioner, gratis e-böcker och exklusiva erbjudanden!

Ett steg till…!

Bekräfta din e-postadress i e-postmeddelandet som vi just skickade till dig.

.