Apples nya headset kommer med ett helt nytt chip.

Vision Pro kommer med nytt Apple-kisel, R1-chippet, dedikerat till realtidsdatabehandling från alla sensorer ombord. Det är ansvarigt för ögon-, hand- och huvudspårning, fördröjningsfri rendering av användarens miljö i videopassthrough-läge och andra visionOS-funktioner.

Genom att avlasta bearbetningsbördan från huvudprocessorn och optimera prestandan minskar R1 åksjuka till omärkliga nivåer, oavsett om du använder headsetet i förstärkt verklighet eller virtuell verklighet läge. Låt oss utforska hur Apple R1-chippet fungerar och jämförs med det huvudsakliga M2-chippet, Vision Pro-funktionerna som det möjliggör och mer.

Vad är Apples R1-chip? Hur fungerar det?

Apple R1, inte det huvudsakliga M2-chippet, bearbetar en kontinuerlig ström av realtidsdatamatning till Vision Pro med sina tolv kameror, fem sensorer och sex mikrofoner.

Bildkredit: Äpple

Två externa huvudkameror spelar in din värld och skjuter över en miljard pixlar till headsetets 4K-skärmar varje sekund. Dessutom spårar ett par sidokameror, tillsammans med två bottenmonterade kameror och två infraröda belysningsinstrument, handrörelser från ett brett spektrum av positioner – även i svagt ljus.

instagram viewer

De utåtvända sensorerna inkluderar även LiDAR-skannern och Apples TrueDepth-kamera som fångar en djupkarta över din omgivning, vilket gör att Vision Pro kan positionera digitala objekt exakt i din Plats. På insidan spårar en ring av lysdioder runt varje skärm och två infraröda kameror dina ögonrörelser, vilket utgör grunden för visionOS-navigering.

R1 har till uppgift att behandla data från alla dessa sensorer, inklusive tröghetsmätenheterna, med omärklig fördröjning. Detta är av yttersta vikt för att göra den rumsliga upplevelsen smidig och trovärdig.

Hur är Apple R1 jämfört med M1 och M2?

Bildkredit: Äpple

M1 och M2 är processorer för allmänna ändamål optimerade för Mac-datorer. R1 är en samprocessor med smalt fokus designad för att stödja smidiga AR-upplevelser. Den gör sitt jobb snabbare än M1 eller M2 kunde, vilket möjliggör förmåner som en fördröjningsfri upplevelse.

Apple har inte specificerat hur många CPU- och GPU-kärnor R1 har och inte heller specificerat CPU-frekvensen och RAM-minnet, vilket gör en direkt jämförelse mellan R1, M1 och M2 svår.

R1:s primära domäner är ögon- och huvudspårning, handgester och 3D-kartläggning i realtid via LiDAR-sensorn. Genom att ladda ner dessa beräkningsintensiva operationer kan M2 köra de olika visionOS-undersystemen, algoritmerna och apparna effektivt.

Nyckelfunktionerna i Vision Pro: s R1-chip

R1 har dessa nyckelfunktioner:

  • Snabb bearbetning: De specialiserade algoritmerna och bildsignalbehandlingen i R1 är optimerade för att förstå sensor-, kamera- och mikrofoningångar.
  • Låg latens: Optimerad hårdvaruarkitektur resulterar i mycket låg latens.
  • Effekteffektivitet: R1 hanterar en viss uppsättning uppgifter samtidigt som den använder minimal energi, tack vare dess effektiva minnesarkitektur och TSMC: s 5nm tillverkningsprocess.

På minussidan bidrar Vision Pro: s design med dubbla chip och R1:s sofistikerade till headsetets höga pris och två timmars batteritid.

Vilka förmåner ger R1 till Vision Pro?

R1 möjliggör exakt ögon- och handspårning som "bara fungerar." För att till exempel navigera i visionOS riktar du blicken mot knappar och andra element.

Bildkredit: Äpple

Vision Pro använder handgester för att välja objekt, bläddra och mer. Sofistikeringen och precisionen i ögon- och handspårning har gjort det möjligt för Apples ingenjörer att skapa ett mixed-reality-headset som inte kräver några fysiska kontroller.

R1:s spårningsprecision och minimala fördröjning möjliggör ytterligare funktioner, som luftskrivning på det virtuella tangentbordet. R1 driver också tillförlitlig huvudspårning – avgörande för att skapa en rumslig datoranvändning som omger användaren. Återigen, precision är nyckeln här – du vill att alla AR-objekt ska behålla sin position oavsett hur du lutar och vrider på huvudet.

Bildkredit: Äpple

Rumslig medvetenhet är en annan faktor som bidrar till upplevelsen. R1 tar djupdata från LiDAR-sensorn och TrueDepth-kameran och utför 3D-mappning i realtid. Djupinformation låter headsetet förstå sin miljö, som väggar och möbler.

Detta är i sin tur viktigt för AR-beständighet, vilket hänvisar till den fasta placeringen av virtuella objekt. Det hjälper också Vision Pro att meddela användaren innan de stöter på fysiska föremål, vilket hjälper till att minska risken för olyckor i AR-applikationer.

Hur mildrar R1 Sensor Fusion AR-rörelsesjuka?

Vision Pros design med dubbla chip laddar bort sensorbearbetning från M2-huvudkretsen, som kör operativsystemet visionOS och appar. Enligt Vision Pro pressmeddelandeströmmar R1 bilder från de externa kamerorna till de interna skärmarna inom 12 millisekunder, eller åtta gånger snabbare än ett ögonblick, vilket minimerar fördröjningen.

Fördröjning avser latensen mellan vad kamerorna ser och bilderna som visas på headsetets 4K-skärmar. Ju kortare fördröjning, desto bättre.

Åksjuka uppstår när det finns en märkbar fördröjning mellan input som din hjärna får från dina ögon och vad ditt inneröra känner. Det kan uppstå i många situationer, inklusive i en nöjespark, på en båt eller kryssning, medan du använder en VR-enhet, etc.

VR kan göra människor sjuka på grund av sensorisk konflikt, vilket resulterar i symtom vid åksjuka som desorientering, illamående, yrsel, huvudvärk, ansträngda ögon, sittplatser, kräkningar och andra.

VR kan också vara dåligt för dina ögon på grund av ansträngda ögon, vars symtom inkluderar ömma eller kliande ögon, dubbelseende, huvudvärk och ont i nacken. Vissa människor kan känna ett eller flera av sådana symtom i flera timmar efter att ha tagit av sig headsetet.

Som en tumregel bör en VR-enhet uppdatera skärmen minst 90 gånger per sekund (FPS), och skärmfördröjningen bör vara under 20 millisekunder för att undvika att folk åksjuka.

Med den angivna fördröjningen på bara 12 millisekunder, minskar R1 fördröjningen till en omärklig nivå. Medan R1 hjälper till att minimera effekterna av åksjuka, rapporterade vissa Vision Pro-testare symtom på åksjuka efter att ha haft headsetet på sig i över 30 minuter.

Specialiserade Apple Silicon Coprocessors ger stora fördelar

Apple är inte främmande för specialiserade processorer. Under åren har dess kiselteam producerat mobila och stationära chips som är avundsjuka i branschen.

Apples kiselchips är starkt beroende av specialiserade samprocessorer för att hantera specifika funktioner. Secure Enclave hanterar till exempel biometriska data och betalningsdata säkert, medan Neural Engine accelererar AI-funktioner utan att förstöra batteriet.

De är perfekta exempel på vad som kan uppnås genom att ha en mycket fokuserad samprocessor för rätt uppsättning uppgifter kontra. använder huvudprocessorn för allt.