HDR-tekniken är nu så utbredd att populära streamingtjänster som Amazon Prime, Disney+ och Netflix har börjat stödja HDR-innehåll. Faktum är att om du skulle leta efter en ny TV eller bildskärm idag, skulle du bli förvånad över hur nästan varje produkt har HDR på sin spec-lista.
Vilket väcker frågan: vad är HDR exakt? Hur fungerar HDR och hur jämför det med vanliga SDR?
Vad är SDR?
Standard Dynamic Range (SDR) är en videostandard som har använts sedan CRT-skärmar. Trots marknadsframgångarna för HDR-skärmteknik, SDR är fortfarande standardformatet som används i TV-apparater, bildskärmar och projektorer. Även om det användes i gamla CRT-skärmar (och faktiskt hämmas av begränsningarna för CRT-teknik), är SDR fortfarande ett acceptabelt format idag. Faktum är att den stora majoriteten av videoinnehåll, oavsett om det är spel, filmer eller YouTube-videor, fortfarande använder SDR. I grund och botten, om enheten eller innehållet inte är klassificerat som HDR, använder du förmodligen SDR.
Vad är HDR?
High Dynamic Range (HDR) är den nyare standarden för bilder och videor. HDR blev först populärt bland fotografer som ville exponera en komposition korrekt med två motiv med en 13-stegs skillnad i exponeringsvärde. Ett så brett dynamiskt omfång skulle tillåta korrekt exponering för verkliga scener som tidigare inte var möjliga med SDR.
På senare tid introducerades HDR för filmer, videor och till och med spel. Medan SDR-innehåll gav överblåsta himmel, oskiljbara svarta och bandningsproblem under scener med hög kontrast, HDR skildrar dessa scener realistiskt med en mer expansiv färgrymd, färgdjup, och luminans.
Bredare färgrymd, större färgdjup och högre luminans gör HDR bättre än SDR – men hur mycket?
Jämföra HDR vs. SDR
Om du någonsin har varit på marknaden för en bildskärm har du förmodligen lagt märke till vissa specifikationer som sRGB, nits och cd/m2 och 10-bitars färger. Dessa specifikationer gäller färgrymd, luminans och färgdjup. Alla dessa specifikationer är vad som gör levande, välblandade och tillräckligt exponerade motiv inuti en bild.
För att bättre förstå skillnaden mellan HDR och SDR, låt oss jämföra de två genom deras färgomfång, ljusstyrka och färgdjup. Låt oss börja med färgomfånget.
Färgskala
Ett färgomfång är ett teoretiskt spektrum av färger som kan porträtteras digitalt. För att representera alla möjliga färger som ögonen kan se använder industrin det som kallas CIE 1931 kromaticitetsdiagram. Detta diagram är standarden som olika färgrymder jämförs med. SDR använder en färgrymd som heter Rec 709 och HDR med Rec 2100. Triangeln representerar hur mycket utrymme de använder genom illustrationen nedan:
Som du kan se är färgrymden som används av HDR: s Rec 2100 betydligt större än den för SDR: s Rec 709.
Med den stora färgrymden hos HDR kommer filmskapare och olika innehållsskapare att ha ett betydligt större spektrum av gröna, röda och gula för att korrekt och konstnärligt skildra sitt arbete. Detta innebär att tittare som tittar på HDR kommer att se mer levande färger, särskilt i grönt, gult, rött och allt mellan dem.
När det gäller SDR, eftersom färgrymden har proportionerliga mängder primärfärger, kan färgsättare fortfarande skildra sitt arbete vackert, om än med betydande begränsningar.
Ljusstyrka
Du har sett färgomfånget porträtterat i 2D som det som användes tidigare. Men hela CIE 1931-färgrymden är faktiskt ett 3D-diagram. Den tredje dimensionen i diagrammet representerar färgens upplevda ljusstyrka. Ljusstyrka, tillsammans med mättnad, är det som ändrar kvaliteten på färg som människor kan se.
En skärm som kan mata ut högre mängder luminans är mer kapabel att modifiera alla nyanser som 2D-färgbilden representerar och kan således visa mer färg som är synlig för mänskliga ögon. Luminans mäts i nits eller candela/m2.
SDR kan mata ut 100nits eller 100cd/m2. Däremot kan HDR10 (den vanligaste HDR-standarden) mata ut upp till 1 000 nits. Detta innebär att titta i HDR10 kan tillåta tittarna att se fler varianter av primära och sekundära färger.
Färgdjup
Även om de mänskliga ögonen ser allt i analogt, måste digitala skärmar efterlikna dessa analoga ljusvågor i digitala bitar för att processorer ska kunna återskapa. Dessa bitar av digital information är kända som färgdjup eller färgbitar.
Det mänskliga ögat använder perception för att se olika färger. Digitala skärmar använder färgdjup eller bitdjup för att instruera en pixel om vilken färg som ska visas. Ju mer en pixel kan blinka, desto fler färger kan den visa.
SDR kan visa 8-bitars färg, vilket innebär att en pixel kan visa en primärfärg i 256 varianter. Eftersom det finns tre primärfärger kan en 8-bitarspanel visa maximalt 16 777 216 färgnyanser.
För att sätta det i perspektiv kan det mänskliga ögat bara urskilja omkring 10 miljoner färger. Detta betyder att SDR är mycket kapabel att visa färger som våra mänskliga ögon kan se, varför 8-bitars färg fortfarande är standarden för visuella medier idag.
Däremot kan HDR10 göra ett färgdjup på 10-bitar, vilket tillåter maximalt 1,07 miljarder färgnyanser!
Imponerande, men eftersom det mänskliga ögat bara kan urskilja runt 10 miljoner färger, är inte ett 10-bitars färgdjup överkill? Kan du ens se skillnaden?
Ja, det kunde man absolut! Men hur?
Människor kan uppfatta fler färger med ett 10-bitars djup eftersom det mänskliga ögat inte uppfattar färgtonerna lika.
Om du tittar på CIE 1931 kromaticitetsskalan (bilden ovan) kan du se att det mänskliga ögat kan se mycket mer grönt och rött än blått. Även om ett 8-bitars färgdjup nära nog kan maximera alla blåtoner som dina ögon kan uppfatta, kan det inte göra detsamma med rött, och speciellt med grönt. Så även om du kommer att se ungefär samma intervall av blått i 8 och 10-bitars, kommer andra primära färger som röda och gröna att visa mer på ett system som använder ett 10-bitars färgdjup.
För- och nackdelar med HDR och SDR
HDR och SDR är två standarder som används i visuella digitala medier. Att använda en standard från en annan kommer att ha sina gator och svagheter. Här är en tabell som visar hur den ena jämförs med den andra:
När det gäller färg och display är HDR bättre än SDR på alla sätt. Det ger betydande förbättringar i färgrymd, luminans och färgdjup. Så om du har chansen att titta på filmer, se bilder eller spela spel i HDR bör du alltid göra det – men kan du det?
Problemet med HDR är att de flesta förbrukningsbara media inte är HDR-kompatibla. Att titta på HDR-media på en SDR-skärm kommer ofta att göra din tittarupplevelse sämre än att titta på den på en vanlig SDR-panel.
Ett annat problem är att de flesta HDR-enheter använder HDR10, som är löst standardiserad, medan marknadsföringen i stort sett är enhetlig. Till exempel hittar du HDR10-logotypen på en subpar panel som inte kan prestera lika bra som panelen på 1 000 nits som visas i HDR10-annonser.
Även om SDR tillhandahåller de vanliga visningsstandarderna och inte kan konkurrera med HDR när det fungerar, är dess användarvänlighet, kompatibilitet och lägre kostnad varför många fortfarande föredrar att använda det.
Du behöver både HDR och SDR
Nu när du vet skillnaden mellan SDR- och HDR-standarder blir det uppenbart att HDR är den klara vinnaren när det kommer till att titta på underhållande innehåll. Detta betyder dock inte att du ska sluta använda SDR. Sanningen är att SDR fortfarande är den bättre standarden att använda när du inte tittar på eller spelar HDR-specifikt innehåll.
Om du köper en ny skärm skulle det vara klokt att investera i en dyrare HDR-kompatibel panel eftersom den låter dig se både HDR- och SDR-innehåll. Eftersom SDR-innehåll ser dåligt ut i HDR10 kan du alltid stänga av HDR när du tittar på, spelar eller tittar på SDR-innehåll och applikationer.
Förhoppningsvis ger det dig en uppfattning om hur stor inverkan HDR har på bordet. Även om SDR fortfarande kommer att vara så som du kan njuta av olika innehåll, är det bara en tidsfråga tills HDR får bättre stöd. Då kommer det troligen att vara den framtida standarden som alla använder.