Warum das HDR-Chaos ein Ende nehmen muss

2022-11-03 13:42:33 By : Mr. RUOYU MAO

HDR-TVs sind die Zukunft: Dank lebensechten Farben, einem großen Kontrastumfang und gezielt beleuchteten Bildteilen könnten 4K-HDR-Filme immer mehr einem Blick durch das Fenster gleichen. Oder aber HDR versinkt in einem Chaos aus verschiedenen Technologien und Standards. Wie es um HDR steht – und warum es so nicht weitergehen sollte.

Am Anfang war alles ganz einfach. Eine Aufnahme in HDR ("High Dynamic Range") ist zunächst eine Aufnahme mit hohem Kontrastumfang. Fotos und Videos in diesem Format können größere Unterschiede zwischen hellen und dunklen Bereichen darstellen als Inhalte im herkömmlichen "SDR" (Standard Dynamic Range") – von TV-Sendungen über DVDs bis hin zu regulären Blu-Ray-Filmen.

Bei SDR gehen oftmals Details verloren: Ein schneebedeckter Gipfel und der wolkenverhangene Himmel darüber verschwimmen zu einer weißen Fläche, in einer Kirche sind nur noch die von außen beleuchteten Buntglasfenster zu erkennen, und der übrige Raum ertrinkt in Grautönen. Bei einem Sonnenuntergang bekommt der Betrachter sichtbare Streifen mit leicht unterschiedlichen Farben zu Gesicht ("Color Banding") und keine fließenden Übergänge. All das soll mit HDR endlich ein Ende nehmen.

TV-Hersteller und Filmemacher entwickeln HDR-Technologien und -Standards, um dem Ziel lebensnaher Bilder nahe zu kommen. Doch nun kommt das große "Aber": Aufgrund des unbefriedigenden Stands der Technik, die das HDR-Potenzial noch nicht ausreizen kann, und der Uneinigkeit der Branche, ist leider ein kaum durchdringbares HDR-Flickwerk entstanden. Kunden, die viel Geld für einen zukunftssicheren TV auszugeben bereit sind, müssen aus Fachbegriffen wie "Dynamische Metadaten", "HDMI 2.1", "HLG" und "Dolby Vision" schlau werden.

Zu allem Überfluss werfen Hersteller zusätzlich mit nebulösen Marketing-Bezeichnungen wie "QLED", "Quantum Dots", "Triluminos", "Nano Crystal" – was fast dasselbe ist –, "Xtended Dynamic Range Pro" oder "Active HDR" um sich. Streaming-Anbieter wie Netflix und Amazon Prime Video statten längst nicht alle Wiedergabegeräte mit HDR-Support aus, die technisch dafür gerüstet sind. Fernsehsendungen in HDR-Qualität gibt es kaum. Obendrein brauchen die Interessenten weit mehr als nur einen kompatiblen TV, um HDR nutzen zu können.

Stets müssen alle beteiligten Inhalte und Geräte mit HDR kompatibel sein. Geht es um Videospiele, gilt Folgendes: Neben HDR-kompatibler Konsole oder PC-Grafikkarte, muss

Aber Gamer haben noch Glück: Mit "HDR" ist bei Videospielen stets der Standard "HDR10" gemeint.

Bei Filmen, Serien und TV-Sendungen hingegen müssen die Konsumenten auf verschiedene HDR-Standards achten. Leider existiert kein TV, der alle HDR-Standards unterstützt – und somit lassen sich bestimmte Inhalte jeweils nicht darstellen. Das wird sich in absehbarer Zukunft auch nicht ändern.

Die HDR-Standards unterscheiden sich vor allem bei Maximalhelligkeit, Farbtiefe und der Art der Metadaten. Immerhin: Der HDR-Farbraum des Standards "Rec.2020" dient für die Menge an darstellbaren Farben als einheitliche Orientierung (der neuere Standard Rec.2100 deckt denselben Farbraum ab). HDR-Filme und -Games zeigen einen größeren Teil der sichtbaren Farben an als SDR-TVs. Und an der Angabe der Farbraumabdeckung in Prozent lässt sich ablesen, wie viele HDR-Farben ein Fernseher beherrscht. Zu den Vorreitern gehört laut Rtings.com der Samsung Q7FN, der um die 80 Prozent des HDR-Farbraums abdeckt.

Schon wird es leider wieder komplizierter. Der BT.2020-Standard umfasst nämlich sowohl eine Farbtiefe von 10 Bit als auch von 12 Bit – und aktuelle HDR-TVs schaffen alle nur 10 Bit. Die "Farbtiefe" beschreibt die maximal darstellbare Menge an Farbabstufungen, etwa vom dunkelsten Dunkelblau bis zum hellsten Hellblau, und wird in Bits angegeben. Herkömmliche SDR-Fernseher bieten nur 8 Bit pro Farbkanal (wie Rot, Grün und Blau).

Zur Darstellung der Hochkontrastbilder ist auch eine höhere Helligkeit als bei SDR erforderlich, die in der Leuchtdichteeinheit "Candela pro Quadratmeter" beziehungsweise "Nits" angegeben wird. Der weit verbreitete HDR10-Standard umfasst theoretisch eine Helligkeit bis 4000 Nits, wobei die meisten HDR10-Inhalte wie Ultra HD Blu-rays aktuell nur mit 1000 Nits im Blick entwickelt ("gemastert") werden. Derweil unterstützt Dolby Vision bis zu 10.000 Nits, aber entsprechende Medien sind zur Zeit nur für die Wiedergabe mit bis zu 4000 Nits ausgelegt. Herkömmliche SDR-TVs schaffen derweil nur bis zu 400 Nits.

Tun dem Zuschauer bei einer so hohen HDR-Helligkeit nicht die Augen weh? Nein, keineswegs: Ein klarer, blauer Himmel leuchtet mit 8000 Nits und eine matte 60-Watt-Glühlampe erreicht satte 120.000 Nits. 10.000 Nits genügen für ein weitgehend lebensecht aussehendes TV-Bild, wie es die ersten TV-Prototypen mit dieser Helligkeit gezeigt haben. Dabei ist nicht das ganze Fernsehbild immerzu viele Tausend Nits hell, sondern nur bestimmte Highlights, etwa die Sonne oder Scheinwerfer auf dem Fußballfeld.

HDR-Inhalte setzen also auf unterschiedliche Maximalhelligkeiten – aber wie sollen TVs damit umgehen? Es gibt bislang nur einen Fernseher auf dem Markt, der die 4000 Nits mancher Ultra HD Blu-rays erreichen würde, nämlich der 8K-TV Samsung Q900R ab 75 Zoll. Die meisten bleiben weit unter 2000 Nits – die Helligkeit eines bewölkten Himmels bei Regenwetter. Mit "Tone Mapping" muss darum die für die meisten Fernseher zu hohe HDR-Helligkeit heruntergerechnet werden. Zu diesem Zweck liest der Fernseher die "Metadaten" im Ausgangsmaterial, wie den HDR-Filmen, ab. Diese Metadaten sind zusätzliche Informationen, die mit den Filmen zusammen gespeichert werden.

Die Filmemacher legen bei statischen Metadaten den Schwarzwert (0 oder 0.05 Nits) und die Maximalhelligkeit (1000 oder 4000 Nits) für den ganzen Film fest. Das führt leider oft dazu, dass HDR-Filme insgesamt dunkler wirken als SDR-Filme, weil der TV den ganzen Film mit der "Vermutung" auf das Niveau des jeweiligen Fernsehers herunterrechnet, dass jede Szene beispielsweise bis zu 4000 Nits hell sein kann – die meisten Szenen sind aber viel dunkler.

Geht man von einem HDR-TV aus, der bis zu 1000 Nits hell wird ("HDR 1000"), so schauen die hellsten Bildteile auf dem Fernseher bei auf 4000 Nits gemasterten Filmen weiterhin relativ hell aus (1000 statt 4000 Nits). Aber normal helle Szenen, etwa mit ursprünglich 400 Nits, werden im selben Verhältnis abgedunkelt, nämlich auf nur noch 100 Nits – und sind dann stockduster. Allerdings: Die Tone-Mapping-Methode ist bei jedem TV eine andere und mal gelingt das "Herunterbrechen" besser und mal schlechter.

Die Filme-Macher können sich alternativ für dynamische Metadaten entscheiden und legen dann für jede einzelne Filmszene Schwarzwert und Maximalhelligkeit fest, damit die TVs die HDR-Filme nicht stockduster aussehen lassen. Das ist allerdings ein zusätzlicher Aufwand – ein Grund dafür, warum es nur selten gemacht wird.

HDR10: 10-Bit-Farbtiefe, statische Metadaten, Spitzenhelligkeit von 4000 Nits (in der Praxis noch 1000 Nits), viele Inhalte.

HDR10+: 10-Bit-Farbtiefe, dynamische Metadaten, Spitzenhelligkeit von 4000 Nits, noch wenige Inhalte (vor allem auf Amazon Prime Video).

Dolby Vision: 12-Bit-Farbtiefe, dynamische Metadaten, durchschnittlich viele Inhalte (u.a. Netflix-Originale und einige Ultra HD Blu-rays), Spitzenhelligkeit von 10.000 Nits, es gibt aber noch keine Fernseher mit vollem Dolby-Vision-Support.

HLG: HDR-Standard für Fernsehübertragungen, Inhalte können auch von SDR-TVs in reduzierter Qualität wiedergegeben werden, keine Metadaten und qualitativ weniger gut als andere HDR-Standards, Spitzenhelligkeit von 1000 Nits. Es gibt einige wenige deutsche HLG-Pioniersendungen wie den "Bergdoktor", das ZDF möchte erst 2022 mit HLG durchstarten.

Technicolor Advanced HDR: HLG-Konkurrent, Inhalte können auch von SDR-TVs in reduzierter Qualität wiedergegeben werden, dynamische Metadaten, Spitzenhelligkeit von 10.000 Nits, noch keine Inhalte (wohl zunächst im Ausland relevant).

Die meisten TV-Interessenten wissen von alldem nur wenig und wundern sich dann, warum HDR-Filme auf ihrem neuen Fernseher dunkler und insgesamt schlechter aussehen als SDR-Filme. Konsumenten sollten sich eigentlich auch nicht mit dieser komplexen Materie befassen müssen. Wer einen "HDR"-Fernseher kauft, sollte einen bekommen, der entsprechende Inhalte auch ansehnlich darstellt. Leider ist das nicht immer so.

Es gibt zwar bei allen Produktkategorien Qualitätsunterschiede, so etwa auch unterschiedlich gute Toaster. Wer jedoch einen Toaster kauft, der erwartet kein Gerät, das das Brot stattdessen einfriert. Zur Verwirrung tragen verschiedene HDR-TV-Technologien bei, die HDR unterschiedlich darstellen.

OLED: TVs mit organischen Leuchtdioden ("organisch" heißt Kohlenstoff-basiert) setzen auf winzige, selbst leuchtende Bildpunkte. Vorteile sind das perfekte Schwarz, die schnelle Reaktionszeit und die exakte Beleuchtung, aber unbewegte Inhalte können einbrennen und die Helligkeit ist geringer als bei LCD-TVs (die besten OLEDs erreichen etwas über 900 Nits bei Highlights).

LCD: Alle Nicht-OLED-TVs sind aktuell LCD-Fernseher und setzen auf die anorganischen Flüssigkristalle. Die sogenannten "LED-TVs" sind eigentlich (noch) keine LED-TVs, sondern es sind LCD-Geräte mit zusätzlicher LED-Hintergrundbeleuchtung. LCD-TVs können viel heller werden als OLEDs (aktuell bis zu 4000 Nits, es gibt auch Prototypen mit bis zu 10.000 Nits), aber die Beleuchtung erfasst größere Flächen und der Schwarzwert erreicht kein OLED-Niveau.

QLED: Heißt auch Quantum Dot, Triluminos oder Nano Crystal und meint eine zusätzliche Schicht mit Nano-Partikeln in LCD-Fernsehern, die für mehr darstellbare Farben sorgen. So wird der HDR-Farbraum Rec.2020 besser abgedeckt.

Edge-lit: Bei Edge-lit-TVs sind die LEDs, welche die Flüssigkristalle beleuchten, an den Rändern angebracht. Edge-Lit-TVs können recht dünn gebaut werden, aber ihre Beleuchtung ist weniger präzise als die von Direct-lit-TVs, was zu einem schlechteren Bild, vor allem beim Fernsehen im Dunkeln, führt.

Direct-lit / Full Array Local Dimming: Bei Direct-Lit-TVs sind die leuchtenden LED-Lampen hinter dem Display angebracht, was eine genauere Beleuchtung bestimmter Bildteile ermöglicht. Bei zu wenigen LEDs kommt es allerdings zu "Blooming" (zu große Bildteile strahlen heller, als sie sollten – etwa nicht nur der Mond, sondern auch ein Teil des Nachthimmels daneben).

Wird das HDR-Chaos in der Zukunft beseitigt? Wahrscheinlich erst einmal nicht. Bei den TV-Technologien setzen sich gerade OLEDs und LCD-TVs mit Full Array Local Dimming durch. Das Local Dimming wird bei zukünftigen LCD-TVs durch mehr LED-Leuchten optimiert und 2019 kommen MicroLED-TVs, die ersten echten LED-Fernseher, hinzu. Sie setzen auf winzige LED-Lichter und verbinden die Vorzüge von OLED und LCD – hohe Helligkeit und eine exakte Beleuchtung. Die MicroLED-TVs bleiben aber wohl relativ teurer als LCD- und OLED-Fernseher, weil die Produktion aufwendiger ist.

OLED-Fernseher könnten sich derweil zukünftig wie eine Kinoleinwand aufrollen lassen, von LG gab es einen entsprechenden Prototyp auf der CES zu sehen. Außerdem wird die Haltbarkeit von OLEDs optimiert und sie werden noch etwas heller, können in diesem Bereich aber voraussichtlich weiterhin nicht mit LCD- und LED-TVs konkurrieren.

Die hohe Helligkeit von LCD-TVs könnte den Formatkrieg beeinflussen, denn ab 4000 Nits werden kein Tone Mapping und somit keine dynamischen Metadaten mehr benötigt. Die Fernseher sind dann einfach so hell, wie sie für HDR sein müssen – sogar bei manchen Inhalten heller, was zum umgekehrten Problem führen kann, falls die Käufer die Maximalhelligkeit ihres Geräts für alle Inhalte voll ausnutzen möchten: Dann muss Tone Mapping die Helligkeit heraufrechnen statt herunterrechnen, und die dynamischen Metadaten werden doch wieder gebraucht.

Solange die dunkleren OLED-TVs bei Käufern Anklang finden, bleiben ohnehin auch Formate wie HDR+ und Dolby Vision relevant, wobei Dolby Vision obendrein den Vorzug hat, Inhalte mit bis zu 10.000 Nits zu unterstützen. Also nein – die HDR-Welt bleibt wohl leider noch eine Weile kompliziert.

Eine gewisse Orientierung ist immerhin möglich, denn das weit verbreitete HDR10 wird auf absehbare Zukunft der wichtigste HDR-Standard bleiben. Was TV-Sendungen angeht: In Deutschland gibt es schon einige HLG-Sendungen und für das theoretisch bessere Technicolor HDR ist hierzulande aktuell kein Support auszumachen. Zu bevorzugen sind außerdem eine weitgehende Abdeckung des Rec.2020-Farbraums, eine hohe Helligkeit von über 1000 Nits sowie Full Array Local Dimming bei LCD-TVs.

Aktuelle Top-LCDs sind der besonders helle 8K-TV Samsung Q900 ab 5000 Euro und der eher bezahlbare Q9FN ab 1880 Euro. Zur starken Mittelklasse zählen der Sony XF9005 (ab 1270 Euro) und der Samsung Q7FN (ab 1200 Euro) und einige der besten OLED-TVs sind der Sony AF9 (ab 3000 Euro), der Panasonic EZW954 (ab 2500 Euro) sowie der LG C8 (ab 1550 Euro). Wir können derzeit keine TVs für HDR-Inhalte unter 1000 Euro empfehlen.

Eine neue Technologie braucht immer Zeit, um sich durchzusetzen und neue Standards müssen erst etabliert werden. Bei HDR dauert das allerdings ganz schön lange – und ein Ende ist nicht in Sicht. 2015 wurden die ersten HDR-Fernseher eingeführt und Ende 2018 herrscht ein größeres Technik- und Formatchaos als damals. Den Formatkrieg zwischen HD DVD und Blu-ray haben einfach die Blu-rays für sich entschieden und dann war jedem Kunden klar, dass er sich Blu-rays kaufen sollte. Was HDR-Interessenten tun sollten, lässt sich nicht so einfach beantworten.

Jetzt sind die Hersteller und die Inhalts-Produzenten gefragt, sich möglichst bald auf HDR-Standards und -Technologien zu einigen, statt mit Marketing-Begriffen um sich zu werfen. Wenn die Kunden ein "HDR"-Gerät kaufen, dann müssen sie davon auch viele Jahre lang spürbar profitieren. HDR darf keine komplexe Materie für Technik-Nerds bleiben, die gerne monatelang Fachbegriffe und Standards studieren.