#Von HDR1000 bis HDR10+ – was wirklich hinter diesen Kennzeichnungen steckt
Inhaltsverzeichnis
„Von HDR1000 bis HDR10+ – was wirklich hinter diesen Kennzeichnungen steckt“

Um HDR ranken sich so viele einzelne Bezeichnungen wie bei kaum einer anderen Bildtechnologie. Damit in all diesem Chaos die Übersicht nicht schwindet, gilt es sich einen Überblick zu verschaffen. Worin sich die Technologien unterscheiden und wie es überhaupt zu so vielen davon kam, wollen wir aufklären.
Was heißt HDR eigentlich?
HDR steht stellvertretend für High Dynamic Range, was sich zu Deutsch wohl am besten mit „Hoher Dynamikumfang“ übersetzen lässt. Damit bezeichnet man eine Bildtechnologie, die in heutigen Fernsehgeräten aber auch in der Fotografie eingesetzt wird. Dabei verwendet HDR mehrere unterschiedlich belichtete Bilder, die übereinandergelegt werden, sodass der beste Kontrast aus allen Bildern gezeigt wird.
Um das an einem Fernsehgerät effektiv darstellen zu können, wird der Bildschirm in kleinere Hell- und Dunkelabschnitte unterteilt, um ein breiteres Spektrum an Hell- und Dunkelstufen zu ermöglichen. Damit wird die Wahrnehmung von ausgeprägten Farben und feineren Details auf heutigen TV-Geräten möglich.
Vorteile von HDR
Verließ der nächste Hollywood-Blockbuster das Studio, mussten die dargestellten Farben erst abgeschwächt werden, damit die meisten Fernseher die Filme wiedergeben konnten. Sicherlich erinnert sich ein jeder an die eine oder andere Filmszene, die auf dem heimischen Fernseher so dunkel dargestellt wurde, dass man kaum etwas darauf erkennen konnte. Dank HDR ist das nun vorbei, da diese Fernseher über die Möglichkeit verfügen, Inhalte so wiederzugeben, wie es von den Produzenten beabsichtigt wurde. Und das geschieht mit einer klareren, dynamischeren und intensiveren Bildqualität, indem eine größere Kontrastspanne geboten wird. Damit fühlen sich HDR-Bilder authentischer und lebendiger an, sodass Zuschauer sich mehr als Teil des Geschehens fühlen.
Varianten von HDR
Wie bei vielen Technologien haben sich im Laufe der Zeit unterschiedliche Varianten davon entwickelt, die unterschiedliche Ergebnisse liefern. Zurzeit gibt es noch keine einheitliche Norm für HDR-Formate, sodass der Markt mit vielen unterschiedlichen Begriffen um sich wirft. Die wichtigsten davon haben wir hier für dich zusammengefasst.
HLG
Hybrid-Log-Gamma (HLG) ermöglicht es HDR-Qualität auch in Wohnzimmer zu bringen, die noch über ältere TVs verfügen, da das HLG-Signal von jedem Fernseher empfangen werden kann. Ebenso wie bei HDR10 handelt es sich hierbei um ein lizenzfreies HDR-Format. HLG wurde dafür entwickelt, HDR-Inhalte über Kabel- und Satellitenprogramme auszustrahlen. Ziel der Hersteller war es, HDR-Inhalte mit bestmöglicher HDR-Qualität ausstrahlen zu können.
Diese Technologie entwickelten der britische Sender BBC sowie der japanische Sender NHK.
HDR10
Im Gegensatz zu Dolby Vision handelt es sich bei HDR10 um eine lizenzfreie Technologie, weshalb sie auf dem Markt weit verbreitet ist. HDR10 bietet genau die Minimalanzahl der benötigten Pixel für HDR-Inhalte, kann jedoch nicht mit der Dynamik von HDR10+ oder den intensiven Helligkeitsstufen von HDR1000 konkurrieren. Wer in ein neues Gerät investieren möchte, sollte daher nur auf HDR10 zurückgreifen, wenn andere Modelle zu kostspielig sind.
HDR10 wurde im Jahr 2015 von führenden TV-Herstellern und einer Vielzahl an beteiligten Firmen entwickelt. Das Format liefert 1.024 Helligkeitsstufen, was einem 10 Bit-Signal gleich kommt.
HDR10+
Im Gegensatz zu HDR10 ist HDR10+ dynamisch, sodass HDR10+ für jedes einzelne Bild lebensechte Farben und ausgeprägte Details berechnet. Dieses HDR-Format entwickelten Amazon Video und Samsung als Alternative zu Dolby Vision. Es ist lizenzfrei und daher stärker auf dem Markt vertreten. Durch die dynamischen Einstellungen sind HDR10+-Inhalte abwärtskompatibel zu SDR-TV-Geräten, die jedoch nicht die volle Detailfülle des Inhalts wiedergeben können.
HDR400
Hinter HDR400 verbirgt sich in erster Linie eine Kennzeichnung für die maximale Leuchtdichte eines Bildschirms. Ein Fernseher, der HDR400 bietet, muss eine Spitzenleistung von mindestens 400 cd/m² schaffen und ein konstantes Minimum von 320 cd/m² liefern. Dank der größeren Variation in der Helligkeitsdarstellungen werden damit bessere Detailgrade im Bild ermöglicht.
HDR600
Ähnlich wie bei HDR400 ist auch HDR600 eine Kennzeichnung für eine bestimmte Helligkeits-Spitzenleistung. Bei HDR600 muss die maximale Leuchtdichte 600 cd/m² erreichen, die minimale dauerhafte Leuchtdichte darf jedoch nur 350 cd/m² betragen und ist damit nur 30 cd/m² höher als bei HDR400. Die größeren Unterschiede in der Helligkeit ermöglichen bessere Detailabbildungen im HDR-Bild.
HDR1000
Samsung entwickelt HDR1000, um hohe Stufen der Helligkeit zu ermöglichen, die Weiß noch weißer und Schwarz noch schwärzer machen. Damit werden unglaublich detailreiche Bildergebnisse möglich. Ein Fernseher mit HDR1000 muss eine maximale Leuchtdichte von 1000 cd/m² erreichen und über eine dauerhafte Leuchtdichte von wenigstens 600 cd/m² verfügen.
Q HDR 1500 bis Q HDR 4000
Samsung hat mit HDR1000 längst nicht aufgehört. Mit Q HDR 1500, Q HDR 2000 und Q HDR4000 werden QLED-Modelle angeboten, die Spitzenhelligkeiten von 1500 cd/m², 2000 cd/m² beziehungsweise 4000 cd/m² unterstützen.
Dolby Vision
Im Jahr 2015 entwickelte Dolby Labs ein firmeneigenes Format, das einen höheren Standard als HDR-10 bietet. Dolby Vision kann 4.096 Helligkeitsstufen darstellen, was 12 Bit gleichkommt. Damit wird eine Farbstellung von 68 Milliarden Farben für TV-Geräte möglich, die diese Technologie verwenden.
Da Dolby Vision lizenzpflichtig ist, ist es nicht so weit verbreitet wie HDR10. Provider wie Netflix liefern Inhalte, die Dolby Vision unterstützen, sodass man HDR-Inhalte streamen kann. Auch LG OLEDs bieten diese Technologie an. Ähnlich wie HDR10+ ist auch Dolby Vision für SDR-TV-Geräte abwärtskompatibel dank der dynamischen Metadaten, ältere Geräte können jedoch nicht den Darstellungsreichtum von neuen TV-Modellen bieten.
Dolby Vision IQ
Mit Dolby Vision IQ wurde auf der CES 2020 ein neues HDR-Bildformat vorgestellt. Die dynamischen HDR-Metadaten sorgen bei Dolby Vision zwar bereits für sehr gute HDR-Bildqualität, doch Dolby Vision IQ kann das noch besser. Mit dieser Wiedergabetechnik haben Fernseher nun die Möglichkeit, die Bildwiedergabe automatisch an die Umgebung anzupassen – und das ohne, dass die Nutzer an den Geräteeinstellungen herumschrauben müssen.
Um Inhalte zu optimieren, nutzt Dolby Vision IQ insgesamt zwei Informationsquellen: Zum einen die Metadaten aus dem vorhandenen Videosignal, zum anderen die eigenen Messwerte. Diese Messwerte stammen von einem Umgebungslichtsensor, der im TV-Gerät integriert ist. Anhand dieser Daten errechnet Dolby Vision IQ das bestmögliche HDR-Bild. Damit sorgt Dolby Vision IQ dafür, dass das Bild den wechselnden Lichtverhältnissen im Wohnzimmer automatisch gerecht werden kann.
Über unsere Links
Mit diesen Symbolen kennzeichnen wir Affiliate-
beziehungsweise Werbe-Links. Wenn du einen so gekennzeichneten Link oder Button anklickst oder
darüber einkaufst, erhalten wir eine kleine Vergütung vom jeweiligen Website-Betreiber.
Keine Sorge: Auf den Preis des Produkts hat das keine Auswirkung.
Du hilfst uns aber, inside digital weiterhin kostenlos und ohne Bezahlschranke anbieten
zu können. Vielen Dank!
Bildquellen
- eye-hdr: Adobe Stock
Wenn Ihnen der Artikel gefallen hat, vergessen Sie nicht, ihn mit Ihren Freunden zu teilen. Folgen Sie uns auch in Google News, klicken Sie auf den Stern und wählen Sie uns aus Ihren Favoriten aus.
Wenn Sie an Foren interessiert sind, können Sie Forum.BuradaBiliyorum.Com besuchen.
Wenn Sie weitere Nachrichten lesen möchten, können Sie unsere Technologie kategorie besuchen.