TV Technik

burosch home tvtechnik

Bildwiedergabesysteme NEXT GENERATION

Während der Röhrenfernseher über 50 Jahre die Unterhaltungselektronik dominierte, sind spätestens seit Beginn des 21. Jahrhunderts seine flachen, großen, leichten und energieeffizienten Söhne und Enkel die Stars in den Wohnzimmern und seit einigen Jahren auch wieder auf der Internationalen Funkausstellung in Berlin. Kaum noch jemand weint den dicken und schweren TV-Geräten eine Träne nach. So mancher hatte zwar anfänglich Probleme bei der Umstellung, aber letztlich haben wir uns schon längst an die schlanken Geräte gewöhnt und wollen sie auch nicht mehr missen. Oder etwa doch? Machen Smartphone und Tablet dem Fernsehgerät Konkurrenz?

Abbildung 310: Logo der Internationalen Funkausstellung 2016

Wenn man den Umsatzzahlen Glauben schenken darf, dann schon. Allerdings ist die klassische Unterhaltungselektronik auf dem Rückzug. Dafür wird mehr Geld für IT-Geräte im Privatkundenmarkt ausgegeben. Der Digitalverband Bitkom gab in einer Pressemitteilung pünktlich zum Startschuss der IFA 2015 aktuelle Zahlen bekannt, die sich auf Prognosen der Marktforschungsunternehmen EITO und GfK beziehen. Demnach stellten die Smartphones im Jahre 2015 den Verkaufsrekord auf und spülten über 9 Milliarden Euro Umsatz in die Kassen der Hersteller. Gleich nach der unglaublichen Zahl von 25,56 Millionen verkauften Geräten liegen die Tablets auf Rang 2. Hier wurden 2015 immerhin knapp 8 Millionen Geräte verkauft, was über 2 Milliarden Euro entspricht. Dagegen sieht der Gesamtumsatz der klassischen Unterhaltungselektronik (z.B. TV-Geräte, Spielkonsolen, Blu-ray- und DVD-Player sowie Digitalkameras) mit gerade einmal 9,78 Milliarden Euro ziemlich kläglich aus.

Die Zukunft liegt also in der Vernetzung und dem mobilen Entertainment. So weit, so gut. Und die Flachbildfernseher? Werden auch sie bald vom Markt verdrängt werden oder feiern sie ein neues Comeback? Fakt ist, dass die Umsätze innerhalb des Produktsegmentes „klassische Unterhaltungselektronik“ immer noch den weitaus größten Umsatzanteil ausmachen. Mit 43 Prozent sind TV-Geräte jeglicher Art nach wie vor der Verkaufsrenner par excellence. Und die kleine Lücke in der Nachfrage könnte mit der IFA 2015 auch schon wieder überwunden sein. Denn die Internationale Funkausstellung in Berlin war von jeher die Geburtshelferin für neue Technologien. In 2015 hieß das Zauberwort 4K bzw. Ultra HD, in 2016: HDR, OLED und Quantum Dots.

Abbildung 311: Curved 4K LCD TV X18119 von Medion

Im Jahre 1967 drückte Willy Brandt bei der IFA auf den berühmten roten Knopf und startete damit das Farbfernsehen in Deutschland. Dreißig Jahre später wurde auf der IFA die DVD vorgestellt. Und 2015 stand die IFA wieder Pate für die Präsentation und vielleicht sogar den Durchbruch einer neuen Technologie. In den Hallen auf dem legendären Berliner Messegelände starteten im September 2015 die ersten UHD-Demokanäle (z.B. pearl.tv) via Satellit. Und wieder war es der Sender Sky, der ein Sportevent für seinen Testlauf nutzte. Dieses Mal war es das DFB-Pokalfinale, das in UHD-Qualität live übertragen wurde. Die Verbraucher hatten davon natürlich noch nicht viel. Die Geräte kommen erfahrungsgemäß erst nach der IFA auf den Markt. In 2016 tat sich hier einiges. Ultra HD ist keine Zukunftsmusik mehr – zumindest, was die Bildwiedergabe anbelangt. In den nächsten Jahren wird sich Ultra HD immer weiter etablieren, sofern Hollywood & Co. für entsprechende Filme sorgen.

Denn Ultra HD könnte im Fernsehgeschäft die Innovationsspritze sein, auf die zahlreiche Hersteller, Verkäufer und natürlich viele Verbraucher gewartet haben. Im sogenannten TecWatch-Forum stellte auf der IFA 2015 die Deutsche TV-Plattform entsprechende Programme vor und lud IFA-Besucher und vor allem Experten ein, die neue Bildqualität in Augenschein zu nehmen.

Abbildung 312: Logo Deutsche TV-Plattform zur IFA 2015

Denn der Verkauf neuer UHD-Fernseher steigt nur dann dynamisch, wenn parallel dazu das Angebot entsprechender TV-Inhalte wächst. Vorreiter hierfür ist unter anderem die Videoplattform YouTube aber auch die VoD-Anbieter, wie Amazon, Netflix und Videoload (vgl. „Streaming in Ultra HD und 8K“). Über die entsprechende Apps wurden erste ultrahochauflösende Filme bereits ausgestrahlt. Geplant sind darüber hinaus auch die zukünftige Etablierung von High Dynamic Range (HDR) sowie lineare IPTV-Programmangebote. So kündigte beispielsweise der Präsident der UHD-Alliance und CTO bei 20th Century Fox Film Corporation, Hanno Basse, an, zukünftig mehr Filme in UHD/4K inklusive HDR zu produzieren, die dann in Form von Blu-ray-Discs angeboten werden. Im Rahmen der Zertifizierung und Standardisierung kam hierzu das entsprechende Gütesiegel der UHD-Alliance in 2016 auf den Markt (vgl. hierzu das Kapitel „Ultra HD PremiumTM“ sowie „Weitere Gütesiegel für 4K/Ultra HD“ in diesem Buch).

Zur Qualitätssicherung dienen zusätzlich sogenannte „Best Product Awards“, die insbesondere bei den Verbrauchern zu mehr Vertrauen führen sollen. Gerade bei der Einführung neuer Technologien macht sich hier Unsicherheit breit – nicht zuletzt weil die Neuanschaffung entsprechender Geräte auch immer mit relativ hohen Kosten verbunden ist. Neben „Stiftung Warentest“ und zahlreichen Auszeichnungen von Onlinemagazinen bietet in der Fachwelt aber auch für jeden durchschnittlich interessierten TV-Liebhaber unter anderem der EISA-Award die Möglichkeit, sich im Dschungel des heiß umkämpften Marktes zurechtzufinden.

Die European Imaging and Sound Association (EISA) genießt nicht umsonst hohes Vertrauen und Ansehen in der Branche. Die Tests und Produktbewertungen werden ausnahmslos von hochqualifizierten Experten durchgeführt. Umso mehr kann sich die Firma Sony freuen, die in 2015 von der EISA für ihre innovativen Produktentwicklungen, herausragende Technik und ein eindrucksvolles Design gleich mehrfach ausgezeichnet wurde. So erhielt der japanische Elektronikkonzern für sage und schreibe sechs seiner Produkte den beliebten Award „bestes Produkt“. Sonys HT-XT3 wurde zu Europas bester Soundbase und der BRAVIA KD-65X9005C zum besten Design-Fernseher des Jahres 2015-2016 gekürt. In 2016 vergab die EISA die beliebten Preis in der Kategorie „HOME THEATRE DISPLAY & VIDEO“ an mehrere namhafte Hersteller, wie beispielsweise LG und Panasonic.

Abbildung 313: EISA-Award/Best Product 2016-2017: Panasonic TX-65-DX900E

Doch was ist denn nun der Unterschied zwischen SD, HD, Full HD, Ultra HD? Bei den zahlreichen Bildformaten der televisionären Neuzeit kann man leicht den Überblick verlieren. Worin unterscheiden sie sich? Welche Videoauflösungen gibt es überhaupt? Und wofür benötigt man eine so hohe Pixeldichte? Im folgenden Kapitel soll ein kleiner Überblick über die unterschiedlichen Technologien erfolgen und einzelne Beispiele stellvertretend für die Bildwiedergabesysteme der neuen Generation vorgestellt werden. Natürlich sei auch hier angemerkt, dass die vorgestellten Technologien und Produkte nur eine Momentaufnahme im sich rasant entwickelnden Markt der Unterhaltungselektronik darstellen kann – bezogen auf die Jahre 2015/2016.

Video-Features der Zukunft

Seit der Erfindung des Fernsehens hat sich sowohl die Technik als auch das Verhalten der Verbraucher gravierend geändert. Brillante Bilder, hochauflösend und superscharf sind nur einige Merkmale, die nicht mehr nur TV-Bildschirme, sondern auch Computermonitore sowie Tablet- und Smartphone-Displays der Neuzeit auszeichnen. In der Praxis wird hier nicht selten so einiges durcheinander geworfen und führt mitunter deshalb zu diversen Missverständnissen. Beispielsweise die Bildauflösung. Umgangssprachlich stellt diese das Maß für die Bildgröße dar, die durch die Gesamtzahl der Bildpunkte (Pixel) angegeben wird. Im physikalischen Sinne bezeichnet die Auflösung die Pixeldichte einer Wiedergabe beziehungsweise Bildabtastung. Neben der Farbtiefe zählt also insbesondere die Bildauflösung als Merkmal für die Qualität von Videomaterial.

Abbildung 314: Bildschirmauflösungen (www.burosch.de)

Insofern spielt die Bildgröße zwar eine tragende Rolle in der heutigen Fernsehtechnik, allerdings ist sie kein Garant für ausgezeichnete Bildqualität. Im Gegenteil! So kann beispielsweise eine sehr kleine Grafik viel hochwertiger sein und riesige Bildschirme wiederum geben ein schlechtes Bild, wenn die Auflösung nicht stimmig ist. Alles in allem zählt im Kontext der Bildauflösung und der Bildformate vor allem eines: Ein Bild kann nur so gut sein, wie seine Wiedergabe es ermöglicht. Deshalb ist vor allem die Wiedergabequalität entscheidend für perfekten und hochauflösenden Fernsehgenuss.

Da die Bildauflösung immer auch durch die Anzahl der Spalten (Breite und der Bildzeilen (Höhe) gemessen wird, ist das Bildformat in diesem Zusammenhang entscheidend. Und auch wenn mit den neuen Technologien die Probleme, die sich insbesondere aus der Verknüpfung alter (analoger) und neuer (digitaler) Systeme ergeben, bald verschwunden sein werden, soll hier dennoch kurz auf die herkömmlichen Bildformate eingegangen werden, die sich in der folgenden Abbildung wiederfinden.

Bildschirm-Auflösungen

Bezeichnung

Pixel

Seitenverhältnis

VGA

640 x 480

1,33:1 = 4:3

SVGA

800 x 600

1,33:1 = 4:3

WVGA

853 x 480

1,77:1 = 16:9

XGA

1.024 x 768

1,33:1 = 4:3

SXGA

1.280 x 1.024

1,25:1

WXGA

1.280 x 768

1,66:1 = 15:9

WXGA

1280 x 800

16:10

WXGA

1.366 x 768

1,77:1 = 16:9

SXGA+

1.400 x 1.050

1,33:1 = 4:3

UXGA

1.600 x 1.200

1,33:1 = 4:3

WSXGA+

1680 x 1050

16:10

UXGA+

1.920 x 1.200

1,6:1

QXGA

2.048 x 1.536

1,33:1 = 4:3

QUXGA

3.200 x 2.400

1,33:1 = 4:3

QUXGA+

3.840 x 2.400

1,6:1

Form26

Abbildung 315: Standards für Bildschirmauflösungen

Das Format des Eingangssignals kann nicht immer akkurat wiedergegeben werden, denn das sogenannte Wiedergaberaster ist auf modernen Flachbildschirmen in der Regel fest vorgegeben. Deshalb muss man im Allgemeinen bereits beim sogenannten Skalieren mit Qualitätsverlusten rechnen. Dass man gestochen scharfe Bilder mit UHD-Technologie nicht auf einem TV-Gerät aus dem Jahre 2001 erkennen kann, leuchtet noch jedem ein. Die Auflösung reduziert sich aber auch und vor allem, wenn beispielsweise HDTV auf einem 4:3-Bildschirm geschaut wird. Grund dafür ist, dass HD ausschließlich das Bildformat 16:9 verwendet und somit bei der Wiedergabe in 4:3 bis zu 25 Prozent der horizontalen Zeilen verloren gehen. Insofern reduziert sich die nutzbare Auflösung und HDTV kommt nicht vollumfänglich zur Geltung.

Kurzum: Jede Auflösungsänderung wirkt sich negativ auf die Bildqualität aus. Da spielt nicht nur die Pixeldichte als solche, sondern vor allem das Bildformat (Höhe und Breite) eine tragende Rolle. Ausschlaggebend dabei ist nicht zwangsläufig die Bilderstellung, sondern vielmehr die Möglichkeiten der Bildwiedergabe. Deshalb ist es wichtig, die Bildauflösung lediglich an einer Stelle des Signalwegs zu verändern, und zwar bei der Bildwiedergabe. In diesem Zusammenhang spricht man auch von der nativen Auflösung, die exakt der physikalischen digitalen Auflösung eines Anzeigegerätes entspricht. Wenn beispielsweise ein Film über einen Blu-ray-Player auf dem Fernseher wiedergegeben werden soll, so ist es ratsam, die Bildeinstellungen entweder am TV-Gerät ODER am Blu-ray-Player vorzunehmen, damit im Zweifel nicht zwei Mal die Auflösung skaliert werden muss. Näheres dazu findet sich im Kapitel „Professionelle Bildeinstellungen“ am Ende dieses Buches.

Abbildung 316: SD(PAL)-Referenzbild „Dubvronik“ (www.burosch.de)

Während bei der Umstellung von SD (Standard Definition) zu HD (High Definition) noch Komplikationen in der Verarbeitung der analogen sowie digitalen Signale auftraten, wird zukünftig bei UHD/4K, HDR, 8K etc. das Umkopieren der Darstellungsformate hoffentlich der Vergangenheit angehören. Basis dafür können jedoch nur die TV-Programmanstalten selbst sein, die sich bestenfalls auf einheitliche Bildformate und Bildabtastvarianten (progressiv oder interlaced) einigen. So könnte die Standardauflösung mit nur 720 x 576 Pixel bald ins kollektive Langzeitgedächtnis wandern, wenn die Fernsehsender das SD-Signal nicht mehr ausstrahlen, sondern ausschließlich in HD senden. Denn erst im Vergleich wird deutlich, wie schlecht das Bild noch vor einigen Jahren standardisiert war (vgl. Abbildung).

Doch selbst wenn man das bis vor kurzem noch als absoluten Durchbruch gefeierte HDTV mit dem aktuellen 4K-Standard vergleicht, erkennt man schnell die gravierenden Qualitätsunterschiede.

Abbildung 317: Auflösungsvorteil von HD gegenüber Ultra HD/4K (NVIDIA Corporation)

Ein Grund für die rasante Geschwindigkeit, mit der sich die Bildauflösungen potenzieren, ist natürlich die hohe Nachfrage nach besonders großen TV-Geräten. Es liegt in der Natur der Sache, dass eine geringe Pixeldichte auf einem riesigen Bildschirm kein scharfes Bild, sondern vielmehr eine Aneinanderreihung von „Klötzchen“ ergibt. Deshalb konnte selbst Full HD mit 1920 x 1080 Pixel lediglich eine Übergangslösung darstellen – vor allem wenn man bedenkt, dass dieses Format gegenüber Ultra HD nur über ein Viertel der Pixelanzahl pro Fläche verfügt. Gerade bei großen Displayflächen wird der Qualitätsunterschied besonders in den Bilddetails deutlich.

Und wenn man schon Ultra HD auf seinem Bildschirm zu stehen hat, dann sollte auch tatsächlich Ultra HD ausgegeben werden. Um also das Beste aus dem neuen und sicherlich nicht ganz preiswerten TV-Gerät herausholen zu können, sind auch hier Testbilder äußerst sinnvoll. Als Referenz für die optimale Bilddarstellung eignen sich beispielsweise die Testbilder „Dubrovnik“, die in SD und Full HD zur Verfügung stehen. Die feine Struktur der Dächer ist perfekt dafür geeignet, die unterschiedlichen Display-Technologien deutlich zu visualisieren (vgl. die folgenden zwei Abbildungen).

In diesem Zusammenhang sei darauf hingewiesen, dass Referenzbilder ausnahmslos um ein Vielfaches besser sein müssen als die Displays, auf denen sie angezeigt werden. Denn wie beim Urmeter oder der Atomuhr dient eine Referenz als exklusiver Bezugswert, nach dem sich alles andere richtet. Deshalb eignet sich noch längst nicht jedes Foto, das mit einer herkömmlichen Digitalkamera aufgenommen wurde, als Referenzbild. BUROSCH verwendet für die Erstellung seiner Referenzbilder höchstauflösendes Video-Equipment und gewährleistet damit Referenz-Qualität auf maximalem Niveau.

Abbildung 318: Full-HD-Referenzbild „Dubvronik“ (www.burosch.de)

Ultra HD/UHD/4K

Vielleicht fragt sich der eine oder andere Fernsehkunde, wozu eine so gigantische Auflösung überhaupt gut sein kann. Wer ehrlich ist, muss aber auch zugeben, dass genau solche Fragen den technischen Fortschritt in all seinen Facetten und Etappen begleitet haben. In den 1930er Jahren wollte niemand Fernsehgeräte im Wohnzimmer, in den 1950er Jahren waren die Verbraucher skeptisch gegenüber Color-TV. Und übermorgen kann sich kaum noch jemand vorstellen, dass es vor kurzem überhaupt analoges Fernsehen gab und die Pixeldichte unterirdisch niedrig war.

Denn Ultra HD mit 3840 x 2160 Pixel bedeutet die exakt vierfache Auflösung gegenüber Full HD und damit immer mehr darstellbare und vor allem schärfere Bilddetails trotz großer Bildschirmfläche. Denn auch die ist heute keine Seltenheit mehr. TV-Geräte mit Diagonalen von 60 Zoll (152 Zentimeter) und mehr stehen bereits in vielen deutschen Haushalten. Nicht zuletzt durch unsere Smartphones sind wir in punkto Auflösung mehr als nur verwöhnt. Da kommen die 4K-Fernseher mit ihren unglaublichen acht Millionen Bildpunkten gerade richtig. Und wer sich fragt, ob sich ein Kauf jetzt (2016) schon lohnt, wo es kaum ultraauflösendes Filmmaterial gibt: Es lohnt sich allemal, denn die 4K-Fernseher rechnen mithilfe neuer Chip-Technologien auf die stärkere Auflösung hoch, sodass die Bildqualität im Allgemeinen nur besser werden kann (vgl. hierzu Kapitel „Upscaling & Co.“ in diesem Buch).


Abbildung 319: UHD-Referenzbild „Dubvronik“ (www.burosch.de)

Beim Kauf eines solchen neuen 4K-Gerätes sollten allerdings einige Punkte beachtetet werden. Insbesondere die Anschlüsse müssen zur Verwendung passen. Wer sich zum UHD-TV beispielsweise gleich noch einen 4K-Blu-ray-Player kauft, der könnte bei 60 Hz enttäuscht werden. Nicht alle HDMI-Eingänge unterstützen alle Standards. In der Regel weiß der versierte Verkäufer Rat, allerdings bieten auch diverse Fachzeitschriften und entsprechende Online-Portale ausreichende Informationen an. Auch die Firma BUROSCH wird als Ansprechpartner gern genutzt, wenn es um qualifizierte Beratung und herausragende Bildoptimierung geht. Nicht umsonst ist das Stuttgarter Unternehmen Experte im TV-Tuning und seit Jahren Marktführer auf diesem Gebiet.

Auf unserer Webseite erhalten Interessierte viele Informationen in Bezug auf das Grundlagenwissen der Fernsehtechnik, die aktuellen technischen Features und damit Auskunft darüber, ob ein UHD-Fernseher zukunftssicher ist oder eben nicht. Denn nicht jeder UHD-TV ist qualitativ gleichwertig in Bezug auf Qualität und technische Standards. Warum sollten sonst Geräte im Jahre 2016 das Vielfache von dem Kosten, was im Grunde bereits 2014 auf dem Markt erhältlich war. Die eindeutige Aussage ist: die Pixelanzahl allein ist noch kein Qualitätskriterium, sondern die Qualität jedes einzelnen Bildpunktes. In ist, was drin ist! Und hier sind die Unterschiede zwischen Einstiegs- und Oberklassemodellen gewaltig. Ob mit zusätzlichen Farbfiltern, beschichteten Leuchtdioden oder Nanotechnologie – die technischen Dimensionen und damit Kontrast und Farbbrillanz haben sich in nur wenigen Monaten signifikant verbessert. Und auch die Anschlüsse sind nicht überall dieselben. Nicht alle UHD-TVs unterstützen das neue HDR-Format oder aber HEVC-Codecs. Die Zukunft liegt darüber hinaus in HDMI 2.0 und HDCP 2.2 sowie in Doppeltunern, drahtlosem TV-Empfang, Streaming und natürlich bester 4K-Bildqualität sowie HDR.

Abbildung 320: © Sony



Die Checkliste könnte also folgende Punkte enthalten:

  1. Zur Mindestausstattung gehört ein HDMI-Eingang, der den Kopierschutz HDCP 2.2 sowie den Codec H.265 verarbeiten kann, um für zukünftige UHD/4K Blu-ray-Player gerüstet zu sein.

  2. Darüber hinaus sollte das Gerät über mindestens einen HDMI-Eingang verfügen, der die UHD-Auflösung bei 10 oder aber 12 Bit/Deep Color mit einer Farbunterabtastung von YCbCr 4:2:0 bis hoch zu YCbCr 4:4:4 bei 50/60Hz unterstützt. Die 8-Bit-Variante ist allerdings auch nach wie vor wichtig, um Rückwärtskompatibilität zu gewährleisten.

  3. Für zukünftigen UHD-Empfang sollte der TV über einen eingebauten Empfänger verfügen, der auch entsprechend codierte Signale (50/60Hz H.265/HEVC) empfangen und decodieren kann sowie die aktuellen Spezifikationen DVB-S2 und DVB-T2 unterstützt (Stand: 2016).

  4. Für das zukünftige UHD-Film-Streaming über Netflix, Amazon & Co. muss der H.265/HEVC-Codec auch über die jeweilige App des Streaming-Anbieters unterstützt werden. Sofern dies der Fall ist, greift auch die Abwärtskompatibilität zu HDCP 2.2.

  5. Auch über den USB-Anschluss sollte optional das Abspielen von UHD- sowie Full-HD-Files im H.265/HEVC codierten Standard möglich sein.

  6. JPEG-Dateien beziehungsweise Fotos im Allgemeinen sollten auch in nativer UHD-Auflösung dargestellt werden, ohne dass die Ränder beschnitten werden.

  7. Und letztlich ist UHD-Auflösung nicht alles. Auch eine verbesserte Farbdarstellung und die Unterstützung des neuen HDR-Formats sollten vom neuen „Familienmitglied“ im heimischen Wohnzimmer realisiert werden können, wenn es um Zukunftssicherheit und die entsprechenden technischen Möglichkeiten geht.

Grundsätzlich ist beim Kauf darauf zu achten, dass die oben genannten technischen Daten gegeben sind. Bei den 2016er Modellen der Markenhersteller sollten die Features eigentlich zur Standardausrüstung gehören, wobei HDR und auch der neue Farbraum BT.2020 hier noch in den Kinderschuhen stecken. Wichtige Informationen zu diesen neuen Features erhalten Sie in den folgenden Kapiteln. Auf der UHD-Welle schwimmen jedoch auch diverse Billighersteller mit, bei denen die Ausstattung ganz genau geprüft werden sollte. Andererseits bieten beispielsweise ältere AV-Receiver das sogenannte UHD/4K-Passthrough, was hingegen nicht ausreicht, um echte UHD-Filme in ihrer ganzen Schönheit darstellen zu können. Auch Blu-ray-Player sind erst seit Ende 2015 vollständig UHD-fähig. Weitere Informationen hierzu finden sich im Kapitel „Video-Equipment“.

BT.2020: Der lange Weg zum erweiterten Farbraum

Die Hersteller werben mit einem erweiterten Farbraum und manche Displays bieten bereits entsprechende Menü-Optionen an. Ähnlich verhält es sich mit dem neuen Feature High Dynamic Range (HDR), das im nächsten Kapitel eingehender erläutert werden soll. In diesem Zusammenhang hält sich tapfer das Gerücht, dass unter dem Begriff „Rec.2020“ ausschließlich die Erweiterung des Farbraums gemeint ist. Doch das ist so natürlich nicht richtig. Beide Standards rücken mit hoher Geschwindigkeit in den kollektiven Fokus der technikinteressierten Gemeinde, Verwirrung macht sich breit. Jedoch wird selbst im Zukunftsmarkt Medientechnik nicht alles so heißt gegessen, wie es serviert wird.

Bevor wir uns mit den technischen Details der BTU-Empfehlung BT.2020 (oder Rec.2020) befassen, schauen wir uns deshalb noch einmal etwas genauer an, was Farbräume überhaupt sind. Näheres dazu findet sich im Übrigen auch im Kapitel „Farbräume und photometrische Größen“.

Abbildung 321: BT.2020 – Der lange Weg zum erweiterten Farbraum (Bild: Panasonic)

Die Grundlage für alle Farbräume bilden die Graßmannschen Gesetze, welche die Farbvalenz als eine dreidimensionale Größe - die Grundfarbe (Spektralfarbe), die Farbintensität und die Weißintensität - definieren. Darauf aufbauend werden diese drei Grundgrößen heute im Zusammenhang mit dem HSV-Farbraum, den CIE-Primärvalenzen oder den Werten CMY und RGB verwendet. RGB ist die Abkürzung für Rot, Grün, Blau. Diese drei Farbwerte stellen die Primärvalenzen beziehungsweise Primärfarben dar, also jene drei spektral reinen Farben, die sich nicht aus den jeweils anderen herstellen (mischen) lassen. Der deutsche Naturwissenschaftler Hermann Ludwig Ferdinand von Helmholtz erkannte, dass die Farbvalenz durch Farbton, Sättigung und Helligkeit gekennzeichnet ist. So lässt sich die „Farbe“ nach ihrem Helligkeitsanteil (engl. luminance) und der Farbart unterscheiden. Diese setzt sich aus dem durch die Wellenlänge des Lichtes bestimmten Farbton (engl. hue) und der Farbsättigung (engl. saturation) zusammen, die durch den zugemischten Weißanteil entsteht. Insofern ist der Begriff „Farbe“ nicht korrekt. Es müsste vielmehr „Buntheit“ heißen, da die sogenannten Farbnuancen in erster Linie etwas mit der Helligkeit zu tun haben. Im Umkehrschluss verwendet man bei Grauwerten in der Fachsprache die Bezeichnung „unbunte Farben“.

Farben entstehen also in erster Linie durch Licht, weshalb ebenjenes auch und vor allem in der Display-Praxis eine tragende Rolle spielt. Verändert man die Intensität eines Farbtons, ergeben sich pro Farbton etwa 500 unterscheidbare Helligkeiten. Die Grundlage aller Farben sind die oben beschriebenen Primärvalenzen RGB und darüber hinaus die sogenannten Komplementärfarben, welche auch synonym als Gegenfarben bezeichnet werden, da sie sich im sogenannten Farbkreis genau gegenüberstehen. Verschiedene Farbpaare gelten als komplementär. Dazu zählen Blau ↔ Gelb, Rot ↔ Cyan und Grün ↔ Magenta. Da diese aus den Farben RGB resultieren, stellen sie die Basis dar für das CIE-System und andere technische Systeme (z.B. RGB und CMY).

Abbildung 322: Veranschaulichung der Primär- und Komplementärfarben im Farbkreis

Soweit die Theorie. Im Laufe der technischen Entwicklungen wurde zu Beginn des 20. Jahrhunderts erkannt, dass die subjektive Natur der menschlichen Farbwahrnehmung nicht unbedingt ein verlässlicher Parameter ist. Deshalb wurden bestimmte Farben als Referenzwerte festgelegt werden. Bereits im Jahre 1931 wurde eine Normfarbtafel entwickelt und von der Internationalen Beleuchtungskommission (Commission internationale de l’éclairage: CIE) in einem Farbbeschreibungssystem definiert: dem CIE 1931. Dieses stellt auch heute noch eine international vereinbarte Methode der Farbkennzeichnung dar, um die menschliche Farbwahrnehmung und die physiologisch farbige Wirkung einer wahrgenommenen Strahlung (Farbvalenz) in Relation zu setzen. Sie basiert auf der additiven Farbmischung. Deshalb wird dieses wahrnehmungsbezogene System auch als CIE-Normvalenzsystem bezeichnet, das die Gesamtheit aller vom Menschen wahrnehmbaren Farben umfasst.

Mithilfe der Dreifarbentheorie gelang somit die numerische Erfassung der vom Menschen wahrnehmbaren Farbreize. Auch wenn die Hufeisenform des CIE-Farbsegels vom Grunde her der nicht-linearen physiologischen Verarbeitung im menschlichen Auge entspricht, können mit den drei Primärfarben nur die Farbreize technisch wiedergegeben werden, die nach dem Gamut-Prinzip innerhalb des abgebildeten Dreiecks liegen. Insofern handelt es sich hierbei um ein theoretisches Dreieck mit einem mathematisch definierten Feld, in dem jeweils die Farben liegen, die von einem Bildgerät reproduziert werden können. Auch wenn sich dieses dreieckige Feld innerhalb des Gamuts im Laufe der Zeit erweiterte und damit heute einen weitaus größeren Farbraum gemäß Rec.2020 zulässt, gleicht es noch längst nicht dem Potenzial der menschlichen Wahrnehmung.

Neben dem aktuellen HDTV-Standard gemäß Rec.709 und dem zukünftigen nach BTU-Empfehlung Rec.2020 haben sich im Laufe der Zeit diverse Farbraummodelle entwickelt. So haben allein die Fernsehnormen (NTSC, PAL und SECAM) jeweils individuelle Parameter für die Farbdarstellung. Genauso wurden im Computerbereich eigene Modelle entwickelt, wie etwa sRGB, der eine aktuelle Alternative zu Rec.709 bietet. In der Digitalfotographie ist seit 1998 Adobe-RGB internationaler Standard, im Digitaldruck hat sich CMYK etabliert. Und ein weiterer Farbraum ist spätestens seit Ultra HD und dem entsprechenden Gütesiegel der UHD-Alliance in aller Munde: DCI - der Farbdynamik-Standard für Kinoformate.

Im Rahmen der Zertifizierung und den entsprechenden Angaben in Bezug auf Standards zu Ultra HD und HDR tauchte in 2016 immer wieder die Formulierung auf: „deckt den DCI-Farbraum um xy Prozent ab“. Dieser Parameter wird als Qualitätsmerkmal genutzt, doch kaum jemand weiß, was tatsächlich dahinter steckt. DCI bedeutet grundsätzlich „Digital Cinema Initiatives“. Hierbei handelt es sich um den Dachverband der amerikanischen Filmstudios, welcher den gleichnamigen Farbdynamik-Standard herausgegeben hat. Im eigentlichen Sinne bezieht sich dieser Farbraum auf Kinoformate. Jedoch ist im Zusammenhang mit der 4K-Auflösung insbesondere bei Beamern ebenjenes Cinema-Format mit einer Auflösung von 4096 × 2160 Pixeln im Heimkinobereich längst angekommen. Der entsprechend bezeichnete DCI-Farbraum ähnelt vom Umfang her in etwa dem Adobe-RGB-Farbraum und ist somit bedeutend größer als der Farbraum gemäß BT.709 aber kleiner als nach BT.2020 (vgl. Abbildung).

Abbildung 323: Vergleich Farbräume nach Rec. 709, Rec.2020 und DCI

Kommen wir nun zur Praxis. Erinnern Sie sich an das Desaster seinerzeit bei der Umstellung auf 16:9? Selbst als die Fernseher technisch dazu in der Lage waren, das Seitenverhältnis automatisch anzupassen, waren nervige Verzerrungen die Folge. Die Darsteller in älteren Filmen oder TV-Produktionen im 4:3-Format hatten plötzlich breite Gesichter oder aber ihnen fehlte der halbe Kopf. Ganz ähnlich verhält es sich bei der Darstellung der beiden Farbräume. Denn es ist nicht so einfach, aus 75,8 Prozent des Farbraums 35,9 Prozent zu zaubern – oder umgekehrt. Vor allem dann, wenn nicht bekannt ist, wie diese Farben produziert wurden. Anders als beim Upscaling/Downscaling – also der Anpassung von Full HD auf Ultra HD oder umgekehrt - gibt es in punkto Farbraum kaum geeignete Technologien, die es ermöglichen, die Farben beziehungsweise Farbstandards automatisch anpassen zu können. Die ersten Geräte bieten bereits in den Bildeinstellungen die Auswahlmöglichkeit zwischen BT.709 und BT.2020. Nur hilft uns dieser Modus zurzeit (Stand: 2016) noch keinen Millimeter weiter. Denn auch mit dem teuersten Fernseher bleiben die massiven Probleme in der Abwärtskompatibilität sowie der Linearität der Wiedergabekette bei den verschiedenen Zuspielungen. Warum? Produziert und gesendet wird derzeit noch im Farbraum gemäß BT.709. Stellt man das Display mit BT.2020 ein, wirken die Bilder zu knallig. Und selbst wenn originales Videomaterial mit dem erweiterten Farbraum zugespielt wird, können die Geräte heute noch nicht automatisch zwischen den Farbräumen wechseln und die Bildmodi entsprechend anpassen. Insofern ist es wohl für den Übergang besser, weniger Farben einzustellen, auch wenn man mehr Farben zur Verfügung hat.

Schon mit der Einführung von HDTV und dem Farbstandard gemäß ITU-R BT.709 gab es Probleme zwischen der Filmaufnahme und der Filmwiedergabe. Während die Koordinaten für die Farborte exakt definiert sind, wurde ein verbindlicher Gammaverlauf nur für die Filmaufnahme festgelegt – nicht aber für die Wiedergabe. Doch die Basis für ein perfektes Bild ist die korrekte Umsetzung der Gammafunktion beziehungsweise Gammakorrektur (vgl. entsprechendes Kapitel in diesem Buch). Hierbei handelt es sich um das Leuchtverhältnis unterschiedlicher Grau- und Farbstufen, das dazu dient, aus einer linearen Größe (Aufnahme) eine nicht-lineare Übertragungsfunktion (Wiedergabe) zu machen, die der menschlichen Wahrnehmung entspricht. Im Allgemeinen hat sich der Gammawert von 2,2 bis 2,4 als Standardgröße etabliert, weshalb Displays zwischen 10 und 90 IRE exakt auf ein Gamma von 2,2 kalibriert werden. Bei der Verarbeitung des Eingangs- und Ausgangssignals im TV-Display kann es nun zu Fehlern kommen, die vor allem die Leuchtkraft und damit den Kontrast und natürlich auch die Farbstufen betreffen. Denn der spezifizierte Gammaverlauf von BT.709 für die Aufnahme weicht massiv von einem realen Gamma 2,2 ab. So muss ein 10-Prozent-Pegel im Eingangssignal noch längst keine 10 Prozent der maximalen Leuchtkraft bei der Wiedergabe ergeben. Bisweilen bleibt nicht mehr als 1 Prozent Lichtstärke im Ausgangssignal übrig.

Dies ändert sich nun insbesondere mit der neuen HDR-Technologie. Denn hier wurde die nicht-lineare Übertragungsfunktion (klassische Gammakurve) durch die weitaus komplexere elektrooptische Transferfunktion (EOTF) ersetzt. Allerdings definiert die ITU mit BT.2020 weiterhin eine nichtlineare Übertragungsfunktion zur Gammakorrektur bei RGB und YCbCr. Wobei RGB für beste Qualität und YCbCr für die Gewährleistung der Kompatibilität zu SDTV/HDTV eingesetzt werden kann. Darüber hinaus ist in BT.2020 ebenfalls eine linear-kodierte Version von YCbCr (YcCbcCrc) definiert, welche Anwendung findet, wenn eine möglichst originalgetreue Reproduktion der Helligkeitsinformationen gefordert wird.

Abbildung 324: BUROSCH-Testbild zur exakten Beurteilung des Gamma-Wertes (2,4)

Hinzu kommt, dass neben der Gammakorrektur gemäß BT.2020 bei der Filmproduktion beziehungsweise dem Mastering weitere Übertragungsfunktionen verwendet werden (z.B. nach BT.1886, BT.2035 oder Dolby Perceptual Quantizer: PQ). Außerdem kann im Nachhinein kaum eine eindeutige Aussage darüber getroffen werden, welcher Film wie gemastert wurde. Kurzum: Fernsehtechnik bedeutet heute nicht mehr nur schlichte Amplitudenmodulation. Die digitale Technik ist mittlerweile so komplex geworden, dass selbst beste Prozessoren ihre Schwierigkeiten bei der Signalverarbeitung haben. Genau deshalb klafft zwischen der Theorie und der Praxis noch eine riesige Lücke, die erst nach und nach gestopft werden kann – egal, was die Hersteller versprechen.

Bei der Fülle dieser Werte ist schnell erkennbar, dass insbesondere bei der Farbreproduktion Schwierigkeiten auftreten können. Auch wenn Studiomonitore (z.B. BVM-L 230 von Sony) über präzise Farbkorrekturen verfügen, die nahezu alle Farbstandards emulieren können, heißt das noch lange nicht, dass auch Consumer-Geräte dazu in der Lage sind. Die Hersteller werben mit „Wide Color Enhancer“ und versprechen bessere und sogar mehr Farben, als die Fernsehtechnik jemals vermochte und die Konkurrenz hat. Tatsächlich ist aber nicht die Anzahl der Farben, sondern deren richtige Darstellung das Geheimnis. Und genau hier liegt der Hase im Pfeffer. Selbst wenn die aktuellen TV-Geräte grundsätzlich einen erweiterten Farbraum darstellen können, entspricht dieser nicht immer dem festgelegten Farbstandard. Bei der Reproduktion des Farbraums werden somit Farben schlichtweg falsch dargestellt – also nicht so, wie bei der Aufnahme beziehungsweise Filmproduktion vorgesehen.

Und genau deshalb ist es noch viel zu früh, den HDTV-Standard gemäß BT.709 bereits zu den Akten zu legen. Rec.709 ist immer noch gültig. Im Kapitel „Farbräume und photometrische Größen“ wurde bereits ausführlich darauf hingewiesen, was genau die ITU-Empfehlung BT.2020 beinhaltet. Im Wettstreit um Detailreichtum und Farbvielfalt verwenden die TV-Hersteller den Begriff „Rec.2020“ jedoch quasi synonym für dynamisches Licht, nie dagewesene Bildtiefe und natürlich eine gigantische Farbenpracht. Schlagwörter wie „Wide Color Enhancer“ (Erweiterung des Farbraums) machen die Runde.

Abbildung 325: Werbung für Wide-Color-Enhancer-Technologie (Samsung)

Und doch heißt die aktuelle Videonorm: BT.709. Zumindest noch solange, bis die technischen Voraussetzungen tatsächlich in der Display-Praxis angekommen sind. Die Firma BUROSCH ist seit nunmehr siebzig Jahren am Markt und hat so einige Hypes und technische Revolutionen hautnah miterlebt. Einige davon haben sich durchgesetzt (Full HD), andere sind noch dabei (HDR) und wieder andere verschwinden so langsam wieder von der Bildfläche (3D). Insofern gehört es zu unserem Firmenprofil, die technischen Entwicklungen und Trends am Markt genau zu beobachten, im Labor daran teilzuhaben, darüber zu berichten und im richtigen Moment entsprechend zu handeln. Aufgrund unserer engen Zusammenarbeit mit diversen Herstellern sitzen wir quasi in der ersten Reihe, wenn es um die Geburt, die Kinderkrankheiten und die Etablierung eines neuen Video-Features geht.

Vor diesem Hintergrund können wir im Jahre 2016 mit Fug und Recht behaupten, dass wir uns derzeit im Grunde erst auf der Hälfte des Weges von BT.2020 befinden. Denn es sind gerade einmal vier Jahre vergangen seit der Veröffentlichung der BTU-Empfehlung Rec.2020, die als solche im Übrigen keinen festen Zeitplan vorsieht. Schaut man sich in der Praxis an, was in den aktuellen TV-Modellen drinsteckt, dann wird schnell klar, dass wir uns derzeit erst am Anfang der Phase 2 von UHD-1 befinden. Ultra HD erobert den Markt, 50 beziehungsweise 60 Hz sind Realität und 8-Bit-Panels wurden in 2016 durch die neue 10-Bit-Variante ersetzt. In den deutschen Wohnzimmern hingegen stehen überwiegend Fernseher mit FullHD-Auflösung, ganz zu schweigen vom TV-Signal, das mit DVB-T2 in 2017 erst die FullHD-Ära einläutet und von Ultra HD noch weit entfernt ist.

Selbstverständlich tut sich was in punkto Farbraumerweiterung. Die Fernsehtechnik erlebt in diesen Zeiten eine kleine Revolution. Mit der Recommendation ITU-R BT.2020 vom 23. August 2012 wurde der Grundstein für farbgewaltige XXL-Displays mit beeindruckender Bildqualität gelegt. Aber eben nur der Grundstein und längst nicht die Spitze des gigantischen Wolkenkratzers. Vergleicht man die Entwicklung von High Definition mit einem Hausbau, so befinden wir uns heute vielleicht im mittleren Stockwerk. Denn die BT.2020 sieht insgesamt drei Phasen der Einführung von UHD vor und hat für ebendiese verschiedene Parameter festgelegt oder vielmehr als Mindeststandard empfohlen. Mit 4K und HDR befinden wir uns im Jahre 2016 am Anfang von Phase 2. Das Ziel von Rec.2020 ist also noch längst nicht erreicht, denn das heißt: 8K.

Abbildung 326: Zeitplan für die Umsetzung von Rec.2020

Wie aus obiger Abbildung ersichtlich ist, sind für die Umsetzung der Rec.2020 drei Phasen vorgesehen. Diese beinhalten ausschließlich technische Standards und keine Werbeversprechen. Insofern sollte man sich als Technikinteressierter an ebenjene Spezifikationsrichtlinien halten. Schauen wir uns die technischen Details im Einzelnen an und vergleichen sie mit der Praxis im Jahre 2016:

Bei der Einführung von UHD-Fernsehern wurden noch 8-Bit-Displays verbaut und somit lediglich der Farbraum nach Rec.709 realisiert. Insofern sind hier die gravierenden Unterschiede in der Bilddarstellung begründet, weshalb die Pixelanzahl eben nicht allein über die Qualität entscheidet. So wurde der Farbraum gemäß der Empfehlung Rec.2020 für UHD-2 erweitert und umfasst 75,8 Prozent der Farben im Diagramm des Farbraumes CIE 1931 und damit Wellenlängen, die nach Rec.709 (35,9 Prozent) noch nicht darstellbar waren. Für die RGB-Grundfarben wurden die folgenden Wellenlängen in der BT.2020 festgesetzt: Rot (630 nm), Grün (532 nm), Blau (467 nm). Aufgrund der höheren Abstände zwischen benachbarten Farbwerten erfordert die entsprechend höhere Farbpräzision ein zusätzliches Bit pro Abtastwert.

Gemäß der ITU-R-Empfehlung BT.2020 wird bei 10 Bits pro Abtastwert eine Helligkeitswerteskala genutzt, bei der der Schwarzpunkt auf den Code 64 und der Weißpunkt auf den Code 940 festgesetzt ist. Für die Zeitreferenz dienen die Codes 0 bis 3 und 1.020 bis 1.023, während die Codes 4 bis 63 Helligkeitswerte unterhalb des Schwarzpunktes und die Codes von 941 bis 1.019 Helligkeitswerte oberhalb des Nennspitzenwertes bezeichnen. Bei 12 Bits pro Abtastwert ist der Schwarzpunkt auf dem Code 256 und der Weißpunkt auf dem Code 3.760 der Helligkeitswerteskala gemäß Rec.2020 festgelegt.

Entsprechend verändern sich die übrigen Werte: Zeitreferenz (Codes 0 bis 15 und 4.080 bis 4.095), Helligkeitswerte unterhalb des Schwarzpunktes (Codes 16 bis 255), Helligkeitswerte oberhalb des Nennspitzenwertes (Codes von 3.761 bis 4.079). Das klingt alles ziemlich kompliziert? Ist es auch. Für die praktische Anwendung haben wir deshalb im Folgenden vier Punkte aufgeschlüsselt, die im Wesentlichen den aktuellen Stand der Technik im Jahre 2016 aufzeigen und in diesem Zusammenhang die Tatsache begründen, warum es bis zur realen Praxis gemäß Rec.2020 noch etwas dauert:

Auflösung: Deutschland schafft gerade erst das analoge Kabelfernsehen ab (Sommer 2017). TV-Inhalte in Full HD sind noch längst nicht flächendeckend verfügbar. Lediglich Videoproduktionen in Ultra HD kommen langsam auf den Markt. Die Entwicklung der 4K-Blu-ray-Disk/-Player hinkt. Mit HDR und einem erweiterten Farbraum können ultrahochauflösende Videoinhalte derzeit praktisch nur per Onlinestream geschaut werden – jedoch in voller Qualität nur von dem, der über Highspeed-Internet verfügt. Bei schwachem Datentransfer (z.B. DSL) wird auf Full HD oder gar SD gedrosselt.

Abtastverfahren/Bildwiederholungsrate: Die öffentlich-rechtlichen Fernsehanstalten senden derzeit mit 720 Zeilen und 50 Vollbildern pro Sekunde (720p/50) im progressiven Vollbildverfahren. Das Interlaced-/Halbbildverfahren ist jedoch mit 1080i noch nicht vom Tisch der Programmanbieter. Die Zukunft heißt 1080p/50 und damit gerade einmal Full HD und 50 Hz. Das heißt, Ultra HD mit 100/120 Hz (High Frequency Rate: HFR) ist im Zusammenhang mit der TV-Übertragung reine Zukunftsmusik.

Quantisierung/Farbraum: Mit 8 Bit für die Übertragung beziehungsweise Verteilung von TV- und Videoinhalten ist kein HDR möglich. Abgesehen davon sind alle Geräte, die bis 2015 hergestellt wurden, in der Lage, maximal mit 8 Bit zu arbeiten. Der erweiterte Farbraum wird in den Studios generell noch nicht angewendet, aktueller Standard bleibt für 2016 und die nahe Zukunft der Farbraum nach BT.709.

Insofern ist der Weg bis zur Vollendung der ITU-Empfehlung noch lang, auch wenn „lang“ im rasanten Tempo der technischen Fortschritts im 21. Jahrhundert quasi nur noch ein Wimpernschlag bedeutet. Erste Player sind auf dem Markt und mit ihnen eine kleine Auswahl an Blu-ray-Discs. Videomaterial in Ultra HD ist tatsächlich aber nach wie vor fast ausschließlich als Stream zu haben. Allerdings ist das Datenvolumen eines erstklassigen 4K-Streams inklusive HDR & Co. trotz bester Komprimierungsverfahren riesig und kann nach heutigem Stand kaum transportiert werden (vgl. Kapitel „Streaming in Ultra HD und 8K“ in diesem Buch).

Wer sich nun fragt, warum Hersteller mit ihren aktuellen TV-Modellen den erweiterten Farbraum nun so hoch loben? Dieser stellt naturgemäß ein wesentliches Qualitätsmerkmal dar - sowohl bei der Aufnahme als auch bei der Wiedergabe. Denn nur ein umfassender Einstell-Spielraum macht eine automatische Farbkorrektur möglich, die dafür sorgt, dass die Farbreproduktion an die unterschiedlichen Farbstandards angepasst werden kann und somit neutrale Farben liefert. Also auch wenn es noch eine Weile dauern wird, bis Hollywood seine Blockbuster im erweiterte Farbraum serienmäßig produziert, kann es nicht schaden, schon heute einen Fernseher zu besitzen, der nicht nur den aktuellen HDTV-Standard BT.709 korrekt darstellt, sondern darüber hinaus den erweiterten Farbraum gemäß BT.2020 realisieren könnte.

Bleibt abschließend zu bemerken, dass sich die ITU-Empfehlung BT.2020 nicht auf die Bildeinstellungen bezieht, sondern grundsätzlich auf die Display-Technik für ultrahochauflösende Geräte. Es geht also primär um Bits, Hertz und die technischen Voraussetzungen für die Zukunft von UHD-2 (8K). In enger Zusammenarbeit mit diversen Herstellern testen wir seit 2016 Displays in der jeweiligen Produktionsphase auf den aktuellen Farbraum gemäß Rec.2020 - so beispielsweise das UltraHD-Premium-Modell TX-58DXW904 von Panasonic, welches als erstes Gerät überhaupt das Premium-Siegel der UHD-Alliance erhielt und tatsächlich den erweiterten Farbraum darstellen kann und darüber hinaus HDR-fähig ist.

HDR

High Dynamic Range (HDR) war bisher nur aus der Bildbearbeitung bekannt. Dabei handelt es sich um sogenannte Hochkontrastbilder, die große Helligkeitsunterschiede detailreich wiedergeben, weshalb in diesem Kontext auch von Bildern mit hohem Dynamikumfang gesprochen wird. Das Gegenteil bezeichnet LDR – also digitale Bilder mit geringem Dynamikumfang: Low Dynamic Range (Images). Die Standardvariante insbesondere in der herkömmlichen Videotechnik wird als SDR (Standard Dynamic Range) bezeichnet – also ähnlich wie bei der Videoauflösung SD und HD. Bisher waren HDR-fähige Ausgabegeräte dünn gesät. Aber auch das änderte sich mit der neuen TV-Generation im Jahre 2016, weshalb es nicht schaden kann, zu wissen, worum es dabei eigentlich geht.

Der Dynamikumfang bezeichnet grundsätzlich das Verhältnis von größter und kleinster Leuchtdichte und wird typischerweise von der sichtbaren Umgebung (Kamera oder Betrachter) in der Größenordnung von 10.000:1 ausgewiesen. Allerdings kann dieser Dynamikumfang auch noch wesentlich größer werden, wenn eine Lichtquelle hinzugezogen wird. Bisher wurden bei der digitalen Bildverarbeitung hierzu lediglich 256 Helligkeitsstufen (8 Bit) für jeden RGB-Farbkanal verwendet.

Abbildung 327: Vergleich mit und ohne HDR-Modus (http://4k.com)

Allerdings erhöht sich mit den neuen Technologien die Farbtiefe auf 10 Bit (Deep Color). Dazu nutzen HDR-Displays spezielle Techniken, um den Dynamikbereich auszuweiten. Eine Möglichkeit ist hier die Erhöhung der Helligkeitswerte über eine Hintergrundbeleuchtung - einer sogenannten LED-Matrix, mit der das Display nicht flächendeckend, sondern individuell heller und dunkler bestrahlt wird oder aber die Bildpunkte selbst dynamisch leuchten. Erst so kann der Kontrast erhöht beziehungsweise Weiß heller und Schwarz dunkler dargestellt werden, als es bisher möglich war. Die Steuerung von Farbton und Helligkeit erfolgt bei HDR also nicht mehr statisch, sondern in Abhängigkeit vom Bildinhalt. In der Gerätepraxis werden so Werte zwischen 0,01 und 4.000 cd/qm erzielt, was einem Dynamikumfang von 400.000:1 entspricht.

Mit HDR ist es somit möglich, die in der Natur vorkommenden Helligkeiten und Farben viel besser zu erfassen und entsprechend darzustellen. Über- oder Unterbelichtungen sind perspektivisch so gut wie ausgeschlossen. Deshalb können mit der HDR-Technologie und der entsprechenden Farbtiefe nunmehr Bilder und Videos erzeugt und wiedergegeben werden, die gestochen scharf, kontrastreich und darüber hinaus auch noch dem natürlichen Vorbild zum Verwechseln ähnlich sehen. Wer sich die Realität in die eigenen vier Wände holen möchte, muss allerdings noch relativ viel Geld ausgeben. Auch wenn die Hersteller massiv auf diese neue Technik setzen, gibt es sie bisher nur in teuren Premiumgeräten.

HDR – Das Geheimnis ist das Licht

Abbildung 328: HDR – Das Geheimnis ist das Licht (Bild: Samsung)

Ultra HD ist schon längst keine Neuigkeit mehr und etabliert sich nach und nach in unseren Wohnzimmern. Nun tauchen neue Schlagwörter auf, die Anwendern einiges Kopfzerbrechen bereiten. Nicht selten werden technische Begriffe wie 4K, HDR und der erweiterte Farbraum in einen Topf geworfen. Fakt ist jedoch, dass jedes dieser technischen Features eine Klasse für sich darstellt. Was bedeutet nun HDR, warum hinkt die Umsetzung und welche Potenziale stecken dahinter?

Modernes Fernsehen hat spätestens seit 2016 nicht mehr ausschließlich etwas mit Masse zu tun, auch wenn über acht Millionen Pixel pro Bild bei Ultra HD natürlich schon großartig sind. Jetzt werden neben der ultrahohen Auflösung ebenjene Pixel qualitativ aufgemotzt. Die einzelnen Bildinformationen können mithilfe der HDR-Technik aufgewertet werden und machen das Videomaterial somit noch brillanter und detailreicher. Insofern sollte man HDR nicht synonym für Ultra HD verwenden, denn es ist weitaus mehr. Mit HDR wird es zukünftig gigantische 1.000 Helligkeitsabstufungen geben, während bei herkömmlichen UHD/4K-Inhalten lediglich 256 Hell-Dunkel-Werte pro RGB-Farbkanal möglich sind (Stand: 2016).

Mit HDR gelingt die Darstellung des gesamten Umfangs an sichtbaren Details – sowohl im Licht als auch im Schatten. Das klingt erst einmal einfach, ist es aber ganz und gar nicht. Wenn Sie beispielsweise ein paar Sekunden in die Sonne schauen, fällt es Ihnen im Anschluss außerordentlich schwer, sich in einem dunklen Keller zu orientieren. Wenn man nun bedenkt, dass die menschliche Wahrnehmung der Technik meilenweit voraus ist, wird deutlich, dass die parallele Aufnahme sowie Darstellung von hellen und dunklen Bereichen eine mannigfaltige Herausforderung für Ingenieure und Kamera- und Display-Hersteller ist. Denn bisher konnte man entweder Details im Hellen darstellen, wobei dann im dunklen Teil des Bildes nichts zu erkennen war. Oder eben umgekehrt: bei detailreichen dunklen Szenen wurde der helle Anteil überbelichtet. Mit HDR wird es zukünftig möglich sein, sowohl dunkle als auch helle Bildanteile so zu produzieren und wiederzugeben, wie wir sie in der Natur wahrnehmen und es sich Produzenten und Regisseure wünschen. Dabei wird zwischen diffusem Weiß und sogenannten Spitzlichtern unterschieden, was eine deutlich bessere Differenzierung in der Tiefe eines Bildes zulässt. Das Ergebnis ist eine Bildwiedergabe, die wesentlich naturgetreuer ist, als es bisher möglich war.

Die vielen Informationen und Werbeversprechen der Hersteller lassen uns glauben, dass HDR bereits im Jahre 2016 quasi dazugehört und gleichzusetzen sei mit 4K oder Ultra HD. Doch letztlich stehen wir hier – ähnlich wie beim erweiterten Farbraum gemäß Rec.2020 - noch ganz am Anfang, wenngleich die technische Entwicklung schneller voranschreitet als noch im letzten Jahrtausend. Während der sogenannte Dynamikumfang – also das Verhältnis von größter und kleinster Leuchtdichte – noch vor einigen Jahren bei mickrigen 100 Nits lag und Videomaterial in ebenjenem Kontrastverhältnis von 100:1 produziert wurde, lagen die Werte bis 2014/2015 bei etwa 400 Nits. Einige UHD-TVs im Jahre 2016 schaffen hingegen die für HDR erforderliche Spitzenhelligkeit von 1.000 Candela pro Quadratmeter (cd/qm) und ein entsprechendes Kontrastverhältnis von 1.000:1 bis stellenweise sogar 10.000:1. Die HDR-Tauglichkeit der Geräte hängt also unmittelbar mit den technischen Voraussetzungen zusammen, die zum einen die erwähnte Spitzenhelligkeit als auch den Schwarzwert betreffen, der im Rahmen der Zertifizierung der UHD-Alliance bei weniger als 0,05 Nits für LED-LCD-Displays beziehungsweise unter 0,0005 Nits für OLED-Bildschirme liegt.

Andererseits ist für diesen riesigen Dynamikumfang (0,05 bis 10.000 Nits) und die entsprechend kontrastreiche Darstellung eines unabdingbar: die erhöhte Quantisierung. Das heißt, die Bildabtastung muss in einem höheren Intervall erfolgen, da weitaus mehr Werte im Signal verarbeitet werden müssen. Um diese für HDR typischen hohen Kontraste und brillante Bildqualität erreichen zu können und störende Helligkeitsschwellen beziehungsweise Helligkeitssprünge (Artefakte) unsichtbar zu halten, reicht die bisherige 8-Bit-Technik mit 256 Helligkeitsstufen nicht mehr aus.

Abbildung 329: www.technicolor.com

Gemäß des neuen Standards (SMPTE ST-2084) werden für HDR mindestens 10 Bits pro Abtastwert vorgeschrieben. Diese Bittiefe entspricht in etwa einer Milliarde Farbtöne, denn letztlich ist das Licht das Geheimnis von Detailgenauigkeit und brillanter Farbdarstellung. Insofern wird in diesem Zusammenhang von der Farbtiefe oder aber Deep Color gesprochen. Mit den neuen Display-Technologien (z.B. OLEDQuantum Dots) wurde die Grundlage geschaffen, die Farbtiefe auf 10 Bit oder gar 12 Bit zu erhöhen und den Dynamikbereich entsprechend auszuweiten. Doch damit noch nicht genug. Ein weiteres entscheidendes Kriterium bei der Umsetzung von HDR ist die Datenverarbeitung nach dem Vorbild des Internets.

Mithilfe des softwaregestützten HDR-Verfahrens wird es zukünftig auch in der Fernsehtechnik möglich sein, mit dem Filmmaterial gezielt Informationen (Metadaten) zu übertragen, die im Display die Helligkeit dynamisch steuern. Somit können automatisch Bildverbesserungen insbesondere bei extremen Hell-Dunkel-Bereichen vorgenommen werden. Einfach ausgedrückt funktioniert HDR ähnlich wie die menschliche Wahrnehmung - speziell wie die Adaption im menschlichen Auge. Ob nun in tiefschwarzer Nacht oder im Licht eines 1000-Watt-Halogenstrahlers: unsere Augen können sich grundsätzlich an schier unzählige Lichtintensitäten  anpassen. Differenzen in den Lichtverhältnissen kompensiert die Pupille durch Verengung oder Erweiterung (Hell-Dunkel-Adaption/Pupillenlichtreflex) sowie mit Veränderung in der Sensitivität der Rezeptoren.

Abbildung 330: BUROSCH-Realbild "Winter" zur perfekten Kontrolle nach erfolgter Bildoptimierung mit unseren Referenz-Testbildern

Diese retinale Adaption hat die Natur dafür vorgesehen, dass wir unsere Wahrnehmung an stark unterschiedliche Umgebungshelligkeiten (Leuchtdichten) anpassen können. So schafft es unser Auge, sagenhafte 10.000.000.000.000 (1012) verschiedene Reizstärken zu differenzieren, um somit die Orientierung bei Nacht zu gewährleisten. Auch bei direkter Sonneneinstrahlung können wir beispielsweise Spuren im Schnee erkennen, was auf die einzigartige Wechselwirkung zwischen Auge und Gehirn zurückzuführen ist. Jetzt schafft auch die Technik zumindest ansatzweise, was bisher nur der Natur vorbehalten war. Mit der 4K-Auflösung waren wir schon ziemlich dicht an der Realität, mit HDR wird der Unterschied zwischen einem künstlichen Display und dem Original in der Natur noch geringer.

Was zu Beginn des digitalen TV-Zeitalters noch als technische Herausforderung galt, ist also heute zumindest in einigen Geräten möglich. Erste HDR-taugliche TV-Modelle kamen Ende 2015/Anfang 2016 auf den Markt. Wer besonderen Wert auf extrascharfe Bilder und einzigartige Kontraste legt, der sollte auf die jeweiligen Spezifikationen und Mindestanforderungen achten, die unter anderem von der UHD-Alliance mit ihrem Label „Ultra HD Premium“ festgelegt beziehungsweise zertifiziert werden. Hierzu zählt insbesondere die Spitzenhelligkeit von mindestens 1.000 Nits, welche die Grundvoraussetzung für HDR darstellt. Wer auf Nummer sicher beim Kauf gehen möchte, der sollte sich generell an dem Label der UHD Alliance orientieren, mit dem nicht nur HDR-fähige TV-Geräte, sondern auch Player und sogar Blu-ray-Disks ausgestattet sind. Beachten Sie hierzu das folgende Kapitel „Ultra HD PremiumTM“).

Probleme bei der Kompatibilität

Kaum jemand wird sich an die Umstellung vom Schwarz-Weiß- zum Farb-Fernsehen erinnern. Doch grundsätzlich gab es damals ähnliche Probleme wie heute. Der Grund war und ist die Kompatibilität der verschiedenen Systeme. Gerade im Broadcast- beziehungsweise Fernsehbetrieb sind die Herausforderungen an die Entwickler gigantisch, aber auch für HDR aus der „Konserve“ (Blu-ray-Disc) oder gar im Online-Stream sind im Jahre 2016 noch längst nicht alle Voraussetzungen geschaffen. Das liegt zum einen daran, dass es zumindest für eine absehbare Zeit sowohl SDR- als auch HDR-Angebote geben muss, weil natürlich nicht jeder ab sofort ein HDR-fähiges Gerät zu Hause stehen hat. Wir sind gerade erst dabei, uns von den letzten Röhrenfernseher zu verabschieden und das analoge TV-Signal restlos abzuschalten. Deshalb muss bei der Entwicklung einer Übertragungstechnik insbesondere die Kompatibilität berücksichtigt werden. Ähnlich wie bei der Auflösung (Full HD/Ultra HD) müssen die technischen Standards also geräteunabhängig praktikabel sein, da in den nächsten Jahren SDR und HDR parallel laufen werden.

Insofern wurden und werden verschiedene HDR-Standards entwickelt. Der wohl aktuell meist verbreitete ist HDR-10, welcher überwiegend in den 2016er TV-Modellen vorkommt und auch für 4K-Blu-ray vorgesehen ist. Jedoch verspricht das technisch ausgefeiltere Format „Dolby Vision“ bereits jetzt (Stand: 2016) eine noch bessere Qualität, deshalb wird sich diese Technik in nächster Zeit wohl weiter am Markt durchsetzen. Neben einer dritten Variante von Technicolor & Philips, die vorrangig für Streaming und Blu-ray entwickelt werden soll, tüfteln auch Sendeanstalten (z.B. BBC) an eigenen Verfahren, die sich allerdings mehr mit der Fernsehübertragung befassen. Mehr dazu in den weiteren Kapiteln. Zuvor widmen wir uns einigen technischen Problemen im Allgemeinen.

Probleme zwischen Aufnahme und Wiedergabe

Wie bereits erwähnt, stammt HDR eigentlich aus der digitalen Fotografie beziehungsweise Bildbearbeitung. Um dunkle und helle Szenen gleichzeitig so detailreich wie möglich zu gestalten, behilft man sich hier mit einem kleinen Trick. Dieselbe Szene wird mit unterschiedlichen Belichtungen mehrfach aufgenommen und im Anschluss mithilfe einer passenden Software zusammengesetzt. Damit solche Aufnahmen mit einem großen Dynamikumfang auch kompatibel sind und dementsprechend auf Geräten mit einem geringen Kontrast angezeigt werden können, kommt das sogenannte Tonemapping zum Einsatz, das im nächsten Kapitel noch im Detail erläutert werden soll.

Beim Film wird seit einiger Zeit mit einem sehr großen Szenenkontrastumfang und entsprechenden Kompressionsverfahren („Color Grading“) gearbeitet, weshalb die Dynamik zwischen Hell und Dunkel hier bereits gegeben ist. Hochwertige Kameras können heute (Stand: 2016) im Umfang von bis zu 14 Blendenstufen aufnehmen, denn sie verfügen über präzise Sensoren, die Licht in ein elektrisches Signal umwandeln. Diese Umwandlung von Photonen zu Elektronen bis hin zum Videosignal wird über eine sogenannte Opto-Electronic-Transfer-Funktion (OETF) definiert. Ursprünglich wurde diese Funktion (auch als Gammavorentzerrung bekannt) dazu benutzt, in Röhrenmonitoren die nicht-lineare Electronic-Opto-Transfer-Funktion (EOTF) zu kompensieren. Diese EOTF wurde seinerzeit in der ITU-Empfehlung BT.1886 standardisiert. Da diese Gammavorentzerrung als Potenzfunktion mit dem Exponenten 2,4 dem menschlichen Kontrastempfinden sehr ähnlich ist, wurde sie sowohl in der HDTV-Norm BT.709 (mit 8 Bit oder 10 Bit) als auch in der BT.2020 für UHDTV-Signale (mit 10 Bit oder 12 Bit) beibehalten. Der einzige Unterschied liegt hier also in der Quantisierung.

Abbildung 331: Werbung Dolby Vision

Moderne Kameras verwenden also überwiegend eine logarithmische Kurve (OETF), während Displays auf die herkömmliche Gammavorentzerrung (EOTF) zurückgreifen. Beide Standards arbeiten unabhängig voneinander und sind längst nicht in jedem Gerät gleich. Denn die verschiedenen Hersteller nutzen speziell optimierte log-Funktionen für den jeweiligen Sensor, damit die Kameras mit einem möglichst hohen Szenenkontrastumfang und möglichst geringem Datenvolumen aufnehmen. Die OETF (Aufnahme) ist also variabel und darüber hinaus nicht spezifiziert. Und genau hier liegt das Problem. Denn für eine perfekte Rekonstruktion (also die Umwandlung eines elektrischen Signals in ein optisches Signal) muss auf der Wiedergabeseite (EOTF) bekannt sein, mit welcher Wiedergabekennlinie gearbeitet werden muss. Ist dies nicht bekannt, wird es schwer bis unmöglich, den gesamten Dynamikumfang der Aufnahme bei der Wiedergabe zu erhalten.

So sind heute auch Fernsehkameras sehr wohl in der Lage, mit einem größeren Dynamikumfang aufzuzeichnen. Jedoch wurde dieses Feature bisher vernachlässigt, da es keine geeigneten Verarbeitungsmöglichkeiten in der Produktions- und Sendekette gab. TV-Signale werden live übertragen, eine nachträgliche manuelle Bearbeitung wie beim Film ist also beim Broadcast naturgemäß ausgeschlossen. Für die direkte Übertragung von HDR-Inhalten bedarf es insofern automatischer Verfahren, die eine hersteller- sowie systemunabhängige Signalverarbeitung zulassen und eine qualitativ hochwertige Wiedergabe sowohl in HDR als auch in SDR realisieren. Der simpelste Denkansatz hierfür war und ist die Weiterentwicklung des Tonemappings.

Abbildung 332: Werbung Dolby Vision

Tonemapping

Das Ziel der HDR-Entwicklung ist also nicht nur, die technischen Voraussetzungen für HDR sowohl bei der Aufnahme (Kamera) als auch bei der Wiedergabe (Display/Fernseher) zu schaffen. Die Schwierigkeit liegt in der Kompatibilität zwischen Sender und Empfänger und der Abwärtskompatibiliät der einzelnen Standards (HDR  SDR). Insofern bietet sich die sogenannte Hybrid-Log-Gamma-Funktion (HLG) an, die seit 2016 für die Übertragung bereits genutzt wird (vgl. Kapitel „UHD/HDR-Demokanäle“ in diesem Buch). Die HLG-Technologie sorgt dafür, dass der Dynamikumfang abwärtskompatibel komprimiert wird, was allgemeinhin als Tonemapping bekannt ist. Natürlich kann dieses Verfahren aus der Digitalfotografie nicht eins-zu-eins in den Videobereich übernommen werden. Denn anders als bei einzelnen Bildern müssen Filmsequenzen über eine temporale Homogenität und eine Echtzeitfähigkeit verfügen und darüber hinaus gilt es, Artefakte zu vermeiden.

In der Weiterentwicklung des Tonemappings gibt es nunmehr zwei Varianten. Einerseits das globale Tonemapping, bei der auf Basis einer durchschnittlichen und maximalen Leuchtdichte jedes Pixel mit derselben Übertragungskurve gewichtet wird. Der Vorteil liegt in der niedrigen  Rechenintensität, der Möglichkeit, das Ursprungssignal zurückzugewinnen (inverses Tonemapping) und der geringen Artefaktebildung.

Wenn es jedoch darum geht, einen möglichst großen Szenenkontrastumfang darzustellen, bietet das lokale Tonemapping bessere Chancen, einen höheren Kontrast zu bewahren. Denn mit einer höheren Datenkompression kann hier auch die Umgebung eines jeden Pixels berücksichtigt werden. Wenn man bedenkt, dass ein UHD/4K-Bild über 8 Millionen Pixel beinhaltet und mit der BT.2020 zukünftig bis zu 120 Bilder pro Sekunde (120 Hz) übertragen werden sollen, kann man sich die unglaubliche Rechenleistung und das entsprechende Datenvolumen zumindest ansatzweise vorstellen. Insofern stellt sich in diesem Zusammenhang die Frage nach der besten Übertragungsmethode, wie also die nötigen Informationen am besten und schnellsten vom Sender zum Empfänger gelangen und welche Codierung/Decodierung sinnvoll ist.

HDR-Übertragungsmethoden

Ähnlich wie bei 2D  3D oder auch SD  HD seinerzeit und dem erweiterten Farbraum zukünftig, besteht auch bei HDR die Notwendigkeit, sowohl SDR- als auch HDR-Inhalte gleichzeitig zu übertragen sowie zu codieren. Dafür gibt es derzeit (Stand: 2016) drei verschiedene Varianten.

Einfacher Single-Layer: Hier wird die Szene über einen einzigen Datenstrom transportiert und mithilfe einer Transformationskurve (Hybrid-Log-Gamma-Kurve: HLG) so codiert, dass die Videoinhalte auf jedem handelsüblichen Display (SDR und HDR) wiedergegeben werden können. Metadaten sind hierfür nicht erforderlich, dafür ist der Dynamikumfang begrenzt.

Doppelter Single-Layer: Mit einer Punkt-zu-Punkt-Verbindung wird die Szene in zwei voneinander getrennten Datenströmen übertragen, wobei der eine Stream die SDR-Inhalte und der andere die HDR-Inhalte enthält. Je nach Display-Typ und Videomaterial kann so das jeweils passende Signal abgerufen werden.

Dual-Layer: Auch hier werden zwei unterschiedliche Streams (SDR: Basis-Layer/HDR: Enhancement-Layer) genutzt, die jedoch parallel über nur einen Datenstrom übertragen werden. Die zusätzlich mitgelieferten Metadaten sorgen dann dafür, dass beide Signale im jeweiligen Endgerät entsprechend getrennt beziehungsweise einzeln abgerufen werden können.

Abbildung 333: HDR-Übertragungsmethoden

Metadaten

Ein großer Schritt in Richtung Kompatibilität setzen Metadaten, die dem Datenstrom hinzugefügt werden. Wesentliche Grundvoraussetzung ist hier natürlich ein einheitlicher Standard, sodass diese auch auf allen gängigen Signalübertragungswegen (z.B. SDI, IPTV, OTT) Verwendung finden können. Eine besondere Herausforderung ist auch hier die Übertragung in Echtzeit, wie beim Broadcast/Fernsehen, da die Informationen synchron und verlustfrei weitergegeben werden und die Verzögerung bei der Signalverarbeitung so gering wie möglich sein müssen. Insofern wird heute von den Entwicklern für Fernsehübertragungen der einfache Single-Layer-Betrieb präferiert. Bei Nicht-Echtzeitanwendungen kann sich quasi Zeit gelassen werden und die statischen Metadaten auch noch während der Nachbearbeitung hinzugefügt beziehungsweise abgespeichert werden. Entscheidend sind hier die Informationen über die Erstellung des Videomaterials während des Mastering-Prozesses, um die Wiedergabe möglichst originalgetreu zu realisieren. Damit Aufnahme und Wiedergabe sozusagen dieselbe Sprache sprechen, wurden im SMPT-Standard ST-2086 konkrete Werte für das Mastering-Display festgelegt. Dazu gehören die X/Y-Koordinaten der drei Display-Primärvalenzen sowie des Weißpunkts und darüber hinaus die maximale/minimale Leuchtdichte. Diese werden in den Metadaten beschrieben, damit die Wiedergabe das Mastering nachvollziehen kann. Bei 4K-Blu-ray/HDR ist es möglich, weitere Informationen (Metadaten) hinzuzufügen, die sich im RGB-Kontext auf den maximalen Wert in einer Szene (Maximum Content Light Level: MaxCLL) und den durchschnittlichen Wert (Maximum Frame-Average Light Level: MaxFALL) von Szene zu Szene beziehen.

Diese dynamischen Metadaten dienen vorrangig der Kompatibilität zwischen Mastering-Display und Wiedergabebildschirmen mit geringem Dynamikumfang. Die Basisparameter hierfür sind in der SMPTE ST-2094-1 und ST-2094-2 spezifiziert und umfassen grundsätzlich vier unterschiedliche Anwendungen:

Transformation: Abhängig vom Eingangsbild wird aus dem Ausgangsmaterial ein Bild generiert und kann manuell verändert werden (Tonemapping).

Color-Grading: Hier werden bestimmte Parameter festgelegt, wie und wo (manuell oder automatisch) Helligkeits- und Farbveränderungen vorgenommen werden sollen, welche dann in den Metadaten übertragen werden.

Differenzierung: Aus dem HDR-Inhalt und den zusätzlich gelieferten Metadaten wird ein SDR-Bild gewonnen.

Spezifikation: Auf Basis der maximalen Leuchtdichte von Mastering- und Wiedergabedisplay werden mithilfe von Tonemapping-Algorithmen spezifische Parameter berechnet, um das HDR-Material bei der Wiedergabe möglichst originalgetreu darzustellen.

Abbildung 334: HDR Color Grading (www.technicolor.com)

HDR-Systeme und ihre verschiedenen Ansätze

Während perspektivisch BBC/NNK insbesondere vor dem Hintergrund der Live-Übertragung im Broadcast-Bereich die einfache Single-Layer-Methode nutzen wollen, bevorzugen Dolby, Philips und Technicolor komplexere Methoden. Hierbei stützen sich die Entwicklungsansätze bei Dolby Vision auf die Übertragung der Metadaten im Enhancement-Layer. Technische Basis hierfür ist die sogenannte Preceptual-Quantizer-Kurve (PQ) gemäß SMPTE ST-2084. Beim Mastering des EDR-Materials (Extended Dymanic Range) werden darüber hinaus Metadaten erzeugt, die weitere Informationen zur Darstellung des Bildmaterials enthalten. Natürlich gibt es das alles nicht umsonst. Die Datenrate des Enhancement-Layers steigt proportional zum Umfang der Metadaten und liegt etwa 25 Prozent über der des Basis-Layers. Dolby setzt bei seinem HDR-System „Dolby Vision“ auf die automatische Konvertierung des oben beschriebenen lokalen Verfahrens (Content Mapping Unit: CMU), bei dem aus der HDR-Version das SDR-Material generiert wird. Dazu werden aus dem HDR-Grading die entsprechenden Einstellungen abgeleitet und bei der Reproduktion die nötigen Informationen für das SDR-Grading geliefert.

Philips will für die Übertragung einen Basis-Layer zuzüglich Metadaten nutzen, aus denen die jeweilige Version (SDR/HDR) im Wiedergabegerät reproduziert werden kann. Sollte es nur eine HDR-Version im Original geben, wird das SDR-Bild mithilfe des automatischen Tonemappings inklusive manueller Bildoptimierung erzeugt. Bei Technicolor wird die HDR-Version vorverarbeitet, sodass jedes HDR-Bild quasi aus einem SDR-Bild und den dazugehören Modulations-Metadaten besteht. So kann über das SDR-Signal beispielsweise via HEVC/Main 10 codiert, übertragen und in einem SDR-Display entsprechend wiedergegeben werden. Genau wie bei Philips werden die zusätzlichen dynamischen Metadaten für die Modulation in HDR in sogenannten SEI-Paketen (Supplemental Enhancement Information) an ein entsprechendes Wiedergabegerät weitergeleitet und dort zu einem HDR-Bild reproduziert. Hier kommt ebenfalls die inverse Funktion des Vorverarbeitungsprozesses zum Einsatz. Da sich beide Systeme im Over-The-Top-Content (OTT) sehr ähnlich sind, wurde sich hier darauf geeinigt, gemeinsam ein einheitliches Verfahren zu entwickeln. Technicolor verkündete dies in einer Pressemitteilung vom 4. Januar 2016.

HD+ (Samsung)

Im August 2016 verwirrte die Meldung, dass Samsung mit seinem HDR+ das entsprechende Videomaterial optimieren möchte. Hierbei handelt es sich aber nicht um einen Standard, sondern lediglich um einen Bildmodus (HDR+), der die Helligkeitseinstellungen des jeweiligen Displays umfasst. Wird HDR+ zugeschaltet, erfolgt eine automatische Anpassung unter anderem der Backlight-Einstellung auf die höchste Stufe. Damit können dunkle Bildbereiche an Kontrast gewinnen, insbesondere wenn eine entsprechend hohe Umgebungsbeleuchtung vorhanden ist (Tageslicht). Samsung verspricht ein Online-Update für HDR+ für alle 2016er SUHD-Modelle. Fakt ist aber, dass es sich hier lediglich um eine automatische Bildanpassung handelt und nicht um die in diesem Kapitel beschriebene HDR-Technologie selbst.

HDR-10 vs. Dolby Vision

Das Ziel aller Entwicklungen ist, für möglichst viele herkömmliche und zukünftige Displays mit ganz unterschiedlichen Systemvoraussetzungen (z.B. Spitzenhelligkeit, Schwarzwert) ein optimales Ergebnis zu schaffen, das sowohl SDR als auch HDR beinhaltet. Im Gegensatz zur Auflösung, bei der es lediglich um die Anzahl der Bildpunkte geht, ist HDR weitaus komplexer. Da reicht also kein Update/Upgrade. Wer mit Dolby Vision zukünftig HDR-Inhalte genießen möchte, der muss tatsächlich neu kaufen.

Grundsätzlich unterscheiden sich die einzelnen HDR-Standards im Mastering-Prozess und der Übertragungsform der Metadaten. So liegt beim herkömmlichen HDR-10 die Farbtiefe bei 10-Bit, Dolby Vision arbeitet hingegen mit 12 Bit, also einem weitaus breiterem Helligkeitsumfang, was für höhere Bildqualität sorgt. Zudem können die Bildinhalte hier besser an das Display angepasst werden, da die Helligkeitsinformationen pro Bild übertragen werden und nicht wie bei HDR-10 pro Film. Insofern greifen die ersten TV-Hersteller (z.B. LG, Sony) nach „Dolby Vision“, mit deren Unterstützung die HDR-Umsetzung noch besser gelingen soll. Ob dieser Standard bei Blu-ray-Playern ebenfalls übernommen wird, ist derzeit (Stand: 2016) noch nicht sicher. Gemunkelt wird aber, dass noch in 2016 insbesondere LG und Philips neue UHD-Player auf den Markt bringen wollen, die Dolby Vision mit an Bord haben.

 

HDR-10

Dolby Vision

Maximale Helligkeit

1.000 nits (cd/m2)

10.000 cd/m²

Farbauflösung

10 Bit

12 Bit

Bildanpassung

statisch

dynamisch

Signalverarbeitung

Single-Layer

Dual-Layer

Kurzum: Die Umsetzung von HDR steckt noch in den Kinderschuhen – genau wie die Systeme zur Umsetzung. So informiert im Sommer 2016 Dolby erstmalig ausführlich zum neuen HDR-Verfahren „Dolby Vision“. Bereits mehrere Fernseher diverser Marken (z.B. TCL, Vizio) unterstützen dieses HDR-System, die technischen Voraussetzungen bieten hingegen derzeit (Stand: 2016) nur einige aktuelle Modelle des Herstellers LG.

Mit der Etablierung von Dolby Vision wird eines unumgänglich sein: neue Geräte. Das liegt jedoch nicht am Marketing oder an den Herstellern, sondern tatsächlich am Aufbau der neuen HDR-fähigen Blu-ray-Disc mit Dolby Vision. Denn diese besteht aus mehreren Schichten. Zum einen aus der BL-Schicht (Basis-Layer) für die allgemeinen Bildinformationen und zum anderen aus der EL-Schicht (Enhancement Layer) für alle Zusatzinformationen/Metadaten. Die neuen Player müssen nun in der Lage sein, beide Schichten (BL + EL) parallel auszulesen. Hinzu kommt auch hier der aktuelle Codec H.265, der Ultra HD und HDR sowieso erst möglich macht. Aufgrund der hohen Datenmengen, die decodiert werden müssen, sind insbesondere bei höheren Bildfrequenzen für Dolby Vision neben der Single Chip-Signalverarbeitung sogar zwei HEVC-Decoder vorgesehen. Dolby Vision erklärt im Sommer 2016, dass hier die Unterstützung von gleich mehreren großen Chip-Produzenten zugesagt wurde, etwa von Mediatek, Realtek oder Sigma.

Für die Verbraucher ist dabei natürlich besonders interessant, inwieweit ein heute (Stand: 2016) gekaufter Blu-ray-Player zukünftig HDR-Videomaterial auf Basis von Dolby Vision wiedergeben soll, wenn dieser aber nur HDR-10 unterstützt. Die gute Nachricht ist: eine „Abwärtskompatibilität“ zu HDR-10 ist dabei nicht ausgeschlossen. Möglich ist, dass 4K-Blu-ray-Discs mit Dolby Vision auch die Metadaten von HDR-10 enthalten, damit Geräte, welche Dolby Vision nicht verarbeiten können, zumindest HDR mit HDR-10 möglich machen.

Videomaterial mit HDR

Wer nach passendem Videomaterial Ausschau hält, das tatsächlich in HDR produziert wurde, muss mit der Lupe suchen. Bei TV-Sendern ist HDR vor allem wegen der mangelnden Kompatibilität in der Signalverarbeitung noch reine Zukunftsmusik – ähnlich wie übrigens auch der erweiterte Farbraum gemäß BT.2020. Deshalb haben momentan ausschließlich die Streamingdienstleister in punkto Bildtiefe und Farbbrillanz die Nase vorn. Sowohl Amazon bietet erste Video-Titel mit einem HDR-Etikett an, aber auch Netflix hält sein Versprechen und produziert zunehmend Filme und Serien sowohl ultrahochauflösend als auch mit höherem Dynamikumfang. Laut Pressemeldung vom 19. April 2016 wird Netflix bis Jahresende UHD-Videomaterial in HDR-Qualität mit einer Länge von insgesamt 250 Stunden zur Verfügung stellen. 

Wenn auch schleppend so gibt es mittlerweile doch die ersten Blu-ray-Disks in Ultra HD plus HDR. Natürlich macht das Ganze nur richtig Spaß, wenn Sie die entsprechenden HDR-tauglichen Geräte besitzen. Alles in allem sollten Sie beim BD-Kauf ebenfalls auf das Premium-Zertifikat der UHD-Alliance achten. Ähnlich wie bei 3D gibt es hier mehrere Disks in unterschiedlichen Formaten in einem Cover.

Abbildung 335: Beispiel für Blu-ray-Disc mit UHD-Siegel und HDR

Amazon und Netflix setzen auf Dolby Vision

VOD-Anbieter wie Netflix und Amazon boten bisher ausschließlich HDR in Verbindung mit dem HDR-10-Standard. Doch seit Sommer 2016 hat sich dies geändert. Im Juni desselben Jahres wurde hier die 2. Staffel von „Marco Polo“ die HDR-Variante veröffentlicht, die tatsächlich sowohl HDR-10 als auch Dolby Vision unterstützt.

Bereits 2015 startete Amazon mit seinen Originalserien (z.B. „Mozart in the Jungle“ oder „Red Oaks“) den HDR-Content, jedoch aus Mangel an Möglichkeiten nur mit dem herkömmlichen HDR-10-Standard. In 2016 setzt Amazon hingegen mit seiner 2. Staffel von „Bosch“ ausschließlich auf Dolby Vision. Eine mutige Aktion, denn perfekte HDR-Inhalte können so nur mit Geräten realisiert werden, die Dolby Vision auch tatsächlich unterstützen. Hierzulande sind das im Herbst 2016 lediglich die 4K-OLEDs oder Super-UHD-TVs von LG. HDR-10 wird hingegen von diversen Modellen unterschiedlicher Hersteller unterstützt. Aber zum passenden Equipment gehört bekanntermaßen auch immer das richtige Kabel.

HDR nur mit dem richtigen Kabel

Selbst wenn Ihnen echte HDR-Inhalte zur Verfügung stehen, die Sie nun auf Ihren HDR-tauglichen Fernseher streamen oder über Ihren HDR-tauglichen Blu-ray-Player abspielen möchten, bleibt noch die Frage der richtigen Leitung. Das Datenvolumen von 4K/Ultra HD ist schon gewaltig. Auf Basis der aktuellen Technik (z.B. HEVC/H.265) müssen im Datenstrom auch noch diverse zusätzliche Informationen (Metadaten) an das Display weitergegeben werden. Mit HDMI-Kabeln der älteren Generation kommen Sie hier deshalb nicht weiter. Achten Sie auf den aktuellen HDMI-Standard 2.0a und verwenden Sie nicht zu lange Kabel.

Kurzum: HDR steckt noch längst nicht in jedem TV. HDR ist nicht gleichzusetzen mit 4K/UHD. HDR bleibt vorerst in den meisten Wohnzimmern reine Zukunftsmusik. Hollywood wird auch in nächster Zeit nur sehr spärlich in HDR produzieren. Eine TV-Übertragung in HDR-Qualität ist noch absolute Utopie (Stand: 2016). Lassen Sie sich also nicht verwirren, Rom wurde schließlich auch nicht an einem Tag erbaut.

Ultra HD PremiumTM

Sowohl der durchschnittlich interessierte Anwender als auch die zahlreichen Technikbegeisterten können bei der Vielzahl an Features, technischen Details und diversen Abkürzungen gelegentlich den Überblick verlieren. Licht ins Dunkel bringen hier erfahrungsgemäß die in diesem Buch beschriebenen Spezifikationen und Standards. Bewährt haben sich aber auch Zertifikate, wie etwa das neue Gütesiegel der UHD-Alliance, das Verbrauchern sowohl die lästige Suche als auch den zeitraubenden Vergleich erspart. Doch auch die Film-Studios und VoD-Dienste-Anbieter sind begeistert und nicht zuletzt haben Hersteller mit dem Logo auf ihren Geräten eine ausgezeichnete Möglichkeit, sich von der Konkurrenz abzuheben.

Abbildung 336: Gütesiegel der UHD Alliance "Ultra HD PremiumTM"

Noch vor dem offiziellen Start der CES 2016 in Las Vegas präsentierte die UHD Alliance auf einer eigens hierfür veranstalteten Pressekonferenz ihr aktuelles Logo, das zukünftig Garant für die Einhaltung bestimmter Standards und Spezifikationen vor allem im Bereich der ultrahochauflösenden Gerätetechnik sein soll. Mittlerweile werben Panasonic, Sony, Samsung und weitere Hersteller mit dem Gütesiegel "Ultra HD Premium". Insofern kann es gut sein, dass ebenjenes zukünftig nicht mehr ausschließlich dem High-End-Bereich vorbehalten sein wird.

Denn fehlende Spezifikationen und Standards sind letztlich generell ein Problem, das im Übrigen nicht nur die Verbraucher angeht. Vielmehr macht sich die mangelnde Vereinheitlichung vor allem als Lücke zwischen Filmproduktion und Filmwiedergabe bemerkbar. Wenn HDR und Ultra HD eine originalgetreue Darstellung beinhalten sollen, ist der wesentlichste Punkt dabei zu wissen, wie und unter welchen Voraussetzungen ein Film gedreht wurde. Nur so ist es möglich, diesen auch quasi als Original wiederzugeben. Bisher wurden die entsprechenden Informationen auf unterschiedliche Weise kodiert und dekodiert. Allgemeines Chaos herrschte, zumal Hersteller und Produktionsfirmen weltweit nicht auf demselben Stand waren.

Vor diesem Hintergrund schlossen sich alle großen Hersteller, Entwickler und Anbieter innerhalb der Unterhaltungselektronik-Branche zusammen und sorgen zumindest für eine gewisse Vereinheitlichung. Im Rahmen der Zertifizierung werden allgemeine Standards zugrunde gelegt, die sowohl für UHD/HDR-Inhalte als auch für die entsprechende Hardware (TV-Geräte etc.) mit erweitertem Farbraum gelten. UHD-Alliance-Präsident HannoBasse sagte dazu: "Es war bislang nicht klar genug definiert, was gemeint ist, wenn von Ultra-HD, HDR oder erhöhten Farbumfang die Rede ist". 

Abbildung 337: Mitglieder der UHD Alliance (Stand: 2016)

Insofern begrüßen vor allem VoD-Dienste-Anbieter (z.B. Netflix oder Amazon) sowie insbesondere auch die Vertreter aller namhaften Filmstudios eine solche Vereinheitlichung der Standards und die damit einhergehende Einführung des UHD-Logos. Denn gerade die Anbieter von entsprechendem Videomaterial benötigen weitgehend übereinstimmende technische Rahmenbedingungen, um weltweit ihre Filme anbieten zu können. Schließlich nützt es nichts, wenn Amazon eine neue Serie dreht oder Warner Bros. eine Blu-ray herausbringt, die dann nur in den USA laufen kann, weil in Europa andere Standards gelten. Deshalb könnte man behaupten, dass mit dem UHD-Gütesiegel nicht nur die Verbraucher auf der sicheren Seite sind, sondern zukünftig in den Genuss kommen, aus einem vielfältigen Angebot zu wählen.

Denn übereinstimmend erklärten sowohl 20th Century Fox, Sony Pictures und Universal Pictures als auch der Sprecher der Hollywood-Studios Warner Bros., bis Ende 2016 sechzig oder gar einhundert Filme in 4K zur Verfügung zu stellen, die dann via Online-Streaming oder aber auf UHD-Blu-ray-Disk angeboten werden. Hierbei soll es sich um neue aber auch „remasterte“ Filmklassiker handeln. Auch im 4K-Gaming-Bereich sehen die Fachleute Potenzial. Die Umsetzung bleibt abzuwarten.

Abbildung 338: Auch Blu-ray-Discs erhalten das Zertifikat „Ultra HD PremiumTM

Auf Basis der ITU-R-Empfehlung BT.2020 legte die UHD Alliance nunmehr diverse Parameter fest, die für die Vergabe des Logos "Ultra HD Premium" erforderlich sind. Diese beziehen sich also insbesondere auf ultrahochauflösende Inhalte (3840 x 2160 Pixel), den erweiterten Farbraum sowie die Farbtiefe. Darüber hinaus spielen eine feinere Differenzierung der Helligkeitswerte sowie die entsprechend leistungsfähige Signalverarbeitung eine wesentliche Rolle, wobei alle am Markt üblichen Display-Technologien (z.B. OLED) berücksichtigt wurden.

Abbildung 339: Der Zertifikat der UHD-Alliance für TV und TV-Equipment (Beispiel: Samsung)

Immer mehr Hersteller werben seit 2016 mit dem Zertifikat "Ultra HD Premium", so etwa Samsung. Der Elektronikriese bekam im Mai 2016 für seinen Ultra HD Blu-ray-Player UBD-K8500 das beliebte Gütesiegel der UHD Alliance verliehen. Weltweit gibt es mittlerweile zahlreich eigens zur Verfügung gestellten Testcenter für die entsprechende Lizensierung. Und nicht mehr nur Fernseher und Player erhalten das Gütesiegel, sondern auch Blu-ray-Discs.

Insofern können wir Verbraucher uns ein stückweit zurücklehnen und müssen beim Kauf lediglich auf das entsprechende Logo achten. Denn alle Produkte benötigen für die Zertifizierung selbstverständlich bestimmte Mindestvoraussetzungen, die im Folgenden beschrieben werden:

  • Auflösung: 3.840 x 2160 Pixel

  • High Dynamic Range: SMPTE ST2084 EOTF (Standard)

  • Farbtiefe: 10 Bit pro Abtastwert (entspricht über eine Milliarde Farbtöne)

  • Farbraum: Wide Color Gamut gemäß BT.2020

  • Display-Darstellung: 90 Prozent des P3-Farbumfangs

  • Spitzen-Helligkeit: 1.000 Nits (bisher erreichten die meisten Fernsehgeräte zwische 300 und 500 Nits)

  • Kontrastumfang: 1000 Nit (Helligkeit) und weniger als 0,05 Nit (Schwarzwert) für LED-LCD-Displays oder alternativ 540 Nits maximale Helligkeit bei einem Schwarzwert von unter 0,0005 Nits für OLED-Bildschirme.

Als weltweit erstes Gerät erhielt übrigens Panasonic für sein Premium-Modell der 2016er Serie (DXW904) das mittlerweile heiß begehrte Gütesiegel „Ultra HD Premium“ der UHD Alliance, und zwar noch auf der Consumer Electronics Show (CES) im Januar 2016. Interessant dabei ist, dass es sich weder um ein OLED-TV noch um ein Display mit Quantum Dots handelt, sondern das LED/LCD-Flaggschiff aus der VIERA-Serie von Panasonic ist. Die Qualität der Bildwiedergabe hat also nicht ausschließlich etwas mit der verwendeten Technologie zu tun.

Da BUROSCH schon während der Entwicklung mit dabei war und letztlich den DXW904 mit all seinen technischen Neuerungen und seiner gigantischen Bildschirmdiagonale auf Herz und Nieren testen durfte, soll hier beispielhaft erläutert werden, was ein solches Premium-Zertifikation beinhaltet und wie die Praxis aussieht.

Praxistest zum Zertifikat

Zahlreiche Fachzeitschriften überschlugen sich im Frühjahr 2016 in ihren aktuellen Ausgaben nahezu in punkto Lob. Und das aus gutem Grunde! Schon allein der professionelle Kinobildschirm (Professional Cinema Display) mit sagenhaften 164 Zentimetern Bildschirmdiagonale sowie die perfekte 24p-Wiedergabe macht Lust auf mehr. Während „Audio Video Foto Bild“ unter der Schlagzeile „Viel hilft viel“ das Flaggschiff aus dem Hause Panasonic bewirbt (4/2016, Seite 8), kürt „audio vision“ den DXW904 gleich mal mit dem Innovations-Award. So schreibt die Redaktion in ihrer 194. Ausgabe unter anderem: „Der in 58 und 65 Zoll erhältliche DXW 904 wartet mit so vielen Technik-Highlights auf, dass wir gar nicht wissen, wo wir anfangen sollen.“ (audio vision: 03/16, Seite 20). Allerdings hat die AV REDAKTION im April 2016 dann Nägel mit Köpfen gemacht und den DXW904 bewertet.

Abbildung 340: Beispiel für Premiumsiegel der UHD-Alliance: Panasonic DXW904 www.panasonic.com

Hierzu zählen sowohl die akkurate UHD/4K-Auflösung mit 3.840 x 2.160 Pixeln als auch glänzende Helligkeitsabstufungen, die Erreichung des kompletten Farbraums gemäß Rec.2020 sowie die nahezu vollständige Abdeckung des DCI-Farbraums. Mit einem Hellraumkontrast von 1.717:1, einer mit OLEDs durchaus vergleichbaren Schwarzdarstellung und Leuchtreserven von maximal 1.200 Candela pro Quadratmeter (Nits) bringt der DXW904 alles mit, was HDR erst möglich macht. Darüber hinaus bescheinigt nicht nur die Zeitschrift „Audio Vision“ dem DXW904 mit seinem 4K-Prozessor „Studio Master HCX+“ eine exzellente Signalverarbeitung. Die Bildwiederholfrequenz kann sich mit 3.000 Hertz sehen lassen. Ein umfassender TV-Empfang via Quattro-Tuner, eine außerordentlich übersichtliche Bedienung sowie das Betriebssystem Firefox OS sind natürlich inklusive. Damit ist insbesondere das Streaming von 4K-Inhalten über Video-on-Demand möglich. Zahlreiche Apps gehören natürlich ebenfalls dazu.

Trotz ausgefeilter Technologie gibt es bei Panasonics Flaggschiff ein paar Kleinigkeiten zu meckern: Obwohl das Upscaling von Full HD sehr gut realisiert wird, können leider immer noch keine DivX-HD-Videos abgespielt werden und ab einem Blickwinkel von 45 Grad kommt es zu leichten Helligkeitsverlusten und Farbabweichungen. Auch 3D-Filme wirken laut „audio vision“ etwas unscharf und die Bewegungsschärfe hat noch „Luft nach oben“. Doch mal ehrlich: Wer braucht angesichts ausgezeichneter Kontrastdynamik, exzellenter Farbbrillanz, nativer Bilddarstellung und außergewöhnlicher Detailschärfe überhaupt noch stereoskopisches Sehen mithilfe lästiger Brillen. 3D stirbt einen leisen Tod, die großen Filmstudios schaufeln selbst das Grab. Vielleicht hat Panasonic deshalb auf eine entsprechende Weiterentwicklung verzichtet und sich lieber den wesentlichen Dingen gewidmet. Und das übrigens mit Erfolg. Denn es hat nicht nur für das UHD-Gütesiegel gereicht, der DXW904 wurde von „Audio Vision“ in die Referenzklasse erhoben (vgl. Abbildung).

Abbildung 341: Praxistest der Fachzeitschrift „audio vision“ (Ausgabe: 03/16)

Und auch wir von BUROSCH kamen nach unserem Praxistest im Februar 2016 zu dem Schluss, dass der VIERA TX-58DXW904 schon jetzt eine Legende ist. Deshalb wird im Folgenden kurz erläutert, welche Werte im BUROSCH-Labor ermittelt wurden. Es sei jedoch gleichzeitig darauf hingewiesen, dass es sich nicht um Referenzwerte für die Bildschirmoptimierung zu Hause handelt. In unserem Testlabor herrschen ideale Bedingungen für die professionelle Kalibrierung und messtechnische Analyse. Diese sind in keiner Weise mit den praktischen Bedingungen in einem Wohnzimmer zu vergleichen. Folgende Parameter haben wir im BUROSCH-Labor analysiert:

Farbtemperatur: In den Default-Settings konnte der Fernseher mit einer sehr guten Farbtemperatur (CCT) von 6644,5K (Ziel: D65 - 6500 Kelvin) aufwarten. Durch Optimierung des Weißabgleichs an zwei Punkten (2-Point-White-Balance: 30 und 80 IRE) konnte dieser Wert auf das Optimum gehoben werden (6547K).

Abbildung 342: Testdiagramm für DWX904 im BUROSCH-Labor

RGB Balance & Gamma: Die ausführlichen und kritischen Testdiagramme von RGB Balance, Gamma und DeltaE 2000 bescheinigen ein Top-Resultat schon vor der Kalibrierung des angesprochenen 2-Punkt-Weißabgleichs. Das Gamma liegt bei 2,19 und verläuft sauber. Entsprechend optimal verhält sich der Gegenspieler: die 11-Punkt-RGB Balance. Durch die Kalibrierung des Weißabgleichs an den Punkten IRE 30 und 80 konnte sich auch der Verlauf der drei RGB-Balance-Graphen auf ein fantastisches Niveau verbessern. Alle drei Graphen verlaufen parallel zueinander und "kleben" förmlich an der Nulllinie. Infolgedessen ist auch das Gamma perfekt. Das empfindliche Fehlerkombinationschart DeltaE 2000 bestätigt das Ergebnis.

Farbraum: Hinsichtlich der Farbleistung haben wir in diesem Test den Rec.709-Colorspace als Messziel definiert, wenngleich der TV deutlich darüber hinauskommt. Nach der Einstellung des Color-Managements liegt der Fernseher auf Referenzniveau. Zusätzlich haben wir die kritische Colorchecker-Untersuchung durchgeführt. Das bedeutet, es werden Farben abgeprüft, die häufig in typischen Szenen vorkommen. Auch hier konnten die Ziele eingehalten werden.

Abbildung 343: Testdiagramm (Farbraum) für DXW904 im BUROSCH-Labor

Im Rahmen unsere Analyse im BUROSCH-Labor konnten wir also eindeutig feststellen, dass der Panasonics DXW-904 aus gutem Grunde das Zertifikat „ULTRA HD Premium™“ erhalten hat. Das Gerät zeigt bereits mit seinen Werkseinstellungen ein sehr gutes Bild. Die technischen Voraussetzungen bieten also mit der individuellen Bildoptimierung auch im heimischen Wohnzimmer ein exzellentes Filmvergnügen. Das TV-Display kann darüber hinaus auch optimal in einer professionellen Studio-Umgebung eingesetzt werden.

Seit ihrer Gründung im Januar 2015 hat die UHD Alliance im Januar 2015 mehr als zweitausende Produkte zertifiziert. Hierzu zählen TV-Geräte, Blu-ray-Player und entsprechende Discs in Ultra HD und nun auch mit HDR. Darüber hinaus will die UHD Alliance zukünftig auch mobile Endgeräte (z.B. Tablets oder Smartphones) testen und zertifizieren aber auch die technischen Details für TV-Übertragungen zu definieren. Wohl eine der größten Herausforderungen an die Gemeinschaft der Hersteller, Entwickler und Anbieter von Unterhaltungselektronik; eine der kleinsten dabei ist, wie die Verbraucher erkennen können, ob es sich um zertifizierte TV-Inhalte handelt.

Weitere Gütesiegel für 4K/Ultra HD

Was man in Bezug auf das Gütesiegel der UHD Alliance aber auch auf alle anderen Gütesiegel wissen sollte: Bei der Zertifikate-Verteilung geht es lediglich um die Einhaltung von Mindeststandards. Aber selbst diese sind nicht immer spezifiziert. Fehler in der Bewegungsunschärfe oder Zwischenbildberechnung, Clouding- sowie Nachzieheffekte oder schlechte Displayeinstellungen ab Werk sind keine Kriterien bei der Logo-Vergabe. Abgesehen davon bringen Hersteller wie beispielsweise Sony ihre 2016er Modelle ganz ohne das offizielle UHD-Premium-Logo auf den Markt - und das obwohl Sony selbst Mitglied der UHD Alliance ist.

Denn es ist den Herstellern durchaus freigestellt, ob sie ihre Geräte von der UHD Alliance zertifizieren lassen oder eben selbst entsprechende Gütesiegel und Logos verwenden. Zumal das Premium-Siegel naturgemäß nicht für alle Fernseher zulässig ist, insbesondere für Geräte im unteren Preissegment. Denn die meisten Fernseher erreichen gerademal 400 Nits, was meilenweit von der geforderten Spitzenhelligkeit entfernt ist. Aber auch nicht jeder Fernseher muss HDR-tauglich sein. Genauso wie nicht jeder Verbraucher bereit ist, 4.000 Euro oder mehr für einen Fernseher auszugeben.

Darüber hinaus bringen die unterschiedlichen Display-Technologien ganz unterschiedliche Werte mit, die es schwer machen, daraus pauschale Mindestanforderungen zu kreieren. In der Praxis könnte hier vor allem so mancher OLED-TV schlechter abschneiden, als er tatsächlich ist. Denn die Geräte mit den organischen Licht emittierenden Dioden kommen ohne zusätzliche Hintergrundbeleuchtung aus, was ähnlich wie bei den Nanokristallen der Quantum Dots naturgemäß zu einer besseren Kontrastdarstellung führt. Hingegen müsste man beispielsweise bei Edge-LED-LCDs die entsprechenden Werte um einiges hochschrauben, wobei gleichzeitig der vorgeschriebene Schwarzwert äußert schwer erreichbar ist. Ähnlich wie schon beim Energieeffizienz-Siegel könnten also die Hardware-Komponenten aber auch insbesondere die Werkseinstellungen so erfolgen, dass zwar alle Vorschriften und Normen eingehalten werden, die optimale Bildwiedergabe bleibt dabei aber wohl wieder einmal auf der Strecke.

Um sich am Markt zu behaupten, könnten Hersteller also auf das neue UHD-Premium-Logo verzichten und alternativ die "selbstgebastelten" Gütesiegel auf ihre Modelle kleben. So setzt Panasonic genau wie Sony auf das hauseigene 4K-Logo, Samsung nennt seine UHD-Modelle seit Beginn an lieber SUHD und selbst die eigentlich schon für kaum noch möglich erklärte UHD-Blu-ray kam im Frühjahr 2016 mit eigenem 4K-Siegel auf den Markt. Das beste Qualitätsbewusstsein sollte also der Verbraucher mitbringen und beim Kauf genau die Standards einfordern, die ein erstklassiges UHD/4K-Gerät beziehungsweise entsprechendes Zubehör ausmachen. Denn nicht selten ist kaum zu erkennen, ob es sich bei der Vielzahl an Logos um ein spezifiziertes Zertifikat oder eben nur um Marketing handelt. Deshalb sollte man sich am besten selbst informieren, was tatsächlich drinstecken sollte.

Abbildung 344: Beispiele für UHD-Gütesiegel

Zu den wichtigsten Standards für Ultra HD zählt natürlich die Bildauflösung mit 3.840 x 2160 Pixel, der HDR-Standard gemäß SMPTE ST2084 EOTF, ein 10-Bit-Signal für die Farbtiefe, der Farbraum gemäß ITU-Empfehlung BT.2020, eine Display-Darstellung von mindestens 90 Prozent des DCI-P3-Farbumfangs und je nach Display-Technologie realisierbare Werte für den Kontrastumfang. Wie bereits im vorherigen Kapitel beschrieben, fordert das Ultra-HD-Premium-Logo hierfür 1000 Nit (Spitzenhelligkeit) und weniger als 0,05 Nit (Schwarzwert) für LED-LCD-Displays oder alternativ 540 Nits maximale Helligkeit bei einem Schwarzwert von unter 0,0005 Nits für OLED-Bildschirme. Anders verhält es sich bei den diversen 4K/HDR-Logos. So spezifiziert beispielsweise Sony hierzu erst gar keine Werte.

Kurzum: Frei nach dem Motto "Vertrau nicht aufs Logo, sondern teste selbst" ist es letztlich auch bei den Premium-Modellen niemals verkehrt, mit professionellen Testsequenzen den individuellen Feinschliff am Gerät vorzunehmen und für die technischen Voraussetzungen sich die jeweilige „Packungsbeilage“ anzuschauen. Es gilt also, nicht nur auf die farbenfrohen Werbeanzeigen, sondern insbesondere das Kleingedruckte in Bezug auf Farbdarstellung, Spitzenhelligkeit, Kontrast- und Schwarzwerte anzuschauen. Hierzu helfen unter anderem die einschlägigen Portale und Fachzeitschriften für vergleichende Warentests. Ein Blick ins Internet lohnt sich also vor dem Kauf eines neuen Fernsehers oder Blu-ray-Players, und zwar nicht nur wenn es um Ultra HD und HDR geht.

Streaming in Ultra HD und 8K

Im Bereich des Video-Streamings ist Ultra HD schon längst keine Neuigkeit mehr. Bereits in 2014 stellten VOD-Anbieter wie Netflix oder Amazon erste Videos mit einer Auflösung von 3.840 x 2.160 Pixeln zur Verfügung. Auf der Videoplattform YouTube wurden Ultra HD-Videos hingegen schon im Jahre 2010 veröffentlicht. Heute (Stand: 2016) kann man hier sogar echte Cinema-4K-Auflösung mit 4.096 x 2.160 Pixeln und einer Bildfrequenz von 60 Hz (60 Bildern pro Sekunde) bewundern. Doch damit noch nicht genug. Die größte Videoplattform der Welt hat sich auf UHD-2 vorbereitet, was den Upload von Videomaterial in 8K möglich macht. Weitere Videoplattformen rüsten sich ebenfalls. So bieten Vimeo und die deutsche Plattform Videoload auch via App einen vollwertigen UHD-Content an.

YouTube setzt hier im Übrigen nicht auf den mittlerweile für Ultra HD sonst üblichen Komprimierungsstandard H.265, sondern verwendet für die Komprimierung des hochauflösenden Materials die neuste Version des VP9-Codec „Profil 2“, der sogar HDR unterstützen soll. Der Startschuss für die Wiedergabe von ultrahochauflösenden Videos inklusive HDR erfolgte bei YouTube im Sommer 2016. Mittlerweile unterstützten auch die aktuellen TV-Modelle (Stand: 2016) neben H.265 den Codec VP9, was das Streaming via YouTube-App in vollem Umfang möglich macht.

Wer sich also fragt, was er mit seinem UHD-Fernseher eigentlich anfangen soll, wenn die klassischen TV-Anbieter gerade mal auf Full HD umstellen (z.B. DVB-T2): die professionellen VoD-Streaming-Anbieter sind hier schon längst auf dem aktuellen Stand und erweitern ihr hochauflösendes Videoangebot auch zukünftig. Netflix unterstützt bereits HDR und setzt bei seiner hauseigenen Produktion „Marco Polo“ auf den aktuellen Standard Dolby Vision, Amazon will hier in Kürze nachziehen (Stand: 2016).

Nutzer von Amazon, Netflix & Co. sollten jedoch wissen, dass für UHD/4K/HDR-Inhalte der herkömmliche DSL-Anschluss nicht ausreicht. Hochauflösend inklusive High Dynamic bedeutet trotz ausgereifter Komprimierungstechnologien naturgemäß ein hohes Datenvolumen. Deshalb ist ein Internetanschluss mit einer Kapazität von mindestens 18 Mbit/s, besser 25 Mbit/s absolute Voraussetzung für das Streaming in Ultra HD inklusive HDR. Wer diese Datenraten über seinen Anschluss nicht realisieren kann, der kann nur heruntergerechnetes Videomaterial konsumieren, was natürlich immer noch besser ist als umgekehrt. Wie das mit dem Down- und Upscaling funktioniert, erfahren Sie im nächsten Kapitel.

Upscaling & Co.

Was 2014 auf dem Messegelände in Berlin vorgestellt wurde, war ein Jahr später schon wieder Makulatur. Ultra HD ist erst seit der IFA 2015 „echt“. Bis es in den deutschen Wohnzimmern Einzug hält, wird noch einmal Zeit vergehen. Bis dahin wird der von der ITU (Rec.2020) empfohlene UHD-2-Standard wahrscheinlich schon längst auf der nächsten oder übernächsten Funkausstellung präsentiert worden sein.

Abbildung 345: Auflösungen für SD, HD, 4K, 8K

Aber so ist es eben: die Entwicklung kommt nicht über Nacht, zumindest haben wir in unserer schnelllebigen Zeit diesen Eindruck. Fernseh-Pionier Paul Nipkow hätte seinerzeit nicht zu träumen gewagt, was heute alles möglich ist. Und vielleicht ärgern sich all jene, die bereits einen echten UHD-TV besitzen, vor diesem Hintergrund etwas weniger, dass das 4K-Videomaterial immer noch spärlich verfügbar ist. Die klassischen Fernsehanstalten sind im Jahre 2015 gerade erst auf dem Stand von Full HD angekommen. HD für alle ist nach wie vor Utopie – jedenfalls über das unverschlüsselte TV-Signal. Im Gegensatz dazu basteln die Hersteller bereits an 8K-Wiedergabegeräten.

Doch was machen wir in der Zwischenzeit? Jede neue Technologie etablierte sich Schritt für Schritt. Die Hersteller, Ingenieure und Marketingprofis wissen natürlich ganz genau, was sie tun und wie sie uns die aktuellen Trends schmackhaft machen. Mit dem Upskaling gelang es ihnen, quasi gleich zwei Fliegen mit einer Klappe zu schlagen. Zum einen wurden seit der Standardisierung von UHD im Jahre 2012 und der Einführung der ersten Geräte mit 4K-Logo im Jahre 2013/2014 noch ein bisschen gemogelt. Wo UHD draufstand, steckte noch längst nicht echtes 4K drin. Zum anderen können wir uns beruhigt einen modernen UHD-TV zulegen und dennoch alle Bildformate genießen – egal ob in SD, HD, Full HD, UHD oder Quad-UHD.

Abbildung 346: 4K-Upscaling (www.sharp.ca)

Doch kommt beim Upscaling tatsächlich eine bessere Bildqualität zustande, auch wenn noch kein echter UHD-Content vorliegt? Fakt ist: Ein vollwertiges Bild in nativer 4-facher HD-Auflösung ist nur möglich über einen vollwertigen UHD-Bildschirm ab Baureihe 2015 mit den nötigen Anschüssen und Codier-Standards sowie entsprechendem ultrahochauflösenden Filmmaterial. Alles andere ist hochskaliert, aber dennoch qualitativ akzeptabel. Grund dafür ist das sogenannte 4k-Upscaling. Hierbei wird das Basismaterial in den Formaten SD (720 x 576), HD (1280 x 720) oder Full HD (1920 × 1080) hochgerechnet beziehungsweise hochskaliert auf ebenjene UHD-Auflösung mit 3840 x 2160 Bildpunkten.

Solange also die Fernsehanstalten und Filmproduzenten noch nicht auf UHD-Standard umgestellt haben, sollte man beim Kauf eines Fernsehgerätes und des dazu gehörigen Video-Equipments genau darauf achten, dass ebenjenes über eine präzise Upscaling-Technologie verfügt. Denn unbearbeitet würde auf einem 4K-TV von HD-Inhalten mit 1920 x 1080 Bildpunkten lediglich ein Viertel der Bildfläche zu sehen sein, 75 Prozent des Displays blieben ungenutzt. Also muss hochskaliert werden. Das Prinzip selbst ist eigentlich nicht neu, wurde doch schon bei HD-Geräten das SD-Filmmaterial oder aber Videoinhalte von DVD hochgerechnet, um die Auflösung anzupassen.

Nun kann man Bildpunkte nicht einfach erfinden oder unüberlegt vervierfachen – allein wenn man bedenkt, wie groß die Differenz ist. Wir reden schließlich bei HD beziehungsweise Full HD von einer Pixelanzahl in Höhe von 2.073.600 (1920 × 1080), bei UHD hingegen von 3840 × 2160 – also 8.294.400 Bildpunkten. Wo kommen nun 6.220.800 Pixel pro Bild her?

Eine der simpelsten Methoden ist tatsächlich die Pixelwiederholung, die aufgrund der Methodik auch als „nearest neighbor“ bezeichnet wird. Hier werden für die fehlenden Bildpunkte im Ausgabebild (Resultat) die Farbwerte der nächstgelegenen Punkte des Eingabebildes (Original) einfach übernommen. Jedoch kommt es in den Diagonalen zu starken Alias-Effekten, das skalierte Bild erhält eine klötzchenartige Struktur und wird „pixelig“. Abgesehen davon kann auf diese Art und Weise keine Vervierfachung der Bildpunkte erreicht werden.

Abbildung 347: Schematische Darstellung einer bilinearen Interpolation (Wikimedia Commons)

Eine präzisere Methode ist die sogenannte bilineare Interpolation (Abbildung 309). Wie die Bezeichnung vermuten lässt, werden jeweils in zwei Richtungen die Farbwerte der Bildpunkte zwischen bekannten Werten errechnet. Oder anders ausgedrückt: Die fehlenden Pixel im Ausgabebild werden als Mittelwert aus den vier benachbarten Farbwerten des Eingabebildes interpoliert. Da hier diagonal vorgegangen wird, sorgt diese Methode für deutlich weichere Linien. Die Treppen- beziehungsweise Klötzchenbildung ist hier im Vergleich zur Pixelwiederholung wesentlich geringer.

Eine andere Skalierungsmethode ist die bikubische Interpolation, bei der ein Farbwert des Ausgabebildes ebenfalls aus den benachbarten Farbwerten des Eingabebildes mithilfe von kubischen Splines25 erzeugt wird. Eine bekannte Version ist der sogenannte Mitchell-Netravali-Filter26. Allein bei der bikubischen Interpolation gibt es diverse Verfahren, auf die hier im Einzelnen nicht eingegangen werden soll. Im Allgemeinen werden bei der Skalierung die vorgegebenen Bildraster auf unterschiedlich große Ausgaberaster übertragen. Dabei wird jedem Bildpunkt des Ausgabebildes ein bestimmter Farbwert zugewiesen, der aus den anliegenden Pixeln erstellt wird. Hierbei werden Rekonstruktionsfilter verwendet, die genau bestimmen, welche Bildpunkte des Eingabe- beziehungsweise Originalbildes zur Berechnung (Interpolation) herangezogen und wie die einzelnen Farbwerte gewichtet werden.

Abbildung 348: Beispiel einer Skalierung von 6x6 auf 11x11 Pixel (Wikimedia Commons)

Insofern verläuft der Skalierungsvorgang immer ähnlich, wobei die Qualität des Resultates unmittelbar vom Originalmaterial abhängt. Die Vergrößerung eines Bildes mit geringen Bildauflösungen gelingt proportional zur Pixelanzahl genauso wie die Skalierung höherer Auflösungen. Bei der in Abbildung 310 vereinfacht dargestellten Vergrößerung einer 6×6 Pixel großen Rastergrafik auf 11×11 Pixel wird das Pixelraster des Ausgabebildes (gelbe Kreuze) über das Eingabebild (Original) gelegt. Die Farbewerte werden aus den umliegenden Pixeln des Eingabebildes errechnet und auf das Pixelraster des Ausgabebildes übertragen.

Nun könnte man fragen, was denn daran nun so schwer sein soll. Tatsächlich ist das 4K-Upscaling ungefähr so leicht, wie mit einem Küchenmesser ein ausgewachsenes Schwein zu zerlegen. Deshalb wird auch oft zurecht festgestellt, dass eine SD-Auflösung oder gar analoge TV-Signale immer noch am besten auf einem Röhrenfernseher dargestellt werden können und andererseits die Auflösung eines hochskalierten Bildes niemals an die ultrahochauflösende Qualität eines natives 4K-Bildes heranreicht. Denn das beste Resultat erzielt man nur, wenn das Material übereinstimmt. Beim Hochskalieren kommen schließlich keine neuen Bildinformationen hinzu, sondern es werden lediglich die vorhandenen umgewandelt beziehungsweise vervielfacht.

Deshalb wurde lange an der 4K-Upscaling-Technologie gefeilt und in den UHD-TVs von speziellen Chips (video scaler) in Echtzeit durchgeführt. Dabei wird das Ausgangssignal nicht gespeichert, was die Hochskalierung vom Hochkonvertieren unterscheidet, bei dem das Ausgangssignal nicht ausschließlich in Echtzeit erstellt, dafür aber generell gespeichert wird.

Abbildung 349: Chip X-Reality PRO von Sony (www.sony.co.in)

Viele Hersteller nutzen für das Upscaling ihre eigene Technologie. Sony setzt beispielsweise auf den Chip X-Reality PRO. Trotzdem natürlich auch hier in Echtzeit skaliert wird, wurden im Rahmen der Entwicklung in den Sony-Labors zahllose 4K-Bilder herunter- und wieder hochskaliert und in einer Datenbank abgespeichert. Dabei kam die sogenannte "Reality Creation" heraus - ein Chip mit einer statistischen Lernprozess-Technologie, die eine bemerkenswerte Upscaling-Qualität gewährleistet. Das Prinzip dahinter: je mehr Bilder umgewandelt werden, desto besser wird das Ergebnis.

Bei den seit 2015 auf dem Markt erhältlichen 4K-Fernsehern der AQUOS-4K/UHD-Serie von Sharp heißt der Upscaler-Chip wiederum „Revelation“, über das Verfahren selbst wird sich hier allerdings ausgeschwiegen. Fakt ist aber, dass Sharp mit seinem aktuellen Slogan „Beyond 4K“ den Mund ziemlich voll nimmt.

Abbildung 350: Vergleich HD - UHD/AQUOS® (www.sharp.ca)

Unter selben Namen präsentierte Sharp in 2015 bereits den Prototypen eines 4K-/UHD-TVs, der virtuell 8K (also 7680 x 4320 Pixel) darstellen kann. Virtuell bedeutet natürlich noch nicht nativ, dafür aber hochgerechnet auf insgesamt 66 Millionen Subpixel mithilfe von Pixelsplitting und der Quattron-Technologie. Insofern kann man hier feststellen, dass die Hersteller schon wieder ein Ampel weiter sind und die TV-Geräte der 2015er Bau-Serie im Allgemeinen über eine ausgereifte UHD- und Upscaling-Technologie verfügen, was im Jahre 2014 noch nicht der Fall war.

Doch auch wenn die Werbeversprechen der Hersteller, dass sich Bildinhalte beim Hochskalieren auf UHD/4K immens verbessern und detailreicher werden, nicht der ganzen Wahrheit entsprechen, sollte man sich trotzdem nicht unbedingt von den zahlreichen Kommentaren im Netz verunsichern lassen. Natürlich: Fernsehkauf ist vor allem eine Frage der Prioritäten und des Portemonnaies. Aber intelligente Upscaling-Algorithmen garantieren in den aktuellen 4K-Geräten ab Ende 2015 in jedem Fall eine bessere Darstellung durch Hochskalieren als es bei allen Vorgänger-Modellen möglich war – Tendenz steigend. Außerdem sollte man bei der Verwendung von weniger hochauflösendem Bildmaterial darauf achten, dass immer das Gerät die Auflösung hochrechnet, welches dafür am besten geeignet ist. Hierbei könnte man auf den persönlichen Geschmack vertrauen oder individuellen Rat beim Fachmann einholen. In der Regel können heute (Stand: 2016) die aktuellen UHD-Fernseher oder 4K/UHD-Beamer das Videosignal am besten verarbeiten. AV-Receiver oder die 2014er Blu-ray-Player sind dafür weniger geeignet.

UHD Deep Color

Wer nun das Beste aus dem Bild herausholen will, der kommt um die relativ neue Option „UHD Deep Color“ nicht herum. Nicht in allen Geräten gleich bezeichnet, handelt es sich aber im Wesentlich um dasselbe, sofern man von der tatsächlichen UHD-Fassung spricht.

Abbildung 351: Vergleich Full HD und UHD (AQUOS Q+ Technology von Sharp)

Im Grunde zählt für UHD Deep Color das Gleiche wie schon für Full HD Deep Color. Natürlich gelten bei UHD die bereits erwähnten Spezifikationen gemäß ITU Rec.2020 und 1886 (Gamma), wonach UHD-Filmmaterial als unterstes Limit immer mit 10 Bit erstellt werden muss. Insofern unterstützen nur die Geräte mit 10-Bit-fähigen HDMI-Eingängen tatsächlich auch das „echte“ UHD Deep Color, welches man im Menü des 4K-Fernsehers wahlweise an- und ausschalten kann. Der Vorgänger Deep Color (also ohne UHD-Bezeichnung) lässt sich an manchen Blu-ray-Playern aktivieren, die 2014 auf den Markt kamen. Hierbei ist allerdings lediglich eine Funktion im Full-HD-Bereich gemeint, weil es noch zu den älteren HDMI-Standards 1.4/a bzw. 1.3 gehört.

Worum geht es bei Deep Color aber nun eigentlich?

Im Gegensatz zu RGB oder YCbCr, bei denen 8 Bit (256 Abstufungen) pro Farbe genutzt werden, können bei UHD Deep Color 10 Bit (1024 Abstufungen), 12 Bit (4096 Abstufungen) oder sogar 16 Bit (65536 Abstufungen) genutzt werden, um Farben in höherer Auflösung zu erzeugen. Deep Color stellt also eine Erweiterung der Farbtiefe dar. Ab einer Farbtiefe von 10 Bit pro Farbkanal erreicht Deep Color bereits mehr als eine Milliarde verschiedener Farbnuancen, was weit über dem Wert anderer Farbdarstellungen liegt. Deshalb ist es durchaus lohnenswert, wenn man diese Funktion aktiviert und somit die Qualität der Bilddarstellung noch ein Stückchen weiter nach oben schraubt und noch natürlichere Bilder mit sehr hohen Kontrastwerten erreicht. Auch sogenannte Banding-Effekte können mit UHD Deep Color wirkungsvoll reduziert werden.

Abbildung 352: Darstellung des Banding-Effektes (Treppenstufen im Himmel links)

Nicht zu vergleichen ist UHD Deep Color im Übrigen mit Sonys x.v.Colour beziehungsweise dem erweiterten Farbraum (xvYCC) zur Übertragung von Videosignalen, der auf Basis des Kodak-PhotoCD-Farbraums YCC (YCbCr) entwickelt wurde. Hierbei handelt es sich gemäß Farbstandard IEC61966-2-4 um eine 8-Bit-Codierung und entspricht somit nicht der UHD-Norm nach ITU Rec.2020. In diesem Zusammenhang sei noch einmal darauf hingewiesen, dass nicht alle UHD-Fernseher tatsächlich Ultra High Definition beherrschen. Manche Hersteller reichen durch spätere Updates bestimmte Ausstattungsmerkmale nach. Jedoch kann die Hardware damit nicht aufgerüstet werden. Für das Streaming von 4K-Inhalten bleibt als Voraussetzung die Unterstützung des neuen H.265/HEVC Codec. TV-Geräte, die über ihren Tuner lediglich 30 Hz verarbeiten können, empfangen somit kein UHD-Signal via Satellit, wie beispielsweise den Astra-Demokanal.

UHD/HDR-Demokanäle

Für den bisher mehr als spärlichen Empfang von UHD-Inhalten sind allerdings nicht die TV-Hersteller verantwortlich, sondern vielmehr die klassischen Fernsehanstalten, die das reguläre TV-Signal via Satellit, Kabel oder gar Antenne senden. Und es wird wohl auch noch eine ganze Weile dauern, bis die Tagesschau oder der Tatort in nativer 4K-Auflösung plus HDR über den Bildschirm flimmert kann. Die Sendeanstalten haben augenscheinlich ihre Probleme, mit der rasanten Entwicklung Schritt zu halten, wird doch erst 2017 flächendeckend auf Full HD umgestellt. Die Privatsender testen bereits, wann die Öffentlich-Rechtlichen nachziehen, steht zum jetzigen Zeitpunkt in den Sternen. Rund um die IFA 2015 starteten jedoch einzelne Demokanäle für Ultra HD ihr Testprogramm, zur IFA 2016 schalteten die Satellitenbetreiber Eutel und Astra auf UHD+HDR.

Abbildung 353: UHD-Demokanal von Astra/HD+ seit September 2015

Unter anderem bietet Astra/HD+ seit dem 4. September 2015 via Satellit seinen Probekanal UHD-1 an. Hier liefen bereits erste Konzertmitschnitte verschiedener Rockbands, wie zum Beispiel Linkin Park. Täglich in der Zeit von 08:00 bis 20:00 Uhr werden hier frei empfangbare Clips gesendet, die weniger der Unterhaltung als vielmehr dem Fachhandel dienen. Denn 4K-Inhalte sind Mangelware. Der Demokanal bietet also entsprechendes Material, um UHD-fähige Fernseher zu testen beziehungsweise von Farbbrillanz und Detailreichtum zu überzeugen. Zu sehen sind in diesem Zusammenhang ein exklusiv für Astra entwickeltes Video der US-amerikanischen UHD-Spezialisten Katie und Jacob Schwarz sowie einen Trailer des europäischen Kulturkanals ARTE. Nach 20:00 Uhr wird dann verschlüsselt und ein UHD-Programm für Kunden von HD+ ausgestrahlt, das kurzweilige Beiträge aus den Bereichen Action, Lifestyle, Doku und Chillout umfasst.

Der Pay-TV-Sender Sky bleibt sich treu und nutzt große Sport-Events für seine Probeläufe neuer Technologien. Bereits mehrere Highlight-Fußballspiele wurden in 4K-Auflösung ausgestrahlt. Die Sendelizenzen sind gesichert, bis zur regelmäßigen Ausstrahlung von UHD-Inhalten wird es allerdings noch ein bisschen dauern.

Ebenfalls am 4. September 2015 startete ein zweiter UHD-Kanal sein Programm. Der Shopping-Sender Pearl TV ist seither auf Astra 19,2° Ost frei zu empfangen. Die TV-Studios wurden hierzu komplett umgebaut, um zu 100 Prozent in Ultra HD produzieren und senden zu können.

Die Geburtsstunde des dritten UHD-Demokanals war bereits am 1. September 2015. Der weltweit erste Mode- und Lifestyle-Kanal „Fashion One 4K“ ging an diesem Tag auf mehr als sechs Kontinenten gleichzeitig in kristallklarer 4K-Qualität auf Sendung. Das Programm des in New York ansässigen Mode-, Lifestyle- und Unterhaltungs-TV-Netzwerks mit Zuschauern in über 420 Millionen Haushalten übertragt seither News und Interviews von, mit und über Designer sowie Prominente und unterhält mit Realityshows, Dokumentationen, Reisetagebüchern und Lifestyle-Serien.

Abbildung 354: UHD-Demo-Kanal Fashion 4K seit 1. September 2015 (www.fashion4k.tv)

Pünktlich zur IFA 2016 kündigte der Satellitenbetreiber Eutelsat einen neuen Demokanal an, der 4K-HDR-Inhalte bereitstellen soll. Während der International Broadcasting Convention (IBC) gab Eutelsat hierzu eine Pressemitteilung heraus, aus der hervorging, dass hierfür das neue Hybrid-Log-Gamma-HDR-Format (HLG) verwendet wird. HLG macht es möglich, dass HDR-Inhalte auch für herkömmliche SDR-Fernseher erreichbar sind – wenngleich naturgemäß nicht in derselben Qualität (vgl. hierzu das Kapitel „HDR“ in diesem Buch). Außerdem müssen die Sendeanstalten somit nur einen Kanal für beide Formate (HDR und SDR) zur Verfügung stellen, was insbesondere die Kapazitäten in punkto Bandbreite schont.

Empfangen werden kann „Hot Bird 4K2 HDR“ über Eutelsat 13° Ost mit folgenden Empfangsparametern:

Kennung: Hot Bird 4K2 HDR

Frequenz: 12.015

Symbolrate: 30.000

FEC 5/6 DVB-S2/8PSK.

Auch Astra/SES kündigte an, einen Demokanal inklusive HDR anzubieten. Vor allem Hersteller können nunmehr über „UHD-1“ nicht nur Probeläufe in Bezug auf Ultra HD durchführen, die im Übrigen von LG Electronics mittels HLG-Technologie bereitgestellt werden, sondern zukünftig auch HDR-Inhalte sowie die einzelnen HDR-Technologien (HDR-10, Dolby Vision) und Übertragungsmöglichkeiten (HLG) testen. Wissenswertes über den Empfang von 4K-Inhalten via Satellit finden Sie im Kapitel „Tuner/Receiver & Co.“ dieses Buches.

Für alle echten UHD-Fans, die jetzt auch noch HDR genießen möchten, kommt ohne Satellitenempfang bis dato ausschließlich die Streaming-Variante infrage, die als solche allerdings auch keine schlechte Alternative ist. Insbesondere mit der Umstellung auf DVB-T2, das den Empfang von Privatsendern nicht mehr kostenfrei zulässt, wäre eine generelle Umstellung auf Satellit eine Überlegung wert. IPTV wäre neben VoD eine weitere Möglichkeit, UHD/4K-Inhalte auf den Fernseher zu bringen. Seit 2016 bietet hierzu beispielsweise Vodafone seine 4K-fähige IPTV-Box „TV Center 2000“ an. Verbraucher sollten sich hier im Vorfeld informieren, denn klassische TV-Inhalte sind damit vorläufig noch nicht wirklich gemeint. Neben der Übertragung und dem Empfang ist natürlich die Frage nach der Wiedergabe interessant. OLED, LED, LCD, Backlight, Quatum Dots … Wo liegen die Unterschiede?

Display-Technologien

Es wird viel geschrieben, philosophiert und gefachsimpelt über die einzelnen Display-Technologien; insbesondere über deren Vor- und Nachteile. Vieles davon ist sicherlich richtig. Manche Halbwahrheiten sollten hingegen besser nicht weitergetragen werden, wie es in einigen Foren der Fall ist. Umso mehr liegt es uns am Herzen, im Folgenden alle bekannten sowie die aktuellen Display-Technologien etwas eingehender zu erläutern. Der direkte Vergleich gelingt dabei nicht immer. Denn es wären Äpfel und Birnen, die man dafür in dieselbe Waagschale werfen müsste.

Plasma

Auch wenn die Plasma-Bildschirme eigentlich schon längst keine Rolle mehr auf dem Fernsehmarkt spielen, sollen sie hier der Vollständigkeit halber nicht unerwähnt bleiben. Bei der Plasma-Variante besteht das Display aus winzig kleinen gasgefüllten Zellen. Durch einen elektrischen Zündimpuls beziehungsweise eine Gasentladung wird Plasma erzeugt, das die Leuchtstoffe anregt, die wiederum verschiedenfarbiges Licht erzeugen. Deshalb zählen Plasma-Bildschirme (wie Kathodenstrahlröhren) zu den aktiven Display-Technologien, da das Licht hier selbst erzeugt wird.

Abbildung 355: Aufbau Plasmabildschirm (Wikimedia Commons)

Den ersten funktionsfähigen Plasma-Bildschirm gab es übrigens schon im Jahre 1964. Entwickelt wurde er für das Großrechnersystem „Plato IV“ der University of Illinois. Einige Jahre konnten sich monochrome Plasma-Displays im Großrechner-Sektor durchsetzen, die bekannt waren für ihren orange-roten Farbton. Doch obwohl Plasma-Displays schon damals direkt digital angesteuert werden konnten, verhalfen die weitaus geringeren Herstellungskosten letztlich dem Röhrenmonitor zum Durchbruch als Computer-Anzeigegerät in den 1970er Jahren. Zehn Jahre später wurde jedoch wieder auf die Plasmaschirm-Technik zurückgegriffen, als Toshiba & Co. ihre ersten tragbaren Laptops entwickelten. Die Entwicklungskosten spielten aber auch hier eine tragende Rolle. Deshalb verschwanden die Plasma-Laptops zu Beginn der 1990er Jahre vom Markt und machten Platz für die LCD-Displays.

Auch im Flachbildschirmbereich der Neuzeit hatten die Plasmabildschirme kaum eine Chance. Zu hohe Fertigungskosten und der Stromverbrauch waren letztlich dafür verantwortlich, dass sich die Plasma-Displays nicht gegenüber der LCD-Technologie durchsetzen konnten. Die einst nennenswerten Vorteile, wie bessere Schwarzwerte, kräftigere Farben, natürlichere Hauttöne und größere Blickwinkelstabilität spielen im Zeitalter der UHD-Fernseher mit QD-Technologie und HDR keine Rolle mehr. Alle namhaften Hersteller haben sich aus dem Bereich der Plasma-Displays zurückgezogen, Marktführer sind Bildschirme mit LCD-Technik, wobei mittlerweile neuere Technologien diesen Platz streitig machen.

LCD/LED

Bei klassischen Liquid Crystal Displays (LCD) wird jedem Bildpunkt ein durchleuchtbares Flüssigkristallelement zugeordnet, das durch Öffnen und Schließen das Projektionslicht auf den Bildschirm durchlässt oder eben nicht. Wie bereits erwähnt, können ebenjene Flüssigkristallelemente nicht vollständig geschlossen werden, sodass kein sattes Schwarz erzeugt werden kann. Insofern war seinerzeit der Kontrast nicht so umfangreich wie bei Plasma-Bildschirmen.

Abbildung 356: Funktionsprinzip von LC-Displays (www.chip.de)

Im Laufe der Entwicklung wurde hierzu in einigen Modellen der Helligkeitskontrast mithilfe von dynamisch arbeitenden Irisblenden verstärkt. Um die Bildschirme für hochauflösende Videos fit zu machen, wurde für HDTV & Co. die sogenannte 3LCD-Technik verwendet. Hierbei wird das Farbsignal in drei farbige Lichtbündel (RGB) zerlegt, die jeweils einem LCD-Panel zugeordnet werden. Die drei RGB-Bilder werden dann mit einem Prisma wieder exakt zusammengesetzt und gemeinsam projiziert. Die sogenannte spektrale Reinheit der so ausgefilterten Farben ist jedoch nicht besonders hoch, reichte aber für den seinerzeit empfohlen Farbraum gemäß Rec.709 völlig aus.

LCD-Displays wurden im Volksmund auch oft als Flüssigkristallbildschirme bezeichnet. Im Laufe der Zeit änderte sich aufgrund der angesprochenen Hintergrundbeleuchtung der Name. Seit etwa 2009 wird deshalb häufig von LED-Fernsehern gesprochen, obwohl es sich im Grunde um LCD-Bildschirme handelt, deren Hintergrundbeleuchtung (Backlight) aus LEDs besteht. Auch hier geht der Trend zu mehr Vielfalt, Schlagwörter wie Edge, OLED oder Quantum Dots machen die Runde. Kaum jemand weiß hingegen, was hinter den diversen Bezeichnungen steckt. In den nächsten Kapiteln soll deshalb ein wenig Licht ins Dunkel gebracht werden.

LED-Backlight-Technologien im Vergleich

Der Preis regiert heute das Kaufverhalten maßgeblich. Qualität rückt neben üppigen Ausstattungsmerkmalen - von denen der Kunde oft nur geblendet wird – leider mehr und mehr an die zweite oder sogar dritte Stelle und wenn dann noch direkt spürbar mehr Geld investiert werden muss, ja dann lässt man sich schnell zu Kompromissen hinreißen, die man später zu Hause nach dem Auspacken nicht selten bitter bereut. So macht sich im Vorfeld auch kaum jemand über die unterschiedlichen technischen Umsetzungen an LED-Hintergrundbeleuchtungen bei modernen LCD-TVs Gedanken. Auf den Geräten tummeln sich bunte Aufkleber dicht aneinander mit Fachbegriffen, wie Edge-LED, Direct-Back-LED, Full-LED, Active-LED-RGB oder auch nur RGB-LED, mit denen oft selbst die Verkäufer nichts anzufangen wissen.

Was ist neu und wo liegen die Unterschiede? Gehen wir kurz einen Schritt zurück. Ältere LCD-Fernseher realisierten die Beleuchtung des LCD-Panels über Leuchtröhren, üblicherweise mit dem Kürzel CCFL bezeichnet, ausgeschrieben "Cold Cathode Fluorescent Lamp". Um nun eine flachere Bauweise möglich zu machen, musste man den Schritt weg von CCFL gehen. Und was lag da näher als auf eine Technologie zurückzugreifen, die a) schon längst erfunden war und b) noch dazu wesentlich günstiger in der Fertigung ist – die LED-Technik. So ist es an dieser Stelle recht passend zu erwähnen, sogenannte LED-Fernseher sind technisch von der Bilderzeugung her nichts anderes als LCD-Fernseher mit CCFL-Röhren, nur eben mit einer anderen Art der Umsetzung, wie die LCD-Kristalle angestrahlt werden. Und natürlich bringen LEDs einen weiteren Vorteil mit: sie verbrauchen wesentlich weniger Strom. Wie die unterschiedlichen Arten der Beleuchtung durch CCFL, Edge-LED oder Direct-LED nun aufgebaut sind, soll im Folgenden erläutert werden.

CCFL-Technik (Röhren): mehre Leuchtstoffröhren sitzen waagerecht direkt hinter dem LCD-Panel und reichen über die gesamte Breite. Die Hintergrundbeleuchtung wird hier ganzheitlich gesteuert. In besonders hellen Bereichen werden die Röhren lediglich aufgedreht, was einen niedrigen Schwarzwert unmöglich macht. Dunkle Bildinhalte bleiben grau, das Bild verliert zudem an Farbe und Kontrast.

LED-RGB-Backlight (rote, grüne, blaue LEDs): Diese Form der Hintergrundbeleuchtung ist in sogenannte Cluster aufgeteilt, wobei jeder unabhängig gesteuert werden kann. Das heißt, dass viele einzelne Bereiche aus roten, grünen und blauen LEDs individuell leuchten können. Mithilfe der LED-RGB-Backlight-Technologie ist es also möglich, dass sich die Hintergrundbeleuchtung dem Bildinhalt anpasst und so selbst schwierige Bildinhalte optimal wiedergegeben werden können. Grund dafür sind ebenjene Cluster, die nur in den Bereichen besonders hell leuchten, in denen die entsprechend Filmszene Licht benötigt. In dunklen Bildbereichen wird das Licht gedimmt oder sogar ganz ausgeschaltet.

Abbildung 357: CCFL-Technik (links) und LED-RGB-Backlight-Technologie (rechts) im Vergleich (Quelle: Sharp)

LED-White-Backlight: Diese Hintergrundbeleuchtung arbeitet nach einem ähnlichen Cluster-Prinzip wie das LED-RGB-Backlight, weshalb auch hier deutliche Kontraste erzeugt werden können, jedoch weniger Farben als bei der RGB-Methode.

Frame-LED-Backlight (weiße LEDs): Hierbei handelt es sich im eigentlichen Sinne nicht um eine Hintergrundbeleuchtung (Backlight), da das Licht ausschließlich im Display-Rahmen zur Verfügung steht, welches über ein sogenanntes Lichtleitersystem gleichmäßig verteilt wird. Die Kontraste sind ganz ansehnlich und liegen im Bereich 2.000.000 : 1. Jedoch bestehen naturgemäß Probleme in der punktgenauen Regulierung der Helligkeit (vor allem in der Mitte des Bildschirms) und die Farben sind ähnlich mittelmäßig.

LED-EDGE-Backlight (weiße LEDs): Ähnlich wie beim Frame-LED-Backlight strahlt das Licht hier vom Rand aus, genauer gesagt aus den Ecken. Hieraus resultiert auch die Bezeichnung, da „edge“ im Englischen „Kante“ bedeutet. Weißleuchtende LEDs sind also nicht flächendeckend über den kompletten Displayhintergrund, sondern lediglich an den Kanten angebracht. Eine gleichmäßige oder punktuelle Ausleuchtung ist somit ausgeschossen und auch die Farben sowie Kontrastwerte sind problematisch. Von Vorteil ist in jedem Fall der Preis und die geringe Gehäusetiefe.

Abbildung 358: Frame-LED (links) und EDGE-LED (rechts) im Vergleich (Quelle: Sharp)

Direct-LED-Backlight (Full-LED): Diese Variante der Hintergrundbeleuchtung bezeichnet die Tatsache, dass die LEDs über die gesamte hintere Bildschirmfläche angeordnet sind. In diesem Zusammenhang kommt es nicht selten zu einem weiteren Fachbegriff: dem sogenannten Local-Dimming. Mit dieser Technologie wird die Hintergrundbeleuchtung in die Lage versetzt, bestimmte Teilbereiche (LED-Cluster) gezielt aufzuhellen oder abzudunkeln. Insofern können natürlich weitaus höhere Kontraste erzielt werden, jedoch hat auch diese Technologie ihre Schattenseiten. Zum einen kann das sogenannte „Blooming“ auftreten. Hierbei handelt es sich um eine fehlerhafte Darstellung insbesondere in sehr hellen und sehr dunklen Bildbereichen. Entsprechende Szenen wirken „verschluckt“, Bilddetails gehen verloren.

Zum anderen haben LCD-Fernseher mit Direct-LED-Technik dafür weniger Probleme mit dem sogenannten „Clouding“ und „Flashlights“, da die LEDs gleichmäßig hinter dem Panel verteilt sind und demzufolge auch eine wesentlich bessere Verteilung des Lichts ermöglichen. Die bessere visuelle Qualität aufgrund der flächendeckenden Ausleuchtung des Bildes hat jedoch auch ihren Preis. Direkt-LED-Backlight-Fernseher sind teurer als die Vertreter der Edge-LED-Variante und sind auch nicht so extrem flach. Die Begriffe Clouding, Blooming, Flashlights etc. werden im entsprechenden Kapitel „Backlight-Fehler“ dieses Buches ausführlich dargestellt.

Die qualitativ hochwertigere Hintergrundbeleuchtung liefern also Geräte mit Direct-LED-Technik! Kauft man ein Gerät mit Edge-LED-Technik, kommt es besonders bei den sehr günstigen Produkten zu oben beschriebenen negativen Effekten. Möchte man diese Effekte also vermeiden, sollte man lieber zu den Topmodellen der Hersteller mit Full-LED beziehungsweise Direct-LED-Technik greifen und gegebenenfalls etwas mehr Geld investieren. Natürlich soll das nicht heißen, dass alle LCD-Fernseher mit Edge-Technologie schwerwiegende Probleme haben. Es kommt eben auf den Einzelfall an, denn es gibt auch genügend Geräte mit Edge-Technik, bei denen die Qualität der Hintergrundbeleuchtung ausreichend ist. Und letztlich kommt es immer auf die individuellen Wünsche, Vorlieben und natürlich die Größe des Geldbeutels an. Das Lesen von Gerätetests kann im Vorfeld bei der Auswahl helfen.

OLED

Jahrelang wurde darüber geredet, Ende 2013 war es dann endlich soweit. Mit den organischen Leuchtdioden kam eine dritte Bildschirm-Technologie auf den Markt, die so hell ist wie LCD, so reaktionsschnell und kontrastreich wie Plasma, dazu sparsam, dünn und leicht wie noch nie. Zudem ist OLED eine „Investition in die Zukunft“, sagte einst Samsung-Manager Michael Zöller. Denn mit dieser Technik ist „alles möglich“, selbst ein transparenter oder biegsamer Schirm. Zukunftsmusik? Nicht mehr! Denn im Januar 2016 präsentierte LG auf der CES das erste aufrollbare OLED-Display. Noch steckt die Entwicklung der flexiblen OLED-Panels in den Kinderschuhen, doch die Südkoreaner versprachen, dass die Schlüsseltechnologien für eine Massenproduktion bereits vorhanden sind. Allein die Nachfrage entscheidet über weitere Fortschritte. Und so war es auch der Trend der großen TV-Bildschirme, der einst die Entwicklungen der LED-Technologie vorantrieb. Doch schauen wir nun genauer, was sich hinter OLED verbirgt.

Ursprünglich für Smartphones und Tablets vorgesehen, kommt die organische Leuchtdiode (Organic Light Emitting Diode: OLED) im Zeitalter der Nanotechnologie bei großflächigen Fernsehern und sogar in der Raumbeleuchtung zum Einsatz. Hierbei handelt es sich um ein selbstleuchtendes Dünnschichtbauelement aus organischen halbleitenden Materialien.

Abbildung 359: OLED auf einer biegsamen Kunststofffolie (Wikimedia Commons)

Im Gegensatz zu anorganischen Leuchtdioden (LED) sind hier keine einkristallinen Materialien erforderlich, was eine kostengünstige Herstellung in Dünnschichttechnik möglich macht. Allerdings ist sowohl die elektrische Stromdichte und damit die Leuchtdichte aber auch die Lebensdauer geringer.

Dennoch ist die OLED-Technologie ein Durchbruch in der Unterhaltungselektronik aber auch in anderen Bereichen. So können OLEDs aufgrund ihrer Materialeigenschaften zukünftig beispielsweise als biegsame Bildschirme oder aber als elektronisches Papier verwendet werden. Zumal in jüngster Zeit metall-organische Komplexe verwendet werden, die viermal so effizient sind wie die ursprünglich eingesetzten fluoreszierenden Moleküle. Bei den sogenannten Triplett-Emittern wird sowohl die organische Elektrolumineszenz genutzt als auch die Lumineszenz der Farbstoffe, die durch das Umgebungslicht angeregt wird.

Abbildung 360: Schema einer OLED (Wikimedia Commons)

OLEDs bestehen aus mehreren organischen Schichten: 1. Kathode, 2. Emitterschicht (EL), 3. Rekombinationsschicht, 4. Lochleitungsschicht (HTL), 5. Anode (vgl. Abbildung). Die Kathode besteht aus einem Metall oder einer Legierung (z.B. Calcium, Aluminium, Barium, Ruthenium oder Magnesium-Silber-Legierung). Zwischen Kathode und Emitterschicht wird zumeist noch eine sehr dünne Schutzsicht zur Verringerung der Injektionsbarriere für Elektronen aus Lithiumfluorid, Caesiumfluorid oder Silber aufgedampft. Die Anode (Indium-Zinn-Oxid: ITO) befindet sich auf einer Glasscheibe, auf die eine sogenannte Lochleitungsschicht (Hole Transport Layer: HTL) aufgebracht ist. Die Emitterschicht (Emitter Layer: EL) liegt auf der HTL und enthält den Farbstoff.

Anders als LCD/LED-Displays leuchtet ein OLED-Bildschirm von allein – also ohne Hintergrundbeleuchtung. Ähnlich wie bei Plasmabildschirmen wird damit ein sehr viel höherer Kontrast erzeugt, der bisher bei LCD-Displays ein Manko darstellte. Weitere Vorteile liegen auf der Hand: Durch die nicht mehr benötigte Hintergrundbeleuchtung sinkt natürlich der Strombedarf. Außerdem liegt die Reaktionszeit bei unter einer Mikrosekunde. OLED-Displays sind damit etwa tausend Mal schneller als ihre klassischen LED-Kollegen.

Abbildung 361: Farbunterschied im Vergleich LED – OLED (www.lg.com)

OLED-Displays profitieren darüber hinaus von der innovativen Pixel-Dimming-Technologie, auf deren Basis nunmehr Bilder mit bisher undenkbaren Schwarzwerten, beeindruckender Tiefenwirkung und absolut lebensechten Farben dargestellt werden können. Der Grund dafür? Jeder einzelne organische Pixel kann eigenständig und individuell Licht und damit Farbe erzeugen und sich ganz nach Bedarf selbständig an- oder ausschalten. Aufgrund dessen wird eine dynamische Genauigkeit bei der Bilddarstellung erreicht, die bei einem LCD-Bildschirm nicht möglich ist. Da somit auf eine starre Hintergrundbeleuchtung verzichtet werden kann, bieten OLED-Displays aus praktisch jedem Betrachtungswinkel ein verlustfreies und gestochen scharfes Seherlebnis – ohne Farbverzerrungen oder Detailverluste an den Bildschirmrändern. Außerdem können die Bildschirme jetzt so verarbeitet werden, dass sie dünner sind als je zuvor.

Insofern kann zu Recht behauptet werden, dass mit OLED eine neue Ära der Bildqualität eingeführt wurde. Dies schreiben sich mittlerweile Firmen wie Panasonic oder LG auf die Fahne. Die Herausforderung besteht nun aber unter anderem darin, der extremen Korrosionsanfälligkeit der hochreaktiven Injektionsschicht Herr zu werden, die aus Calcium und Barium besteht. Wasser sowie Sauerstoff kann das organische Material schnell zerstören. Die relativ kurze und unterschiedliche Lebensdauer der roten, grünen und blauen Leuchtpunkte haben unregelmäßige Farbverschiebungen zur Folge, die es zukünftig zu vermeiden gilt.

Gemeinsam ist allen OLEDs, dass sie mit positiv geladenen Teilchen (Electrons) und negative geladenen Teilchen (Holes) organische Leuchtstoffe anregen; dazu sind Injection Layer (EIL, HIL) und Transport Layer (ETL, HTL) nötig. Soweit so gut. Doch wo liegen die Unterschiede zwischen den OLED-Technologien der einzelnen Hersteller? Je nach Fertigungsverfahren sind unterschiedliche Materialeigenschaften nötig, umgekehrt lassen sich bestimmte Materialien nur auf spezielle Art und Weise aufbringen. Die Kunst der Hersteller liegt darin, gemeinsam mit den Zulieferern die richtige Kombination aus Leuchtstoff und Produktionstechnologie zu finden.

So nutzen beispielsweise sowohl Samsung als auch LG anstelle von dem wenig leistungsfähigen amorphen Silizium sogenannte Metall-Oxid-Verbindungen. Der wesentliche Unterschied zwischen beiden Firmen liegt hier also im Detail, genauer gesagt im Aufbau. Samsung setzt dabei zum Beispiel auf die Anordnung von Leuchtstoffen nebeneinander. Diese OLEDs in RGB-Struktur haben für jeden Subpixel einen eigenen Leuchtstoff in Rot, Grün und Blau. Darüber und darunter liegen die Layer für Elektronen-Austritt und -Transport, jeweils für negative und für positive Ladung. Die Polfilterschicht dient dem höheren Kontrast, sie kann auch durch Farbfilter ersetzt werden. Die besondere Schwierigkeit bei der RGB-Technologie liegt in der punktgenauen Platzierung der Leuchtstoffe, was derzeit noch durch Aufdampfen geschieht, zukünftig aber mithilfe eines Sprüh- oder Druckverfahrens realisiert werden soll.

OLEDs mit weißem Licht (wie etwa bei LG) verwenden mehrere Farbschichten übereinander, die transparent sind. LG setzt dabei auf einen sogenannten Dual-Stack, also zwei Farbschichten mit einem Ladungsträger dazwischen (CL), da man die Stoffe für Rot und Grün mischen kann. Hier unterscheidet man wiederum zwischen phosphoreszierenden Materialien, dieser Layer strahlt dann gelb. Blau dagegen ist fluoreszierend und muss daher separat aufgebracht werden. Drei Farbfilter sind immer nötig, LG nimmt ein zusätzliches Weiß-Segment für eine höhere Lichtausbeute und geringeren Stromverbrauch. Interessant bleibt in diesem Zusammenhang die Entwicklung der biegsamen Displays, wie anfänglich bereits beschrieben. Aufgrund der Bauart scheint es LG bei der Herstellung leichter zu haben. Aber die reale Umsetzung bleibt abzuwarten.

Eine weitere Herausforderung an die TV-Ingenieure bildet selbstverständlich die Bildverarbeitung. Hier hat zum Beispiel Panasonic in der Entwicklungsphase einiges daran gesetzt, die gigantischen Möglichkeiten der OLED-Technologie optimal auszuschöpfen. Mit dem Modell TX-65CZW954 des japanischen Elektronikkonzerns wurden erstmals die Technologien zur nativen 4K-UHD-Auflösung und der aktuellen OLED-Bildschirmtechnik vereint.

Abbildung 362: Qualitätssiegel der George-Lucas-Firmengruppe THX

Darüber hinaus ist der TX-65CZW954, welcher seit November 2015 erhältlich ist, mit einer speziell auf dieses Modell angepassten Version des 4K-Studio-Master-Panel-Prozessors ausgerüstet, die gemeinsam mit Experten aus der Filmbranche entwickelt wurde. Insbesondere durch die Einbringung der Filmexperten hat sich bei Panasonic die TV-Philosophie entwickelt, dass jedes gefilmte Detail später auf dem Bildschirm zu sehen sein soll. Was Drehbuchautoren, Regisseure und Filmemacher generell natürlich freut, kommt dem Verbraucher zugute. Eine kontrast- und bilderreiche Darstellung ist nunmehr nicht ausschließlich im Kino, sondern in den eigenen vier Wänden möglich.

Und mehr noch: Kein geringerer als der führende Colourist in Hollywood und vierfacher Finalist der Hollywood Post Alliance Awards, Mike Sowa, hat die Farbwiedergabe des TX-65CZW954 exzellent und professionell justiert. Mit Mike Sowas Voreinstellungen werden Farben so lebendig und lebensnah dargestellt, wie Regisseur und Filmemacher es beabsichtigten. Doch auch damit nicht genug. Das kommerzielle Qualitätssiegel der George-Lucas-Firmengruppe THX war ebenfalls an der Entwicklung beteiligt. Gemeinsam mit den Panasonic-Ingenieuren stellte THX in über 400 Labortests sicher, dass jeder einzelne Pixel des TX-65CZW954 das Ausgangsmaterial absolut akkurat wiedergibt. Und das Ergebnis kann sich sehen lassen. Mit dem OLED-TV werden „helle Objekte mit einem exzellenten Weißabgleich darstellt und sowohl nativen 4K-Content als auch hochskaliertes HD-Material mit einem Kontrast und einer Schärfe abgebildet, die bislang professionellen Monitoren vorbehalten war“, so Eric Gemmer, THX Director für Bildtechnologien (2015).

Abbildung 363: OLED-Technik (www.panasonic.de)

Als weltweit erstes Gerät seiner Art erhielt der 4K-OLED-TV aus dem Hause Panasonic im Jahre 2015 das beliebte THX-Zertifikat. Aber auch das sogenannte „absolute black“ ist schon jetzt legendär und stellt die veraltete Display-Technik des Millenniums buchstäblich in den Schatten. Die neuen OLED-TVs von Panasonic erreichen ein noch tieferes Schwarz als die seinerzeit berühmten Plasma-TVs der VIERA-Serie – dafür ohne jegliches Bildrauschen. Und das Streben des Herstellers nach einer exzellenten Wiedergabe endet nicht mit der perfekten Abstufung der Schwarzwerte oder der präzisen Darstellung des 4K-Studio-Master-Panels. Viele OLED-Fernseher unterstützen mittlerweile HDR und bieten damit deutlich dynamischere und strahlende Bilder, die vom Original kaum noch zu unterscheiden sind. Und doch war es übrigens ein LED-Panel (Backlight) von Panasonic, das auf der Consumer Electronics Show (CES) 2016 erstmals das beliebte Gütesiegel „Ultra HD Premium“ der UHD Alliance erhielt. Insofern kann man also nicht pauschal behaupten, ob ein OLED nun besser als ein Backlight-Panel ist. Wie im richtigen Leben gibt es hier diverse Vor- aber auch Nachteile, vom individuellen Geschmack und Leistungsanspruch des jeweiligen Anwenders einmal ganz abgesehen. Im folgenden Kapitel soll deshalb ein detaillierter Vergleich zwischen OLED- und LED/LCD-Bildschirmen gezogen werden.

OLED vs. LED/LCD & Co.

Überall ist von perfekten Schwarzwerten und brillanten Farben die Rede. Aber was steckt hinter der neuen Technologie und wo liegen die Vorteile gegenüber modernen LED-Backlights oder aber herkömmlichen LCD-Geräten?

Um die Zukunft zu verstehen, ist es manchmal ratsam, einen Blick in die Vergangenheit zu werfen. An Begriffe wie LED oder LCD haben wir uns bereits gewöhnt, doch auch hier wissen die wenigsten TV-Nutzer die Hintergründe. Fakt ist: Schon vor vielen Jahren haben die Flüssigkeitskristallanzeigen oder auch Liquid Crystal Displays (LCD) den Markt erobert. Plasma-Bildschirme haben den Sprung in den Massemarkt der Neuzeit leider nicht geschafft. Kaum noch vorhanden in den deutschen Wohnzimmern sind ebenfalls die antiken LCDs mit Leuchtstoffröhren sowie herkömmliche LEDs mit Leuchtdioden (Light Emitting Diode). Warum? Weil diese Technologien mit Licht emittierenden Dioden beziehungsweise Lumineszenz-Dioden und entsprechenden Flüssigkeitskristallen nicht das können, was die aktuellen organischen Leuchtdioden (Organic Light Emitting Diode: OLED) fertig bringen.

Bei klassischen LED-TVs wird mehr oder weniger Licht durch die roten, grünen sowie blauen Farbpixel im Bildschirm durchgelassen und generell mit einer Hintergrundbeleuchtung gearbeitet, die sich nicht abschalten lässt. Reines Schwarz kann aber nur entstehen, wenn nichts mehr leuchtet. Da der sogenannte Schwarzwert bei 0 Volt liegt, war bisher also maximal dunkles Grau möglich, es sei denn, man hat den Fernseher abgeschaltet. Doch das lag natürlich nicht im Sinne des Erfinders.

Beleuchtung

Im vorherigen Kapitel wurde bereits einiges zur OLED-Technologie erwähnt. Der deutlichste Unterschied gegenüber LCD/LEDs ist in der Beleuchtung zu finden. Das Stichwort lautet hier: Nanotechnologie. Bei OLED handelt es sich um selbstleuchtende Dünnschichtbauelemente aus organischen halbleitenden Materialien. Im Gegensatz zu anorganischen Leuchtdioden (LED) sind hier keine einkristallinen Materialien erforderlich, was eine kostengünstige Herstellung in Dünnschichttechnik möglich macht. Die organischen Leuchtdioden (OLED) leuchten also von allein, können das Licht automatisch dimmen und sich sogar selbständig abschalten. Insofern sind OLED-Displays nunmehr tatsächlich in der Lage, nunmehr Bilder mit bisher undenkbaren Schwarzwerten, beeindruckender Tiefenwirkung und absolut lebensechten Farben darzustellen. Jeder einzelne organische Pixel kann eigenständig und individuell Licht und damit Farbe erzeugen und sich ganz nach Bedarf selbständig an- oder ausschalten. Aufgrund dessen wird eine dynamische Genauigkeit bei der Bilddarstellung erreicht, die bei herkömmlichen LCD-/LED-Bildschirmen nicht möglich war. Außerdem liegt die Reaktionszeit bei unter einer Mikrosekunde, was bedeutet, dass OLED-Displays etwa tausend Mal schneller sind als ihre antiken LCD-Kollegen.

Abbildung 364: OLED und LCD im Vergleich (www.oled.at)

Wie bereits beschrieben, kann bei OLED auf eine starre Hintergrundbeleuchtung verzichtet werden, weshalb OLED-Displays aus praktisch jedem Betrachtungswinkel ein verlustfreies und gestochen scharfes Bild ohne Farbverzerrungen und Detailverluste an den Bildschirmrändern darstellen können. Aufgrund des überflüssigen Backlights, das bei LED-Panels aus vielen tausend kleinen Lämpchen besteht, sind OLED-TVs sehr viel energieeffizienter und können weitaus dünner produziert werden. Allerdings ist sowohl die elektrische Stromdichte und damit die Leuchtdichte aber auch die Lebensdauer geringer. Denn die hochreaktive Injektionsschicht ist extrem korrosionsanfällig. Wasser sowie Sauerstoff kann das organische Material schnell zerstören. Die folgenden Parameter sollen den Vergleich zwischen OLED und LCD/LED noch detaillierter möglich machen:

Farbbrillanz

Wer in letzter Zeit in einem Multimediamarkt war, der hat es vielleicht bemerkt: OLED-Bildschirme lassen bisweilen die Konkurrenz ziemlich blass erscheinen. Das hat nicht zwingend etwas mit der Qualität der Bildwiedergabe zu tun, sondern mit der Technologie selbst. Denn ob nun im Fachgeschäft oder auch auf Messen sind zahlreiche TV-Geräte nebeneinander angeordnet und dem überwältigten und zumeist auch überforderten Betrachter bieten sich keine optimalen Bedingungen. Der Blickwinkel stimmt nicht. In den seltensten Fällen setzen wir uns im TV-Markt direkt vor den Fernseher, sondern schauen von der Seite, größer gewachsene Menschen dazu von oben. Genau deshalb schneiden OLED-Bildschirme in der Regel besser ab als ihre LCD-Kollegen. Die tragende Rolle spielt hierbei die weiter oben beschriebene organische Beleuchtung, die weitaus homogener ist als bei einer LED-Hintergrundbeleuchtung. Vor allem in Kontrast und Farbigkeit wirken OLEDs deshalb brillanter, obwohl nominell die Helligkeit sogar etwas geringer ist als bei handelsüblichen LCD-Fernsehern. Doch ähnlich wie bei Laser wirken OLEDs aufgrund der hohen Farbreinheit strahlender als Bildschirme, die ein breites Wellenlängen-Spektrum abgeben. Deshalb kommen OLEDs mit weitaus weniger Nits aus, wie im Kapitel über das UHD-Zertifikat „Ultra HD Premium“ nachzulesen ist.

OLEDs haben zudem den Vorteil, dass sie die Spitzenhelligkeit über den Mittelwert hinaus anheben können, ähnlich wie bei Bildröhren oder Plasma. Im Vergleich mit Plasma können OLED-Schirme mithalten, was die Bildwirkung angeht, sind aber durch die höhere Helligkeit überlegen. Es ist also tatsächlich so, dass die neuen Displays die Vorteile von LCD und Plasma vereinen, und zwar ohne die jeweiligen Nachteile.

Kontrast

Das Geheimnis ist auch hier das Licht beziehungsweise die Tatsache, dass bei OLED dynamisch und selbständig ein- und ausgeschaltet werden kann. Wobei „aus“ tatsächlich auch aus bedeutet. Denn während bei LCD stets ein spärliches Streulicht seinen Weg auf den Bildschirm findet und bei Plasma ein separater Löschimpuls benötigt wird, ist bei OLED einfach der jeweilige Bildpunkt aus. Der Schwarzwert liegt also real bei null, was noch bis vor ein paar Jahren nicht möglich war. Denn „aus“ bedeutete seinerzeit, dass nicht nur einzelne Leuchtpartikel oder Hintergrundlämpchen (LED) ausgeschaltet wurden, sondern der gesamte Bildschirm aus war. Doch bei OLED geht dieser Umstand noch weit über das bereits beschriebene Local Dimming hinaus.

Denn genauso beeindruckend wie der im Dunkeln gemessene Kontrast ist die Leistung im Hellraum. OLED-Bildschirme scheinen jedes Licht, das auf sie fällt, direkt einzusaugen und darüber hinaus nicht wieder herzugeben. Selbst das Blitzlicht einer Kamera macht ihnen nichts aus. Ähnlich wie bei LCD-Displays sind es bei OLED-Bildschirmen die optischen Komponenten, die einfallendes Licht rein- aber nicht wieder rauslassen. Manche Hersteller wie etwa Sony nutzen dafür spezielle Farbfilter über den Pixeln, andere wiederum Polarisationsfolien – LG sogar beides. In punkto Kontrast gilt also ähnlich wie bei der Brillanz, dass OLED-Bildschirme in hellen Räumen so gut sein können wie LCD-Displays und in dunklen Räumen so gut wie die besten Plasmas. Die folgende Grafik soll bildhaft darstellen, auf welcher technischen Basis ein OLED das einfallende Licht verarbeiten kann.

Abbildung 365: Aufbau der OLED-Technologie

Lebensdauer

Lange Zeit war der Verschleiß der Leuchtmaterialien eines der ungelösten Probleme der OLED-Technik. Die ersten Modelle mit organischen Leuchtdioden sind tatsächlich heute meistens unansehnlich geworden. Hier ist jedoch nicht die Rede vom TV-Gerät aus dem Jahre 2015, denn hier war die OLED-Technologie schon weitgehend ausgereift. Jedoch kann es vorkommen, dass beispielsweise das Pioneer-Autoradio von 1998, Digitalkameras von Kodak aus der Zeit oder ältere MP3-Player oder Smartphones kein gestochen scharfes Display mehr bieten. Jedoch lässt dies keine Rückschlüsse auf OLED-Fernseher zu. Die heutigen Leuchtstoffe werden von den Herstellern mit Lebenserwartungen von 30.000 bis 300.000 Stunden spezifiziert, was für einen Fernseher locker ausreichen sollte. Wissenswert ist in Bezug auf die Lebensdauer jedoch, dass ebenjene die Anzahl der Stunden bis zum 50-prozentigen Abfall der Helligkeit beziffert. Viele Leuchtmaterialien verlieren allerdings schon in den ersten zehn Prozent ihrer Lebenserwartung deutlich an Effizienz. Und wenn das zum Beispiel für die blaue Komponente stärker der Fall ist als für die rote oder grüne, gerät die Farbbalance aus dem Gleichgewicht. Das gilt übrigens sowohl für RGB-OLEDs als auch für OLEDs mit weißem Licht und Farbfiltern.

Einbrennen

Da es naturgemäß noch keine Langzeitstudien geben kann, bleibt das sogenannte Einbrennen sowohl bei aktuellen LCD/LED-Modellen als auch bei OLED-Fernsehern ähnlich wie die Lebensdauer eine noch offene Frage. Jedenfalls für die nächsten Jahre. Theoretisch ist ein solcher Effekt durchaus denkbar, weshalb man grundsätzlich Standbilder sowie statische Muster oder Logos vermeiden sollte – insbesondere in den ersten Monaten der Benutzung. Denn phosphoreszierende Stoffe haben quasi ein Gedächtnis, das eine ungleiche Abnutzung zumindest für eine gewisse Zeit speichern kann. OLED-Displays neigen im Übrigen eher zu einem Nachleuchten oder vielmehr einer unerwünschten Veränderung der Helligkeitsinformationen. Allerdings ist dieser Effekt nicht von Dauer und längst nicht so schwerwiegend wie seinerzeit die Einbrenneffekte.

Vorgesorgt wird hier in neueren TV-Geräten durch Bildschirmschoner oder auch die Funktion der automatischen Abschaltung. Und selbst die Fernsehanstalten sorgen dafür, dass ihre Logos nicht mehr pausenlos eingeblendet werden. Viele OLED-Displays vermindern zudem automatisch die Hintergrundbeleuchtung bei Standbildern. Dass diese Effekte zumindest bei Quantum-Dots-Displays tatsächlich kaum noch ein Problem der Zukunft darstellen, belegt wohl die Initiative von Samsung auf der IFA 2016. Der Technikriese plant eine Garantie in Bezug auf Einbrenneffekte seiner SUHD-Modelle und verspricht seinen Kunden, alle SUHD-Fernseher, die innerhalb von zehn Jahren Einbrenneffekte aufweisen, zu reparieren oder gar auszutauschen.

3D-Darstellung

Im Kapitel „Räumliche Wahrnehmung 3D“ in diesem Buch wurden die einzelnen 3D-Technologien bereits ausführlich beschrieben. Weshalb hier nicht mehr weiter auf die technischen Hintergründe eingegangen werden soll. Grundsätzlich ist bei OLED-Bildschirmen jede Art von 3D-Darstellung möglich, die es auch bei LCD und Plasma gibt. Hier gibt es also die Polfilter-Technik, die räumliche Darstellung mit Shutterbrillen und sogar 3D ohne Brille. Vor- und Nachteile sind dabei vergleichbar mit LCD, also Auflösungsverlust bei Polfiltern (halbierte Zeilenzahl) und Helligkeitseinbußen vor allem bei Shutterbrillen. Wobei sich zumindest dieser Nachteil durch die Art und Weise der Ansteuerung und das Einfügen einer Dunkelphase stark verringern lässt. Damit wird der Licht-Output auf den Zeitraum konzentriert, in dem die Brillengläser geöffnet sind, ähnlich wie bei einigen LCD/LED-Fernsehern mit 3D-Funktion. Da OLED-TVs sehr schnell schalten können (Reaktionszeit), kann das sogenannte Übersprechen (von einem Bild auf das andere) deutlich besser kontrolliert werden als bei LCD Fernsehern.

Auch die Polfilter-Technik ist bei OLED-TVs ähnlich wie bei LCDs möglich. Zumal es sich hierbei um eine einfach zu realisierende Option handelt, da die entsprechenden Folien bereits bei den meisten OLED-Schirmen für besseren Hellraum-Kontrast vorgesehen sind. Damit wird nur noch ein zweiter Layer benötigt, der zeilenweise für die Drehung der Polarisation sorgt. 3D ohne Brille kann mit OLEDs durch eine Parallaxenbarriere oder durch ein Linsenraster realisiert werden, die Nachteile speziell in puncto verringerter Auflösung ändern sich hier jedoch nicht.

Bewegungsdarstellung

Was diesen Punkt anbelangt, so wird insbesondere im Internet viel fabuliert. Auch Hersteller werben mit Reaktionszeiten, die mittlerweile im Millisekunden-Bereich liegen. Damit sind OLEDs deutlich schneller als LCDs. Allerdings nur in der Theorie. Denn diese Werte sagen grundsätzlich nichts darüber aus, wie die Darstellung von Bewegungen auf dem Schirm umgesetzt wird. Insbesondere bei großflächigen Bildschirmen muss das menschliche Auge (ähnlich wie im Kino) dem bewegten Objekt folgen. Deshalb entscheidet über die Bewegungsdarstellung beziehungsweise Bewegungsschärfe die Haltedauer, und die ist bei 50 Hertz nun einmal 20 Millisekunden. Bei jedem Bildschirm!

Röhre und Plasma arbeiten mit Helligkeitsimpulsen, die kurz aufleuchten und dann abklingen, wodurch sie selbst bei 50 Hertz scharf wirken. OLED-Displays verhalten sich hingegen wie ein moderner LCD, weshalb man für scharfe Bewegungen die 20 Millisekunden in kleine Schritte zerlegen muss. Es dürfte daher 200 beziehungsweise 240 Hertz die Regel bei OLED-Fernsehern sein, verbunden natürlich mit einer Zwischenbildberechnung. Auch höhere Frequenzen sind denkbar, dürften aber in der Praxis kaum noch Vorteile bringen, zumal das TV-Signal nach wie vor mit 50 Hertz (Europa) beziehungsweise 60-Hertz (USA) übertragen wird.

QLED/Quantum Dots

Während die TV-Programmanbieter also auf herkömmliche Standards setzen und neben der klassischen Signalverarbeitung auch noch bei HD herumdümpeln, wappnen sich die TV-Hersteller bereits für 8K. Zur Erinnerung: Eine Auflösung im aktuellen High-Definition-TV (beispielsweise bei DVB-T2) beinhaltet gerade einmal 1920×1080 Pixel (Full HD/2K), beim Streaming kann je nach Internetverbindung bereits in Ultra HD geschaut werden, also mit der doppelten Auflösung und 3840×2160 Pixeln (4K) und auf der CES 2016 gab es bereits die ersten 8K-Computerdisplays mit unglaublichen 7680×4320 Pixeln, also etwa 33 Millionen Pixeln pro Bild zu bestaunen. Entsprechende TV-Panels werden nicht mehr lange auf sich warten lassen.

Was hat das Ganze nun aber mit der QLED-Technologie zu tun? Sagen wir so: Die Umsetzung der Rec.2020 (vgl. entsprechendes Kapitel in diesem Buch) bis hin zu UHD-2 braucht natürlich technische Grundlagen. Der Wettlauf um die besten Display-Technologien hat längst begonnen. Und wo zwei sich streiten, gewinnt vielleicht der Dritte. QLED-TVs sind eine starke Konkurrenz zu OLED und herkömmlichen LED-Backlights. Wenn man den Aussagen der Hersteller glauben darf, dann vereint diese Technologie auf Basis sogenannter Quantum Dots alle Vorteile von LCD sowie OLED und könnte den TV-Markt revolutionieren. Vor allem die Firma Samsung hat sich große Ziele gesetzt und möchte Pressemeldungen zufolge zukünftig komplett auf OLED verzichten und sich ausschließlich der Produktion von QLED-Fernsehern widmen. Interessant ist hier, dass - im Gegensatz zu den SUHD-TVs aus den Jahren 2015 und 2016 - in den weiterentwickelten Modellen vollständig auf die Hintergrundbeleuchtung verzichtet werden soll, die Quantum Dots also ähnlich wie bei OLED-Panels ohne zusätzliche LEDs auskommen. Deshalb wird die bisherige Bezeichnung „QLED“ bald hinfällig werden.

Doch was steckt nun im Einzelnen hinter diesen Quantum Dots? Was hat es mit diesen TV-Panels aus der Nanotechnologie auf sich? Sind Samsung mit SUHD und Sony mit Triluminos die einzigen im QD-Fieber? Wer hat es erfunden und was sind die technischen Hintergründe?

Abbildung 366: www.samsung.com

Beginnen wir bei den technischen Standards, die bereits im Jahre 2012 mit der ITU-R-Empfehlung BT.2020 spezifiziert wurden. Neben den einzelnen Auflösungen (UHD-1 und UHD-2) wurden hier unter anderem die Farbtiefe von 10 oder 12 Bits pro Abtastwert aber auch der erweiterte Farbraum für die Zukunft festgelegt. Weder die klassische Röhre noch LCD-Bildschirme und selbst herkömmliche UHD-Fernseher (bis 2015) können hier schon nicht mehr mithalten. Und vor dem Hintergrund der sich stets entwickelnden Technologien munkelt man heute schon über die aktuelle OLED-Technologie, dass hier die Farben der Subpixel zu unrein sind, das heißt, die drei Grundfarben (Rot, Grün, Blau) nicht hundertprozentig dargestellt werden. Jedenfalls nicht so rein wie mithilfe der Quantum Dots.

Vielleicht gerade deshalb setzt zum Beispiel Samsung seit 2015 neue Maßstäbe mit QLED - insbesondere in punkto Detailtiefe, Kontrast und natürlicher Farbdarstellung. Die neue Technologie ermöglicht die Darstellung eines größeren Farbraums sowie einzelner Farbabstufungen und gewährleistet mit 10 Bit eine höhere Farbtiefe als herkömmliche UHD-Fernseher (8 Bit). Damit setzt auch SUHD die ITU-Empfehlung Rec.2020 um und ist somit schon jetzt für 8K gewappnet.

Denn die SUHD-Fernseher des südkoreanischen Technikriesen enthalten mikroskopisch dünne Nanokristalle, die die Farbdarstellung deutlich verbessern. Ähnlich wie ein Prisma brechen diese superkleinen Kristalle das Licht und können somit hochreines weißes Licht erzeugen. Die Quantenpunkte sollen sogar eine um dreißig Prozent breitere Farbskala als Kathodenstrahlröhren bieten und vierundsechzigmal mehr Farben liefern als herkömmliche Fernseher – und das bei einem deutlich geringeren Stromverbrauch.

Abbildung 367: SUHD-Fernseher mit Quantenpunkten und 10-Bit-Panel (Samsung)

Neben Samsung und Sony versprechen auch die neuen Geräte der Marke Thomson dank Quantum-Dot-Technologie einen erhöhten Farbraum gemäß Rec.2020 und somit beste Bildwiedergabe. Nach eigenen Angaben soll der 55 Zoll 4K-UHD-Fernseher (55UA9806) nicht nur bezahlbar sein, sondern darüber hinaus über den breitesten Color-Gamut-Farbraum verfügen, der aktuell auf dem Markt erhältlich ist und somit dem Vergleich mit LCDs und vor allem OELDs standhalten. Wobei „aktuell“ vor dem Hintergrund der rasanten Geschwindigkeit der multimedialen Entwicklungen natürlich immer relativ zu sehen ist. Thomsons vollmundige Versprechen gründen sich vor allem auf die Aussagen des Entwicklers QD Vision, der seine Color IQ Quantum-Dot-Technologie unter anderem damit bewirbt, dass sie nicht nur spektralrein, sondern abstimmbar und darüber hinaus wirtschaftlich erschwinglich sei.

Befürworter bewerten die QLEDs ebenfalls als qualitativ hochwertiger als ihre OLED-Kollegen, viele Experten sprechen hingegen von einer ähnlich hohen Farbbrillanz wie bei der OLED-Technologie. Fakt ist jedoch, dass Quantum-Dot-Displays deutlich energieeffizienter und heller sind. Schon allein deshalb, weil die zukünftigen Modelle auf eine zusätzliche LED-Hintergrundbeleuchtung verzichten können.

Abbildung 368: QD-Vision - http://coloriq.com

Ähnlich wie bei OLED funktionieren die einzelnen Nanokristalle in Bezug auf Farbe und Helligkeit individuell, bestehen jedoch nicht aus organischem Material. Die bei OLED vorkommenden Probleme mit der Störanfälligkeit und Lebensdauer fallen insofern weg. Artefakte aufgrund einer nicht homogenen Hintergrundbeleuchtung (LED-Backlight) kommen bei QD-Panels ebenfalls nicht vor. Doch was ist das Geheimnis?

Quantum Dots sind von der klassischen Bildröhre so weit entfernt wie die Milchstraße von der Erde. Die Dimension von Quantenpunkten im physikalischen Sinne ist kaum noch greifbar. Ihre Energie ist nicht mehr kontinuierlich, sondern nimmt diskrete Werte an. Anders als bei Atomen können bei Quantenpunkten sowohl die Form und Größe als auch die Anzahl der Elektronen und damit die elektronischen und optischen Eigenschaften beeinflusst werden. Bei der QD-Technologie handelt es sich also um höchste Präzision schon allein aufgrund der „Größe“. Die winzigen Kristalle, welche Lichtintensität und Farbbrillanz in ein komplett neues Level rücken, sind nur wenige Atome dick. Ein Quantum Dot ist also nicht etwa ein Bildpunkt beziehungsweise Pixel. Mit der englischen Bezeichnung ist tatsächlich ein Quantenpunkt gemeint, der über eine nanoskopische Materialstruktur verfügt. Ein Pixel (bei Ultra HD sind es über 8 Millionen pro Bild, bei 8K sogar 33 Millionen) besteht aus gleich mehreren Schichten von Quantenpunkten (Quantum Dots), die in der Lage sind, verschiedene Farbtöne zu reproduzieren. Wenn man nun bedenkt, dass ein Millimeter 1.000.000 Nanometern (nm) entspricht, reden wir also von einer sehr, sehr kleinen Maßeinheit. Die Größe eines Quantum Dots entspricht ungefähr zwei bis zehn Nanometern und damit in etwa dem Zehntausendstel eines menschlichen Haares. Detailreichtum wird also mit den winzigen Nanokristallen neu definiert. Doch damit noch nicht genug. TV-Hersteller Samsung kündigt an, das Quantum Dots zukünftig den Farbfilter eines Displays ersetzen sollen. Damit wären QD-Displays sowohl LCDs als auch OLED-Bildschirmen weit voraus. Ein weiterer Vorteil ist die kostengünstigere Produktion gegenüber OLED und die weitaus einfacherer Kalibrierung und Abstimmung eines QD-Displays während der Produktion. Dies bescheinigen jedenfalls die Analysen von DisplayMate als einen der größten Vorteile dieser Technologie.

Und so ist der Markt natürlich heiß umkämpft und die Hersteller von OLED- und LED-Backlight-TVs lassen sich die Butter nicht so schnell vom Brot nehmen. Hier kam das bisherige Manko von QLED ganz gelegen. Gemeint ist das anfänglich verwendete Schwermetall, welches giftig und somit gesundheitsgefährdend ist. Während für die OLED-Technologie das wasserlösliche Calcium die Achillesferse darstellt, war es für QLED das Kadmium. So musste der US-amerikanische Entwickler der Quantum-Dots-Technologie im Jahre 2015 einige Prüfungen und Analysen der Europäischen Kommission über sich ergehen lassen. Hintergrund war eine Ausnahmegenehmigung für die als giftig deklarierten Quantenpunkte auf Kadmium-Basis. In diesem Zusammenhang war von Wettbewerbsverzerrungen die Rede, die die EU-Kommission allerdings revidierte. QD Vision blieb am Ball und arbeitete an der Überprüfung durch die EU-Kommission mit. Hierzu gehört im Übrigen auch die Überprüfung der Quantenpunkt-Technologie auf Indium-Basis. Der Grund dafür liegt auf der Hand: Ein beschleunigtes Verfahren macht den Weg frei für den europäischen Markt, der bisher durch vorwiegend asiatische Geräte nur indirekt erschlossen werden konnte.

Die in Deutschland vertriebenen Geräte sind im Übrigen frei von dem giftigen Schwermetall und basieren auf der Entwicklung des Chemieriesen Dow Chemical, der das exklusive Vertriebsrecht der britischen Firma Nanoco für kadmiumfreie Quantenpunkte besitzt. Entwarnung gibt es auch generell bei den SUHD-Modellen der 2015er Serie von Samsung, die ebenfalls ohne Kadmium auskommen.

Somit ist der Weg frei für die Revolution mit Quantum Dots. Könnte man meinen. Die Marktchancen sind da, die Marktbreite hingegen noch nicht. Denn noch handelt es sich im Vergleich zu OLED um eine 1-zu-10-Situation. Auch wenn IHS der QD-Technologie ein Umsatzvolumen in Höhe von 200 Millionen US-Dollar für das Jahr 2020 prognostizierte, sind das im Vergleich zum Markt für OLED-Displays eher Peanuts. Hier lagen die Umsätze bereits im Jahre 2012 bei 4,9 Milliarden US-Dollar und sollen nach OLED-Info auf satte 26 Milliarden Dollar anwachsen. Man muss also kein Mathegenie sein, um herauszufinden, dass hier David gegen Goliath kämpft.

Allerdings ist abzusehen, dass sich das Verhältnis hier sehr schnell ändern kann. Die Nachfrage ist mittlerweile weltweit vorhanden, von der diverse QD-Anbieter (wie Nanosys, Life Technologies, Ocean Nanotech und Evident Technologies sowie der britische Produzent Nanoco Technologies) profitieren. Auch das deutsche Unternehmen Bayer Material Science bietet im Übrigen entsprechende Vorprodukte im Rahmen der QD-Technologie an. Es verwundert also nicht, dass die weltweite Massenproduktion auf Hochtouren läuft und immer mehr Gerätehersteller auf den QD-Zug aufspringen. Bekannt für seine QD-Displays ist natürlich Sony, der diese unter dem Markennamen Triluminos vermarktet. Doch auch andere große Hersteller setzen auf die QD-Technologie. Hierzu gehören neben Samsung unter anderem LG, Philips sowie Amazon mit seinem Kindle-Fire-HDX-Tablets. In punkto Brillanz, Schärfe, Blickwinkel und Farbdarstellung soll das kleine Amazon-Tablet sogar das iPad in den Schatten stellen und wird von verschiedenen Fachzeitschriften im Zusammenhang mit der QD-Technologie in den höchsten Tönen gelobt.

QLED vs. OLED

So partizipieren TCL mit seinen Thomson-TVs oder auch Sony von einer Entwicklung der Firma QD Vision. Und dieser Name scheint Programm. Denn der Markt für QLED-Displays wächst jährlich um sagenhafte 110 Prozent (Stand: 2014). Nach Einschätzungen des Analyse- und Marktforschungsunternehmens IHS (Information Handling Services) soll das Volumen der Bildschirme mit QD-Technologie von 10 Millionen Dollar in 2013 auf rund 200 Millionen Dollar bis 2020 steigen. Nicht nur in Fachkreisen werden deshalb die Halbleiter mit Nanostruktur (QLEDs) schon jetzt als starker Konkurrent zur OLED-Technologie bewertet. Zumal sich die Quantum Dots (QDs) nicht nur in moderne TV-Geräte integrieren lassen, sondern auch generell in Computer-Chips, sodass sie Anwendung in der Sensortechnologie, Solarzellen, Laser- und/oder Medizintechnik finden. Das Analyse-Unternehmen Markets & Markets prognostizierte für das Jahr 2020 einen weltweiten Umsatz mit QDs in Höhe von 3,4 Milliarden US-Dollar, wobei der Löwenanteil im Einsatz der Quantum Dots in der Optoelektronik liegt. Die Analysten schätzen hier allein Umsätze von rund 2,5 Milliarden US-Dollar in 2020.

Abbildung 369: QD-Vision - Screenshot http://coloriq.com (2015)

Neben QD Vision profitieren von der weltweiten Nachfrage auch andere QD-Anbieter, wie Nanosys, Life Technologies, Ocean Nanotech und Evident Technologies sowie der britische Produzent Nanoco Technologies. Auch das deutsche Unternehmen Bayer Material Science bietet im Übrigen entsprechende Vorprodukte im Rahmen der QD-Technologie an.

Es verwundert also nicht, dass die weltweite Massenproduktion auf Hochtouren läuft und diverse Gerätehersteller auf den QD-Zug aufspringen. Bekannt für seine QD-Displays ist natürlich Sony, der diese unter dem Markennamen Triluminos vermarktet. Nach Angaben der IHS-Analysten setzten auch andere große Hersteller auf die QD-Technologie. Hierzu gehören unter anderem LG, Philips, Samsung und 3D sowie Amazon mit Kindle-Fire-HDX-Tablets. In punkto Brillanz, Schärfe, Blickwinkel und Farbdarstellung stellt das kleine Amazon-Tablet sogar das iPad in den Schatten und wird von verschiedenen Fachzeitschriften (z.B. c’t) in den höchsten Tönen gelobt.

Somit liegt der Verdacht nahe, dass sich die Konkurrenz hier nicht gern die Butter vom Brot nehmen lässt. Befürworter bewerten die QLEDs zwar als qualitativ hochwertiger als ihre OLED-Kollegen. Viele Experten (z.B. die weltweit bekannte Testplattform DisplayMate) sprechen hingegen von einer ähnlich hohen Farbbrillanz wie bei der OLED-Technologie. Fakt ist jedoch, dass Quantom-Dot-Displays deutlich energieeffizienter und heller sind. Darüber hinaus ist die Kalibrierung und Abstimmung eines QD-Displays während der Produktion weitaus einfacher. Dies bescheinigen die Analysen von DisplayMate als einen der größten Vorteile dieser Technologie.

Abbildung 370: QD-Technologie auch in Amazons Kindle Fire HDX7 (www.go2android.de)

Dennoch handelt es sich wohl um eine 1-zu-10-Situation. Auch wenn IHS der QD-Technologie ein Umsatzvolumen in Höhe von 200 Millionen US-Dollar für das Jahr 2020 prognostizierte, sind das im Vergleich zum Markt für OLED-Displays eher Peanuts. Hier lagen die Umsätze bereits im Jahre 2012 bei 4,9 Milliarden US-Dollar und sollen nach OLED-Info auf satte 26 Milliarden Dollar anwachsen. Man muss also kein Mathegenie sein, um herauszufinden, dass hier David gegen Goliath kämpft. Und die Fronten sind dabei nicht einmal klar definiert. So hat der US-amerikanische Entwickler der Quantum-Dots-Technologie im Jahre 2015 einige Prüfungen und Analysen der Europäischen Kommission über sich ergehen lassen müssen. Hintergrund war eine Ausnahmegenehmigung für die als giftig deklarierten Quantenpunkte auf Kadmium-Basis.

In diesem Zusammenhang war von Wettbewerbsverzerrungen die Rede, die die EU-Kommission allerdings revidierte. QD Vision bleibt am Ball und arbeitet an der Überprüfung durch die EU-Kommission mit. Hierzu gehört im Übrigen auch die Überprüfung der Quantenpunkt-Technologie auf Indium-Basis. Der Grund dafür liegt auf der Hand: Ein beschleunigtes Verfahren macht den Weg frei für den europäischen Markt, der bisher durch vorwiegend asiatische Geräte nur indirekt erschlossen werden konnte. Ein Narr ist, wer hier nichts Böses ahnt. Bleibt also zu hoffen, dass sich die QD-Displays weiter am Markt durchsetzen, zumal beispielsweise Samsung auf Quantenpunkte setzt, die komplett frei von Kadmium sind.

Wem das Gerangel zwischen den großen Herstellern und visionären Technologien zu viel ist, weil er beispielsweise sowieso keine Riesensumme für exklusive TV-Geräte der Premiumklasse ausgeben möchte, der könnte sich auch mit „normalem“ UHD-Standard zufrieden geben. Und bevor es gleich richtig dünn wird, kommen wir zunächst zu den aktuellen Fernsehern aus dem Jahre 2015 für den schmalen Geldbeutel.

TV-Bildschirme

Neben der Bildauflösung und diversen Extras ließen sich Videodisplays bisher in zwei Kategorien einteilen, die unmittelbar mit ihrer Bauweise zusammenhängen: LCD und Plasma. Obwohl die Plasma-Bildschirme bereits wieder vom Markt verschwunden sind, sollen im Folgenden dennoch die jeweiligen Vor- und Nachteile beider Technologien verglichen werden.

Bildschirmgröße

Die Plasmatechnik eignete sich bei der Einführung vor allem für große Bildschirme. LCDs konnten seinerzeit dafür beliebig klein gebaut werden. Spätestens zu Beginn des 21. Jahrhunderts änderte sich dieses Prinzip. Im Zeitalter von Ultra HD und 4K beziehungsweise 8K sowie moderner OLED-Technik spielt die Bildschirmgröße nahezu keine Rolle mehr.

Helligkeit

Bislang galt das Motto: Wer seinen Fernseher vorwiegend in heller Umgebung nutzt, der sollte LCD-Bildschirme verwenden, die aufgrund ihrer Hintergrundbeleuchtung heller wirken. Plasmadisplays erzeugen hingegen in dunkler Umgebung ein besseres Bild. Auch dieses Thema ist mit Local Dimming, QD-Technologie, OLED und HDR vom Tisch. Alle modernen TV-Displays können heute Schwarzwerte mehr oder weniger hervorragend darstellen – ausschlaggebend ist die Technologie und die Hintergrundbeleuchtung. Näheres hierzu findet sich im vorherigen Kapitel „Display-Technologien“.

Kontrast

Ähnlich verhält es sich beim Kontrast. Wer bei LCD-Displays sattes Schwarz vermisste, der suchte (jedenfalls bisher) vergeblich. Grund dafür ist die permanente Hintergrundbeleuchtung, die es den einzelnen LCD-Pixeln unmöglich machte, sich völlig zu schließen. Ein höherer Kontrastumfang wurde seinerzeit generell bei Plasma-Bildschirmen erreicht. Aber auch hier sind insbesondere die neuen Displays mit OLED- oder Quantum-Dot-Technologien weitaus besser, selbst wenn die Umgebungssituation nicht optimal ist.

Farbe

Das ist reine Geschmackssache und letztlich insbesondere eine Frage der richtigen Kalibrierung. Grundsätzlich variiert die Farbdarstellung in den diversen Modellen der zahlreichen Hersteller. Da die Farbwahrnehmung subjektiver Natur ist, wurden hierzu vor Jahren verschiedene Testverfahren durchgeführt. Das Ergebnis: LCD-Bildschirme wurden seinerzeit oft als brillanter empfunden, Plasma-Bildschirme dafür als wärmer und naturgetreuer. Auch hier hat sich in punkto Qualität so einiges geändert. Was bleibt, ist der Hinweis, dass die Bildeinstellungen ab Werk oder aber im Verkaufsmodus nicht den tatsächlichen Möglichkeiten der Bildwiedergabe entsprechen. Hier kann und muss vielfach nachgebessert werden; zum Beispiel mit Testbildern (vgl. das Kapitel „Professionelle Bildeinstellungen“).

Reaktionszeit

Wer auf „Kometenschweife“ bei schnellem Bildwechsel (Sportsendungen, Actionfilme) verzichten will, der sollte einen UHD-Displays ab Baureihe 2015 wählen. Die klassischen LCD-Displays neigen hier zu sogenannten Nachzieh-Effekten.

Einbrennen

Auch wenn die aktuelleren Modelle generell nicht mehr dazu neigen, Standbilder einzubrennen, zeigten hier - wenn überhaupt - die Plasma-Bildschirme solche Effekte. Allerdings muss man wissen, dass sich ein Bild nur dann in das Display einbrennt, wenn es über Stunden, Tage oder gar Wochen stehengelassen wird. Doch wer macht das schon?

Lebensdauer

Bei der rasanten Geschwindigkeit der technischen Entwicklung spielt die Lebensdauer von Unterhaltungsgeräten heute kaum noch eine Rolle. Bevor sie altersschwach werden, müssen sie in der Regel schon ihren Platz für den Nachfolger räumen. Die Lebenserwartung bei voller Lichtleistung entspricht bei beiden Techniken (LCD und Plasma) zwischen 40.000 und 60.000 Betriebsstunden. Legt man den Mittelwert (50.000) zugrunde, könnte man zehn Stunden am Tag über dreizehn Jahre lang den Bildschirm flimmern lassen. Moderne UHD-TVs mit organischen Leuchtdioden leben hingegen nicht ganz so lange, jedenfalls ist dies der Stand im Jahre 2015.

Empfindlichkeit

Dass Kinder nicht unbedingt Fußball im heimischen Wohnzimmer spielen sollen, ist bekannt. Auf mechanische Einwirkungen jeder Art reagieren alle technischen Geräte empfindlich. Dazu gehören im Übrigen auch scharfe Putzmittel und zu viel Feuchtigkeit. Darüber hinaus empfehlen die Hersteller von Plasma-Bildschirmen bestimmte Einschränkungen. Entsprechende Displays sollen niemals waagerecht transportiert oder gelagert werden und funktionieren gemäß Herstellergarantie nur bis etwa 1500 Meter über dem Meeresspiegel. Die Empfindlichkeit bezieht sich also bei Plasma-Displays auch auf bestimmte äußere Einflüsse, wie beispielsweise der Luftdruck. LCDs haben damit im Übrigen keine Probleme. Wer also hoch oben in den Alpen wohnt, ist mit einem LCD-Display besser beraten. Auch hier sind die neuen OLED-Bildschirme etwas anfälliger, was nicht zuletzt auf die hohe Korrosionsanfälligkeit der hochreaktiven Injektionsschicht zurückzuführen ist. Aber auch dies kann und wird sich in den nächsten Jahren ändern.

Gewicht

Wer sich noch an die guten alten Röhrenfernseher erinnert und mit ihnen mehr als einmal umgezogen ist, der weiß, wie schwer ein Fernseher sein kann. Zwar sind die Geräte von heute weitaus größer, dafür aber auch um ein Vielfaches dünner und damit leichter. Dennoch sollte man bei der Wandmontage unbedingt auf eine geeignete Vorrichtung achten.

Stromverbrauch

Bei der Stromaufnahme unterscheiden sich beide Techniken wesentlich voneinander. Klassische LCD-Bildschirme verbrauchen zwar meist weniger Strom, dafür ist der Verbrauch statisch beziehungsweise gleichbleibend. Bei Plasma-TVs hängt der Stromverbrauch von der momentanen Bildhelligkeit ab. Je heller das Bild, desto mehr Energie wird benötigt. Insofern ist die Stromaufnahme hier schwankend, weshalb ein durchschnittlicher Verbrauch nur schwer geschätzt werden kann. Jedoch zählt gerade der Stromverbrauch neben den Herstellungskosten zu den KO-Kriterien für die Plasma-Technologie. Moderne UHD-Geräte verbrauchen allerdings auch immer noch relativ viel Strom - insbesondere bei sehr hellen Bildeinstellungen. Deshalb sind die Werkseinstellungen im Übrigen meistens auf niedrigem Niveau, um die versprochene Energieeffizienzklasse (z.B. A+) realisieren zu können. Grundsätzlich hängt der Stromverbrauch natürlich immer vom individuellen Verbrauchsverhalten ab.

Geräusche

Wer ein sensibles Gehör hat, der ist mit einem LCD-Bildschirm wohl besser beraten. Denn diese können auf Ventilatoren verzichten. Anders die Plasma-Bildschirme – hier sorgte seinerzeit der eingebaute Lüfter dafür, dass diese Technik nicht völlig geräuschlos funktioniert.

Abbildung 371: LED und OLED im Vergleich (LG)

Nach dieser kleinen Übersicht und den praktischen Tipps soll nun aber etwas eingehender erläutert werden, worin die Unterschiede zwischen LCD- und Plasma-Bildschirmen bestehen, weshalb Plasma-Bildschirme von jeher keine Chance auf dem Markt hatten und warum die Zukunft in den aktuellen Displays mit Nanotechnologie liegt.

4K-OLEDs + HDR

Alle großen Hersteller präsentierten auf der IFA 2015 erstmals ihre neuen 4K-OLED-TVs. Und das südkoreanische Unternehmen LG Elektronics stellte seine ersten HDR-tauglichen Fernseher vor. Mit den Modellen 65EF9500, 55EF9500 und 55EG9200 ging LG also gleich mit drei 4K/UHD-HDR-Geräten an den Start. Extra groß, extra dünn und natürlich in absoluter Brillanz. Der LG 55EG9200 misst an seiner dünnsten Stelle sage und schreibe nur 4,8 mm und ist damit dünner als handelsübliche Smartphones. Die EF9500-Baureihe beinhaltet ebenfalls extraflache OLED-Displays mit UHD-Auflösung. Denn OLED und HDR ist die perfekte Kombination für tiefes Schwarz, leuchtende Farben und eindrucksvolle Bildqualität.

Abbildung 372: LG-Modelle 65EF9500, 55EF9500 und 55EG9200 auf der IFA 2015

Und selbstverständlich sind die HDR-fähigen OLED-TVs mit allem ausgestattet, was ein moderner Fernseher haben muss. Die multimedialen Wunderwerke von LG verfügen beispielsweise über die neueste Version der Smart-TV-Plattform webOS. Besitzer eines solchen Gerätes können somit jederzeit auf ihre Lieblingsserien zugreifen, alle Menüs individuell anpassen sowie UHD- und HDR-Inhalte sowohl von Streaming-Content-Partnern als auch von externen Quellen anschauen.

Abbildung 373: Fusion aus Leidenschaft: LG und Harman/Kardon® (lgnewsroom.com)

Und als wenn das noch nicht ausreichend würde, kombiniert LG zu seinem brillanten Bild noch eine Klangqualität auf höchstem Niveau. Kein geringer als Harman/Kardon® stattete die neuen Modelle mit seiner Soundtechnik aus. Der führende Audiohersteller entwickelte die integrierten Lautsprecher speziell für die ultrahochauflösenden OLED-TVs von LG. Aber auch andere Hersteller trumpfen mit gestochen scharfen Bildern und einer nativen Bildauflösung. Bei der IFA 2016 wurden wieder neue Geräte vorgestellt, die Unterschiede zu 2015 sind jedoch marginal. Wer sich als Verbraucher nicht mit den diversen technischen Details befassen möchte, sollte zumindest neben seinem eigenen Eindruck vor Ort insbesondere darauf achten, dass das favorisierte Gerät mit dem Zertifikat der UHD-Alliance ausgestattet ist. Diese und alle wichtigen Informationen zu Ultra HD und HDR sind in den jeweiligen Kapiteln dieses Buches ausführlich beschrieben.

HDR + QLED

Und auch der japanische Multimedia-Riese Sony bestückt zukünftig fast alle 4K-/UHD-TVs mit der neuen HDR-Technologie. Die BRAVIA-Reihe verfügt neben HDR über einen 4K-Prozessor X1 und das berühmte Triluminos Display. Dahinter verbirgt sich heute nichts anders als die Quantum-Dot-Techologie, obwohl im Jahre 2008 Sony unter demselben Markennamen eine optimierte Variante des Edge-LED-Backlights vermarktete. Seinerzeit ging es um eine modernisierte Hintergrundbeleuchtung, die nicht mehr mit herkömmlichen LEDs, sondern mit zwei Edge-LED-Leisten arbeitete, die wiederum mit einer Harzschicht und winzigen Kristallen überzogen waren. Mit der aktuellen QD-Technologie produzieren - wie bei SUHD - diese Quantenpartikel spektralreines Weiß, perfektes Schwarz und natürliche Farben zum Niederknien.

Abbildung 374: neuste Sony-TV-Generation der W905-Serie

Zur Umsetzung der ITU-Empfehlung Rec.2020 im Rahmen der Einführung des UHD-Standards bestand die Herausforderung an die Hersteller von Bildschirmen unter anderem darin, die Display-Technologie grundsätzlich neu zu definieren. Mit herkömmlichen LEDs war es unmöglich, den erweiterten Farbraum (Rec. 2020) darzustellen. Die Idee war nun also, die roten, grünen und blauen Spektralanteile so zu filtern, dass sich hieraus eine höhere Farbtreue und damit sattere und reinere Farben ergeben. Hierzu werden die sogenannten Subpixelfarbfilter mit spektral unverfälschtem Licht beleuchtet. Als hochreine Lichtquelle dienen Quantenpunkte (QD: Quantum Dots).

Und was bewirkt das? Das hochreine weiße Licht der Hintergrundbeleuchtung erweitert den Farbraum der QD-Displays. Blau wirkt blauer und Grün grüner. Insofern bietet unter anderem die neueste TV-Generation aus dem Hause SONY mit der W905-Serie brillante und satte Farben, die sich kaum von einem OLED-Display unterscheiden.

Abbildung 375: HDR-Technologie (www.amazon.de)

Wie Samsung kooperiert auch Sony mit dem bekannten Streaming-Dienst Amazon Video und verschafft sich damit den direkten Zugang zu UHD-Filmmaterial mit HDR-Prädikat. Zudem kündigte Sony für 2015 ein HDR-Update für diverse 4K-/UHD-TVs der Marke BRAVIA an. Dies betrifft vor allem die Modelle der Serien X91C, X90C, X85C und S85C. Mit dem Betriebssystem Android-TV bleiben die modernen Smart-TVs immer auf dem neuesten Stand, indem mithilfe von Software-Updates immer wieder neue Funktion hinzugefügt werden können.

Abgesehen davon sitzen die Besitzer eines Sony-TVs quasi in der ersten Reihe. Denn Sony Pictures Home Entertainment macht über Amazon die ersten hauseigenen Produktionen in HDR-Qualität verfügbar. Dazu gehören unter anderem „The Amazing Spider-Man 2“, „Men in Black 3“, „After Earth“ und „Herz aus Stahl“.

Aber auch Amazon selbst produziert bereits in HDR. Viele hauseigene Produktionen wie „Mozart in the Jungle“ oder „Red Oaks“ sollen zukünftig in HDR verfügbar sein. Weitere „Amazon Originals“ sind in Planung. Außerdem arbeitet Amazon nach eigenen Angaben mit Filmstudios in Hollywood und internationalen Elektronikunternehmen zusammen, um gemeinsam HDR-Serien aber auch Spielfilme zu produzieren. Wer über Amazon HDR-Inhalte streamen möchte, der muss wenigstens über einen UHD-TV mit HDMI 2.0a verfügen, der die Amazon-App für Instant Video unterstützt. Ähnlich wie seinerzeit bei HD werden die entsprechenden Videoangebote seit 2016 mit einem HDR-Logo gekennzeichnet.

Abbildung 376: Das Logo der UHD-Alliance in Bezug auf echtes Ultra HD und HDR

Neben Sony versprechen auch die neuen Geräte der Marke Thomson dank HDR und Quantum-Dot-Technologie einen erhöhten Farbraum gemäß Rec.2020 und somit beste Bildwiedergabe. Nach eigenen Angaben soll der 55 Zoll 4K-UHD-Fernseher (55UA9806) nicht nur bezahlbar sein, sondern darüber hinaus über den breitesten Color-Gamut27-Farbraum verfügen, der aktuell auf dem Markt erhältlich ist und somit dem Vergleich mit LCDs und vor allem OELDs standhalten. Damit gemeint ist der neue Standard gemäß ITU-Empfehlung Rec.2020, mit dem die Darstellung von Farben gelingt, wie sie mit Rec.709 für HDTV noch nicht möglich war.

Gemäß der aktuellen ITU für UHD-1 (4K) beziehungsweise UHD-2 (8K) handelt es sich um einen 10- oder gar 12-Bit-Farbraum und eine entsprechende Farbpalette von bis zu 68 Milliarden Farben. Die vollmundigen Versprechen gründen sich vor allem auf die Aussagen des Entwicklers QD Vision, der seine Color IQ Quantum-Dot-Technologie unter anderem damit bewirbt, dass sie nicht nur spektralrein, sondern abstimmbar und darüber hinaus wirtschaftlich erschwinglich sei.

UHD-Standard für wenig Geld

Denn nicht nur Panasonic, Samsung LG & Co. sind mit der neuen UHD-Technologie in den Regalen der TV-Geschäfte vertreten. Immer mehr chinesische Hersteller erobern den europäischen Markt. Zu den namhaften und in der Volksrepublik führenden Größen der Branche gehört neben Changhong auch Hisense. Und das Klischee, dass vieles nur geklaut und schlecht verarbeitet ist, trifft schon längst nicht mehr auf alles zu, was seit einiger Zeit aus der Heimat von Mao Zedong kommt.

So punktete in 2015 insbesondere Changhong sowohl bei den Verbrauchern als auch bei den Experten mit zwei aktuellen Modellen. Der weltweit agierende Web-Service „alaTest“ aus Schweden nahm im November desselben Jahres beispielsweise das Changhong-Modell UD55YC5500UA unter die Lupe und vergab den sogenannten alaScore™, der auf einen Blick zeigt, wie gut ein Produkt im Vergleich zu anderen bei Experten und Verbrauchern abgeschnitten hat.

Abbildung 377: Changhong Modell UD55YC5500UA/ alaScore™ „sehr gut“

Zusammengefasst und analysiert wurden hier insgesamt 25 Testberichte und Kundenbewertungen. Gelobt wurden vor allem das Design, das Preisleistungsverhältnis sowie die Verarbeitungsqualität. Auch bei den Test-Kriterien Bildqualität, Bedienbarkeit, Größe, Klang und Energieeffizienz schnitt der Changhong-TV überdurchschnittlich gut ab. Mit 89 von 100 Punkten lautete der alaScore™ „sehr gut“. Zu haben ist der UHD-TV von Changhong bisher allerdings nicht in Deutschland. Aber was nicht ist, kann ja noch werden.

Anders verhält es sich mit dem 4K-Smart-TV UHD-55D5000IS aus dem Hause Changhong, der seit 2015 auf dem deutschen Markt zu haben ist. Das 800Hz-Modell mit LED/Edge-Technologie schafft laut Herstellerangaben die volle UHD/4K-Auflösung von 3840x2160 Pixeln, glänzt mit einem 55-Zoll-Display (140 Zentimeter) und verspricht höchste Bildqualität zum kleinen Preis. Bereits für unter 700 Euro (Stand: 2015) gibt es darüber hinaus 3D, Energieklasse A und den räumlichen Mehrkanal-Surround-Sound (SRS HD).

Abbildung 378: 4K-Smart-TV UHD-55D5000IS von Changhong

Es könnte also etwas werden aus dem vollmundigen Umsatzziel, das Changhong Sales Manager Andreas Chin bereits im Mai 2011 gegenüber der Presse verlautbarte. Das Handelsblatt berichtete hierzu am 10.05.2011, dass der bisher in Deutschland gänzlich unbekannte chinesische Elektronikkonzern sich auf die Fahne geschrieben hat, zukünftig fünf Prozent der in Deutschland verkauften Fernseher produzieren zu wollen. Changhong bietet seit seiner Gründung im Jahre 1958 elektronische Geräte sowie Haushaltsgeräte an und ist spätestens seit Ende der 1970er Jahre im asiatischen TV-Segment erfolgreich. Nun setzt das Unternehmen auf sein Werk in Tschechien, die deutschen Händler und niedrige Preise. Schon jetzt wirbt der asiatische TV-Riese für die IFA 2016. Es bleibt also spannend.

Bei der IFA 2015 trat der chinesische Hersteller Hisense hingegen mit aktuellen Modellen an, die durchaus überzeugen – vor allem im Preis. Auch wenn der bereits 1969 gegründete Elektronikkonzern mit Firmensitz in Qingdao (China) in Europa weniger bekannt ist, gehört er doch zu den weltweit führenden TV-Herstellern. Zudem ist Hisense seit kurzem auch in den USA kein unbeschriebenes Blatt mehr. Mit der Übernahme des Amerika-Geschäfts von Sharp stärkte das Unternehmen seine Marktposition auf dem amerikanischen Kontinent quasi über Nacht.

Die seit August 2015 in Deutschland verfügbaren Modelle der K321-Reihe überraschen natürlich durch ihre attraktiven Preise aber auch elegantes Design und praktische Features. Der chinesische Hersteller bietet ein kristallklares UHD-TV-Erlebnis für jede Zimmergröße, denn die neuen Geräte sind in drei verschiedenen Größen zu haben. Die Bildschirme mit Diagonalen von 102 cm/40 Zoll über 126 cm/50 Zoll bis 138 cm/55 Zoll verfügen in der K321-Reihe über die moderne UHD-Technologie und ermöglichen somit ebenfalls mit 3840 x 2160 Bildpunkten und einem 16:9-Format eine beeindruckende Auflösung, die viermal schärfer ist als Full HD.

Abbildung 379: TV-Hersteller aus China: Hisense

Besonderes Highlight: Die Geräte sind allesamt internetfähig und haben integrierte Tuner, sodass sie komplett ohne separate Set-Top-Boxen oder Receiver auskommen. Darüber hinaus lassen sich externe USB-Laufwerke und Blu-ray-Player anschließen, da die Hisense-Geräte mit je zwei HDMI-, einem USB-3.0- und zwei USB-2.0-Anschlüssen ausgestattet sind. Allerdings macht der Hersteller keine Angaben darüber, ob die vier HDMI-Schnittstellen auch HDCP 2.2 unterstützen. Zwei HDMI-Eingänge sollen laut Infoblatt zumindest HDMI-2.0-fähig sein, HEVC und VP9 werden ebenfalls unterstützt. Das Betriebssystem VIDAA lite ermöglicht eine übersichtliche und praktische Smart-TV-Benutzeroberfläche und den mittlerweile schon gängigen Zugriff auf Online-Inhalte, Medienbibliotheken und Video-on-Demand-Dienste (z.B. Netflix). Wer also den naturgemäßen Preisverfall der namhaften Produkte nicht abwarten kann und dafür lieber kleinere Abstriche in Kauf nimmt, der ist mit den preiswerten 4K-Modellen von Hisense nicht wirklich übel beraten.

ULED

Der chinesische Hersteller kann aber auch anders. Für knapp 4000 Euro ist seit Oktober 2015 das Modell 65XT910 aus dem Hause Hisense auf dem Ladentisch. Wer hier nach OLED oder QD sucht, der sucht vergeblich. Hisense bietet ULED-2.0 und damit eine hauseigene LED-Modul-Technik, die ebenfalls auf dem QD-Prinzip basiert und ein ähnlich bemerkenswertes Schwarz zaubert wie OLED-TVs. Denn zur Display-Technologie ULED 2.0 von Hisense gehören ebenfalls Quantum Dots – also kleine Nanokristalle, die das Licht in unfassbar vielen Farben emittieren.

Die innovative Technik sorgt für lebensechte Bilder und einen besonders großen Farbraum von 108 Prozent (NTSC). Mitverantwortlich ist die sogenannte Backlight-Scan-Technik, mit der die LED-Hintergrundbeleuchtung in zwölf Schritten gescannt wird. Hierdurch wird die Lichtspur, die Bewegtbilder mitunter erzeugen, herausgefiltert. Rasante Actionszenen oder Sportübertragungen werden somit hochwertig dargestellt, Bewegungsunschärfen nahezu eliminiert.

Abbildung 380: erhöhter Farbraum mit Hisense-Display-Technologie ULED 2.0

Neben einem tiefen Schwarz werden auch besonders helle Farben leuchtend wiedergegeben. Grund dafür ist neben der bereits erwähnten Technik ein spezielles Smart-Peaking-Verfahren, das eine perfekte Helligkeit zusätzlich unterstützt. Hinzu kommen ein hoher dynamischer Kontrast (1.000.000:1) und natürlich eine 4K/UHD-Auflösung von 3840 x 2160 Pixeln. Darüber hinaus sorgt eine ausgefeilte Local-Dimming-Technik dafür, dass 240 Segmente der LED-Hintergrundbeleuchtung separat gesteuert werden. Damit lassen sich die Backlights individuell dimmen und sogar fast vollständig abschalten. Das Ergebnis ist bemerkenswert. Selbst kleine Falten in schwarzer Kleidung werden sichtbar und wirken damit so naturgetreu wie noch nie.

Auch der Stromverbrauch kann sich sehen lassen, denn die beeindruckende Leistung von Hisenses 65XT910 geht dabei nicht zu Lasten der Umwelt. Obwohl das Modell sehr hell werden kann, benötigt es dafür relativ wenig Energie. Der Stromverbrauch soll im Vergleich zu anderen LED-Modellen mit ähnlich hoher Helligkeitsleistung dafür sogar geringer sein. Außerdem bietet der 65XT910 alle nötigen Anschlüsse (HDMI 2.0, HDCP 2.2 und HEVC-Unterstützung) und damit die notwendigen Standards für 4K-UHD-Inhalte der Zukunft. Mit einer Bildwiederholungsrate von 120 sind 60 Hz kein Problem und 3D-Liebhaber kommen mit einer geeigneten Brille ebenfalls auf ihre Kosten.

Außerdem bietet Hisense sein Prachtstück mit immersiver Krümmung an. Das konkave Display mit einem Krümmungsradius von 4 Metern soll fulminante Panoramaeffekte und eine deutlich verbesserte Tiefenschärfe erzeugen. Der größte Radius, der derzeit bei Curved-TVs angeboten wird, liegt bei 4,2 Metern. Hierzu muss man sich einen gedachten Kreis mit einem Gesamtradius von 8,4 Metern vorstellen. Auf der einen Seite steht der Bildschirm – auf der anderen sitzt der Zuschauer. Wobei dieser streng genommen im Zentrum des gedachten Kreises sitzen müsste, und zwar möglichst still.

Curved-TV

Auch mit der S85-Serie bringt Sony Fernseher auf den Markt, bei denen die Farben wie echt aussehen und auf der breiten Farbskale beispielsweise ein Azurblau erzeugt, das meilenweit entfernt ist von Türkis oder Kobaltblau. Auch das Design kann sich sehen lassen, vor allem für Fans von geschwungenen Displays. Mit Triluminos-Display, 4K-Bildprozessor X1 und entsprechender 4K/UHD-Auflösung hat der Curved-TV von Sony alles drin, was seine geraden Kollegen auch haben.

Abbildung 381: BRAVIA S85C von Sony

Die Schnittstellen entsprechend bei dem BRAVIA S85C im Übrigen dem neuesten Standard. Die HDMI-Anschlüsse unterstützen 4k bei 60Hz und HDCP 2.2. Über MHL ist SmartDevices realisierbar, Screen Mirroring (MiraCast28) und WiFi-Direct sind ebenfalls möglich. Ansonsten müssen jede Menge Updates gezogen werden, bevor das Gerät tatsächlich umfassend funktionstüchtig ist. Aber das kennt man vom PC oder mobilen Endgeräten – warum sollte es bei einem Smart-TV also anders sein.

Mit seinem dezent geschwungenen Modell vereint SONY zugleich Design und Mainstream. Es kann jedenfalls kaum ein Zufall sein, dass der japanische Hersteller die Wölbung des Displays so minimalistisch wie möglich gehalten hat. Curved-TVs stehen schließlich nicht erst seit gestern im Fokus des Technikhypes. Viele Hersteller versprechen immersives Fernsehen und mehr Tiefe in der Bildwahrnehmung. Die Tests sehen weitläufig anders aus, aber dazu später mehr.

Die Biegung bei Sonys Curved-TV aus der 85er Serie verfügt über einen sehr viel dezenteren Radius (Biegung < 4 Meter) als die geschwungenen Konkurrenten von Samsung oder LG. Vielleicht liegt es daran, dass der Bildeindruck hier weniger übertrieben oder gar verzerrt empfunden wird als bei anderen konkaven Displays. Natürlich ist auch bei diesem Gerät eine gewisse Eingewöhnungszeit notwendig, aber von unnatürlich oder eben verzerrt kann hier tatsächlich nicht mehr die Rede sein. Wer sich also einen gebogenen Neuen kaufen möchte, der sollte darauf achten, dass ebenjene Biegung nicht zu stark ausgeprägt ist.

Abbildung 382: Samsung Curved-/UHD-TV (Screenshot: www.samsung.com)

Was ist nun mit den Curved-TVs? Macht die aufwändige Biegung im Display überhaupt Sinn? Seit Jahren laufen hierzu diverse Tests, viele davon sind in Fachzeitschriften und zahlreichen Internetportalen nachlesbar. Natürlich stehen neue Technologien und Designs immer erst einmal auf dem extremen Prüfstand, allerdings könnte am großen Unkenrufen in diesem Fall sogar etwas dran sein. Oder etwa doch nicht? Letztlich entscheidet jeder Verbraucher selbst. Hier soll lediglich zusammenfassend geschildert werden, ob die konkaven Fernseher nun ein besseres Filmerlebnis bescheren oder eben nicht.

Bereits zum Weihnachtsgeschäft 2014 wurden die geschwungenen Modelle nicht nur von Samsung überall in den höchsten Tönen angepriesen. Mittlerweile gibt es entsprechend geschwungene Soundbars (z.B. HW-H7500/ H7501 von Samsung) – Audiosysteme, die sich sowohl optisch als auch akustisch der gewölbten Form der Curved-TVs anpassen sollen. Eine runde Sache?

Hersteller sprechen von einer „ikonischen Designsprache“ und versprechen imposante technologische Vorteile. Während der IFA 2014 wurde von Samsung hierzu ein Test durchgeführt, der zu dem Ergebnis kam, dass die Mehrheit der 120 befragten Messebesucher (79 Prozent) sich eindeutig für den Curved-TV entscheiden würden anstatt für in Auflösung und Bildschärfe vergleichbare Flat-Modelle. Auch die Profis durften im Sommer 2014 das Samsung-Modell UE55HU8590 testen und bescheinigten dem Gerät durchschnittlich sehr gute Qualitätsurteile (Stiftung-Warentest: Note 1,6, Fachzeitschrift Heimkino 1,1). Das Samsung-Modell UE65H8090 erhielt in 2014 von der Heimkino-Redaktion ebenfalls eine überragende Bewertung und die Testnote 1,1).

Abbildung 383: TV-Trend im Weihnachtsgeschäft 2014: Curved-TV (www.samsung.com)

Worin bestehen nun diese Vorteile? Der erste, der im wahrsten Sinne des Wortes ins Auge sticht, ist natürlich die Wölbung selbst. Sie soll unser Sichtfeld erweitern und darüber hinaus die räumliche Wahrnehmung erhöhen. Die Krümmung des Displays entspricht besser der menschlichen Wahrnehmung, da die Bildfläche stets gleich weit von unserem Auge entfernt ist. So weit, so gut. Unser Blickwinkel bleibt gleich, wodurch wir Kontraste besonders in den Randbereichen besser wahrnehmen können. Dadurch verbessert sich die Tiefenwahrnehmung und ein räumlicher Eindruck entsteht.

Abbildung 384: Bildeindruck im Vergleich - Curved-/Flat-TV
(Amazon/www.curved-uhd-tv-test.de)

Wer im Kapitel über das binokulare Sehen unter dem Stichwort „Horopter“ noch einmal nachschlagen möchte, der kann dies jetzt gern tun. Ansonsten soll hier noch einmal kurz erläutert werden, was es mit unserem Gesichtsfeld auf sich hat: Mediziner verstehen hierunter alle zentralen und peripheren Punkte, die vom Menschen visuell wahrgenommen werden können – ohne diese direkt zu fixieren. Bei geradeaus gerichtetem Blick und ruhiger Kopfhaltung beträgt die horizontale Gesamtausdehnung des Gesichtsfeldes (Blickwinkels) ungefähr 180 Grad, vertikal geht man von zirka 60 Grad nach oben und 70 Grad nach unten aus.

Aufgrund der Beschaffenheit und der Sensibilität unserer Netzhautareale reduziert sich das scharfe Sehen zum äußeren Rand dieser Winkel, vor allem in horizontaler Richtung. Eine umfassende Wahrnehmung bewegter Objekte ist also außerhalb von 180 Grad nicht mehr möglich und verringert sich mit sinkendem Betrachtungsabstand. Insofern ist ein geschwungener Bildschirm nur bedingt von Nutzen. Allenthalben dann, wenn man direkt davor sitzt und seine Augen nicht bewegen möchte. Deshalb sind die Eindrücke der Probanden, die höchstwahrscheinlich unmittelbar vor einem solchen Curved-TV gestanden oder gesessen haben, durchaus nachvollziehbar.

Wie sieht nun die Praxis aus? Fernsehgeräte mit Bildschirmdiagonalen jenseits der 42 Zoll (102 bis 107 Zentimeter) sind heute keine Seltenheit mehr. Ganz im Gegenteil! Die aktuellen TVs reichen knapp an die Zwei-Meter-Marke heran. Und jedes Kind weiß, dass man sich nicht direkt vor den Fernseher setzen soll. Diese Erkenntnis stammt zwar noch aus Zeiten der Röhren-TVs, aber mit Ultra HD & Co. macht es ebenfalls überhaupt keinen Sinn, direkt vor der Glotze zu hocken, auch wenn die Pixel hier nicht mehr direkt ins Auge stechen. Die Faustformel für den Betrachtungsabstand lautet: Bildhöhe mal Drei. Das entspricht bei einem 42-Zoller rund zwei Meter, bei größeren Geräten proportional mehr. Insofern sitzt man durchschnittlich – je nach Zimmergröße – zwei bis vier Meter von seinem TV-Gerät entfernt. Der Blickwinkel wird bei diesem Abstand voll ausgeschöpft. Gekrümmte Displays machen insofern nur Sinn, wenn man direkt davor sitzt oder sitzen muss.

Abbildung 385: 27-Zoll-Monitor S27D590C von Samsung (www.amazon.de)

Tatsächlichen Nutzen bringt die Biegung bei Computer-Monitoren, zumal diese auch immer größer werden. Aufgrund der Nähe zum Bildschirm kann das Gesichtsfeld nicht komplett ausgereizt werden, vor allem weil man sich hier regelmäßig auf einen fixen Punkt konzentriert (zum Beispiel beim Schreiben). Für Gamer aber auch für Profis aus der Kreativwirtschaft, die sich mit Bildbearbeitung oder ähnlichem am Computer befassen (z. B. Webdesigner oder Architekten), könnten Curved-Monitore durchaus hilfreich sein. Für den Heimgebrauch ist die geschwungene Oberfläche eines Fernsehgerätes allerdings weniger effektiv, auch wenn sie natürlich schön anzusehen sind.

Und ein ganz klarer Nachteil kommt bei allen gebogenen Displays hinzu: nervige Reflektionen in doppelter Ausführung. Ob die Fachleute der Promotion-Abteilung von Samsung darauf geachtet haben, als das Werbefoto für das Modell UE65H8090 (Abbildung 346) auf die Website gestellt wurde, lässt sich nicht so einfach nachvollziehen. Was aber gelinde gesagt ins Auge sticht, ist die Spiegelung auf der rechten Seite des hier angepriesenen Curved-TV. Wer nun generell in einem winzig kleinen und komplett abgedunkelten Zimmer seine Lieblingsserien oder Filme schaut, dem ist mit einem Curved-TV garantiert geholfen. Wer sich dagegen gern eine Kerze anzündet oder auf die von Augenärzten und TV-Fachleuten empfohlene dezente Zimmerbeleuchtung zurückgreift, der könnte mit einem geschwungenen Display gleich doppelt genervt sein. Denn durch die Biegung potenzieren sich unschöne Reflektionen.

Ambilight

Hier könnte allerdings eine ganz anderes Technologie Abhilfe schaffen: das Ambilight von Philips. Der Pragmatiker könnte nun sagen, eine LED-Leiste aus dem Baumarkt reicht auch aus. Könnte! Richtig. Der Unterschied wäre allerdings ungefähr so groß wie zwischen einer VHS-Kassette und eine 4K-Blu-ray-Disk. Es geht bei Ambilight um weit mehr als nur um die Illusion, dass der Fernseher in der bunten Luft schweben würde.

Die bisher einzigartige Technologie aus dem Hause Philips erzeugt ein Licht, das sich in Echtzeit dem jeweiligen Bildschirminhalt anpasst. Je nachdem, wo das TV-Gerät steht oder hängt, erstrahlt die Wand im Hintergrund, und das TV-Bild wird scheinbar vergrößert. Das ist nicht nur ein komplett anderes Heimkino-Erlebnis, sondern auch noch gut für die Augen. Denn allzu oft sitzen wir beim Fernsehen im Dunkeln, was gerade bei 3D oder rasanten Bildbewegungen sehr schnell auf die „Linse“ gehen kann. Und dabei ist unsere eigene gemeint, die es im Allgemeinen nicht zu kaufen gibt. Wer also unter Augenbeschwerden leidet oder selbige im Zusammenhang mit Vielfernsehen vermeiden möchte, der könnte mit einem Ambilight-Modell von Philips durchaus gut beraten sein.

Abbildung 386: Ambilight-TV von Philips

Vor diesem Hintergrund spielt die optische Bildvergrößerung kaum mehr eine Rolle und beschränkt sich lediglich auf eine angenehme Begleiterscheinung. Zumal Philips bei den angebotenen Diagonalen von 164 Zentimetern (65PUS8601: 65 Zoll) sowie 139 Zentimetern (55PUS8601: 55 Zoll) eigentlich fast darauf verzichten könnte.

Interessant für oben genannten Pragmatiker könnte sein, dass bei der ersten Ambilight-Modellreihe im Jahre 2004 tatsächlich verschiedenfarbige Beleuchtungssysteme an der Rückseite der Geräte angebracht waren. Mit einer separaten Fernbedienung mussten Nutzer seinerzeit noch manuell den Hintergrund in der gewünschten Farbe einstellen. Das entspricht in etwa besagter LED-Leiste aus dem Baumarkt. Doch Philips ist mittlerweile auf einem ganz anderen Niveau angekommen. Die neue Generation der Ambilight-Technologie sorgt mit Zweikanal-Funktion dafür, dass sich das Licht auf der Rückseite des Displays direkt an das Bild anpasst, das vorn gezeigt wird. Dabei kann links eine andere Farbe dargestellt werden als auf der rechten Seite. Bei Fußball-Übertragungen wird so ein Teil des Wohnzimmers zum grünen Rasen im Stadion.

Im Übrigen gibt es für Tüftler eine gute Nachricht: Mit Atmolight, dem Open-Source-Lichtprogramm „PC Dimmer“ und LED-Scheinwerfern lassen sich beispielsweise Computermonitore relativ leicht mit Ambilight nachrüsten. Alles nur Schnickschnack? Kann sein, aber die Ambilight-Modelle von Philips können natürlich noch viel mehr, als nur schön bunt auszusehen.

Abbildung 387: Modell 65PUS8601 von Philips mit Ambilight

Die auf der IFA 2015 vorgestellten Philips-Geräte verfügen neben dem 4-seitigen Ambilight auch über das leistungsstarke Betriebssystem Android-TV. Und ganz klar beeindrucken die TVs der 8601er Serie durch knallscharfe 4K/UHD-Bilder und einen ausgezeichneten Klang. Dem Designteam von Philips ist nämlich nicht nur eine wunderschön schlanke und leuchtende Silhouette in bester europäischer Verarbeitungsqualität gelungen, sondern zudem die Möglichkeit, auf dezente Weise gleich 18 Lautsprecher mit 16 Mikrotreibern und zwei Neodymium-Subwoofern zu integrieren. Und diese machen nicht einfach nur Krach. Die Lautsprecher sind hauchdünne 17 Millimeter dick und befinden sich in eleganten Soundstäben aus poliertem Chrom, die beidseitig am TV angebracht und sogar abnehmbar sind. Warum? Weil die passende Ständer (PTA860) gleich mitgeliefert werden und somit eine Platzierung der Soundstäbe im richtigen Abstand zum TV möglich ist, was den Stereoeffekt natürlich erhöht.

Abbildung 388: Schema der Soundbar mit Standfüßen für TVs der 8601er Serie von Philips

Und dabei funktionieren die abnehmbaren Lautsprecher ganz ohne Kabel. Funktionalität und Schönheit vereinen sich also auch hier. Und mehr noch: DTS Premium High-End Soundprocessings sorgen für qualitativ hochwertigen Soundgenuss ohne Übersteuern und Verzerrungen oder anderen Störungen – selbst bei hohen Pegeln.

Aber natürlich bietet Philips mit modernsten Bildverarbeitungstechnologien besonders scharfe und detailreiche Bilder mit Echtheitsgefühl. Grund dafür ist unter anderem das BrightPro-System, mit dem weiße Bildbereiche besonders hell wiedergegeben werden können, während dunkle Bereiche tiefschwarz bleiben. Mit der Ultra-Resolution-Technologie wird jede Videoquelle optimal auf UHD-Auflösung hochskaliert, wobei Quellen mit schlechter Qualität eine zusätzliche Rauschreduktion erfahren. Kurzum: das elegante und zudem ultrahochauflösende Model von Philips überzeugt sowohl durch seine hochwertige Qualität in Ton und Bild als auch durch seine superdünne Form.

Extra dünn

Wer kann beim Anblick dieser schmalen TV-Modelle auch nur eine Träne den alten Röhrenfernsehern nachweinen? Gut, die TV-Zeitschrift, das Häkeldeckchen und die Fernbedienung passen nun definitiv nicht mehr oben drauf. Aber mal ehrlich: Das selbstgemachte Weihnachtsgeschenk von Erbtante Heidi findet auch woanders seinen Platz, die Fernbedienung auf dem Fernseher macht ungefähr so viel Sinn wie die Butter auf dem Toaster und die TV-Zeitschrift kann schon allein der Umwelt zuliebe zukünftig digital gelesen werden. Schließlich ist im multimedialen Schmuckstück von Sony alles drin, was nötig ist … und noch einiges mehr.

Abbildung 389: S85- und X90 UHD-TV-Serie von Sony

Die Japaner können nicht nur ultra high und high range, sondern auch ultra slim. Das einzige, was hier noch Mittelmaß hat, ist der Preis. Sony bringt 2015 besonders schlanke Geräte der S85- und X90-UHD-TV-Serie auf den deutschen Markt, die bereits für durchschnittlich 3000 Euro zu haben sind. Natürlich sind herkömmliche Smart-TVs weitaus preiswerter, aber Qualität hat nun einmal ihren Preis. Und davon gibt es beispielsweise in der X90C-Serie jede Menge. Sony selbst bewirbt die BRAVIA-X90C-Modelle als ultradünne Design-Ikonen und übertreibt damit keineswegs.

Denn es sind die dünnsten 4K-TVs, die Sony bisher zu bieten hat. Dabei ist die Premium 2.1 Multiroom-Soundbar HT-NT3 fast genauso schmal wie der X90C-Fernseher. Und mit „schmal“ sind gerade einmal 4,0 Millimeter gemeint. Dreh- und Angelpunkt im BRAVIA X90C ist hingegen der X1-Prozessor, der exklusiv für die Sony-4K-Displays entwickelt wurde. Der kleine Mikrochip analysiert das empfangene Videomaterial, gleicht es mit einer speziellen Bilddatenbank ab und optimiert quasi jeden einzelnen Pixel auf 4K-Qualität.

Die 4K-Bildverarbeitungstechnologie von Sony nutzt dabei verschiedene Verfahren, da naturgemäß HDTV-Signale anders aufgearbeitet werden müssen als beispielsweise Filmklassiker oder aber 4K-Videos aus dem aktuellen VoD-Angebot. Darüber hinaus verspricht Sony nach eigenen Angaben ein Schwarz, das wirklich schwarz ist, und ein Weiß, das so rein strahlt wie in der Realität. Allerdings hört der Spaß bei echter HDR-Qualität auf. Die ist erst mit dem Sony-Topmodell KD-75X9405C aus der X94C-Serie zu haben – mit deutlich dickerem Design und Preis.

Abbildung 390: Upscaling mit Sonys 4K-Processor X1 (www.co.uk)

Alle BRAVIA-Geräte sind im Übrigen mit Android-TV ausgestattet - also mit dem meist verbreiteten Betriebssystem der Welt. In der 2015er Version gibt es mittlerweile alles, was auf dem Smartphone oder Tablet auch geht – außer vielleicht das Telefonieren selbst. Und die intuitive Benutzeroberfläche, die sich merkt, was zuletzt geklickt wurde und zudem auch Vorschläge macht, gibt es sozusagen gratis dazu. Außerdem können Nutzer sich auf eine Spracherkennung freuen, die zeitraubendes Klicken und Navigieren erspart. Und natürlich macht der Google PlayStore eine Erweiterung der Apps möglich. Wie bei allen Smart-TVs und mobilen Endgeräten sind Software-Updates wichtig, um immer auf dem neuesten Stand zu bleiben. Auf der deutschen Internetseite von Sony stehen hierzu weitere Informationen unter dem Stichwort „Support“ zur Verfügung.

Ebenfalls ultra-dünn, ultra-smart und ultra-groß ist der Sony X91C. Bei einer Bildschirmdiagonale von fast zwei Metern (189,3 Zentimetern/75 Zoll) ist dieser XXL-UHD-TV gerade einmal so dick beziehungsweise so dünn wie ein Daumen, genauer gesagt 1,5 Zentimeter. Neben dem eleganten Design wartet Sony auch hier mit erstklassigen Bildverarbeitungstechnologien und Android-TV auf. Der leistungsstarke 4K-Prozessor X1 garantiert gemeinsam mit dem Triluminos-Display Bildschärfe und Detailgenauigkeit auf Topniveau, das allerdings seinen Preis hat. Den Sony X91C gibt es im Herbst 2015 für 5.999,00 Euro und ist damit nicht zwingend in der Schnäppchenabteilung zu finden. Aber erfahrungsgemäß dauert es nicht lange, bis die Preise purzeln. Wer clever ist, kauft erst nach Weihnachten oder der nächsten Messe.

Abbildung 391: Sony X91C UHD-TV mit hochwertiger Upscaling-Technologie

Auch wenn bekanntermaßen die inneren Werte zählen, überzeugt der X91C auch von außen. So kann er beispielsweise dank der neuen Edge-Coating-Technologie fast vollständig auf einen Rahmen und unnötige Fugen verzichten. Nahezu randlos kann somit nichts mehr vom ultrascharfen Bild ablenken. Abgesehen davon passt der UHD-Gigant damit perfekt an jede Wand, sofern die Fläche vorhanden ist. Sony liefert die Wandhalterung sogar mit. Mehr geht nun wirklich nicht mehr. Oder doch?

Wenn ein Fernseher einen Wow-Effekt auslöst, dann ist es der KD-65X9005C, der nicht umsonst als Europas bester Design-Fernseher gehandelt wird. Der 65-Zoller misst an seiner schmalsten Stelle nur dünne 4,9 Millimeter und überzeugt so durch sein superflaches Design. Auch hier wird das nötige Material zur Wandmontage gleich mitgeliefert. Dank des vertikalen Airflow-Systems von Sony schmiegt sich das Schmuckstück perfekt an fast jede Wand. Doch von einem schönen Teller wird man bekanntermaßen nicht satt. Was steckt also drin?

Neben den üblichen Features eines qualitativ hochwertigen Smart-TVs aus dem Hause Sony ist der schöne 65X9005C-Bildschirm mit der Triluminos-Displaytechnologie ausgestattet und garantiert somit perfekte 4K/UHD-Bildqualität. Darüber hinaus bietet der 905C eine 800Hz-Bildwiederholfrequenz (interpoliert), einen dynamischen Kontrast mit Werten von 1.000.000:1, alle üblichen TV-Tuner (DVB-T/-T2/-C/-S/-S2) und 3D, Dolby Digital Plus und Energieeffizienzklasse A.

Abbildung 392: Sony KD-65X9005C - Europas bester Design-Fernseher

Streng genommen ähnelt das TV-Shopping heute immer mehr der Kaffee-Bestellung bei Starbucks & Co. Nur dass man sich hier nicht für Cappuchino, Flat White, Chocolate Mocha, Caffé Latte, Caramel Macchiato, Espresso Con Panna, Caffé Americano, Kakao Cappuchino oder Flavored Latte entscheiden muss. Früher war eine Tasse Kaffee entweder schwarz, weiß oder bunt. Niemand fragte, ob das Heißgetränk mit oder ohne Koffein, fettarmer oder laktosefreier Milch, einer weißen Zutat aus Hafer oder doch lieber Soja serviert werden soll. Geschweige denn, dass zig verschiedene Größen zur Auswahl standen und darüber hinaus noch diverse Zusatzangebote in Form von Frappuchinos, Shakes, Teesorten und Gebäck die Kundschaft komplett überforderten. Wer also beim Coffee to go oder auch im Fastfood-Restaurant bisweilen die Nerven verliert, der kann sich in punkto TV-Vielfalt eigentlich schon fast wieder zurücklehnen.

HD, Full HD, UHD, SUHD, QD, OLED, ULED, geschwungen oder flach, extra dünn, mit oder ohne Hintergrundbeleuchtung … ist doch alles halb so wild. Für alle, denen jetzt der Kopf schwirrt, sei gesagt: halten Sie es am besten wie bei Ihren Schuhen. Was einmal passt, kann auch neu gekauft werden. Bleiben Sie einfach bei der Marke, mit der Sie bereits gute Erfahrung gemacht haben und mit der Sie sich auskennen. Für all jene, die experimentierfreudig sind und Spaß am Ausprobieren haben, steht eine noch nie dagewesene Palette zur Verfügung. Wenn also nicht allein der Preis oder die Gewohnheit entscheidet, dann lassen Sie sich doch einfach Zeit und genießen Sie eine versierte Beratung bei einem professionellen Händler Ihrer Wahl. Denn eines ist sicher: Bei so vielen Modellen findet garantiert jeder das passende für seine Ansprüche und finanziellen Möglichkeiten.

Und wer jetzt noch nicht genug hat, auf den warten in den nächsten Kapiteln noch einige Liebhaberstücke, technische Neuheiten und wissenswerte Informationen in Bezug auf das Video-Equipment.

Video-Equipment

Denn nicht nur die TV-Geräte entwickeln sich mit rasanter Geschwindigkeit. Auch das Zubehör kann sich gegen den technischen Fortschritt nicht wehren. Wie auch? Schließlich sind bestimmte Hardwarekomponenten unverzichtbar für ein umfassendes Heimkino-Erlebnis. An vorderster Front stehen hier natürlich die 4K-Blu-ray-Player. Solange die Programmanstalten ihr TV-Signal wenn überhaupt in HD übertragen, ist mit dem exklusivsten UHD-HDR-Fernseher noch kein 4K-Genuss möglich. In diesem Zusammenhang ist natürlich auch auf die richtigen HDMI-Schnittstellen zu achten. Die Standards bauen hier aufeinander auf und sind nur in einer Richtung kompatibel, nämlich ausschließlich in die vermeintlich falsche.

UHD-Standards bei Schnittstellen

Beginnen wir also mit den Schnittstellen. Auch wenn mit WLAN oder Bluetooth viele Geräte heutzutage ohne die unschönen und vor allem störenden Kabel auskommen, ist doch wahre Perfektion nach wie vor nur über das Kabel möglich. Außerdem ist bei bestimmten Geräten (z.B. Blu-ray-Player) eine leitungsfreie Alternative bisher nicht vorhanden. Hinzu kommt, dass diverse TV-Geräte Updates anbieten, mit denen der Fernseher technische Erweiterungen kostenlos erhält. Insofern ist es mehr als clever, beim TV-Shopping darauf zu achten, dass das neue Familienmitglied auch tatsächlich bereit für die Zukunft ist. Denn was nützt der Erwerb eines teuren Gerätes, wenn es in einem Jahr schon so veraltet ist, dass kommende Standards gar nicht mehr unterstützt werden und man buchstäblich in die Röhre guckt.

Nun könnte man meinen, dass es nicht so schwer sein kann, ein paar Kabel beziehungsweise Stecker zu kaufen. Abgesehen davon, dass moderne TV-Geräte doch von Hause aus über den entsprechenden Standard verfügen sollten. Aber weit gefehlt! Es lauern jede Menge Fallen – insbesondere in Bezug auf die Ausstattung der HDMI-Eingänge.

Während man früher den neuen Fernseher mit dem alten DVD-Player über das ebenfalls gebrauchte Scart-Kabel verbinden konnte, ist es heute doch etwas komplizierter. Das fängt damit an, dass HDMI nicht gleich HDMI ist. Und selbst wenn vom Hersteller oder Verkäufer der Standard 2.0 ausgewiesen wird, heißt das noch lange nicht, dass auch das drin steckt, was tatsächlich zukunftsorientiert ist. Und das ist im Kurzen und Ganzen: HDCP 2.2 bei 10/12 Bit/Deep-Color mit 50/60Hz bis hoch zur Verarbeitung von Signalen mit einer Farbunterabtastung bis YCbCr 4:4:4, MHL und der Unterstützung von H.265/HEVC-Codec. Dabei ist es relativ egal, ob auf dem Hochglanzprospekt des Herstellers nun HDMI 2.0 steht oder eben nicht. Außerdem wird in den Beschreibungen der UHD-Geräte meist keine detaillierte Auskunft darüber gegeben, was die HDMI-Anschlüsse und die jeweils unterstützten Standards anbelangt.

Auch die Verkäufer in den Multimedia-Discountern sind nicht immer so gut geschult, wie man es erwarten könnte. Deshalb ist Vertrauen ganz gut, aber Kontrolle eben besser. Maßgeblich entscheidend ist deshalb letztlich nur das, was auf der Rückseite des neuen Schmuckstücks zu finden ist oder aber in der entsprechenden Bedienungsanleitung geschrieben steht.

Abbildung 393: Schema für HDMI-Schnittstellen und -Standards

Bevor man nun aber im TV-Geschäft jeden einzelnen Fernseher umdreht oder stundenlang die Kartons in den Regalen sortiert, um an die entsprechenden Informationen zu kommen, könnte man sich auch einfach im Internet die jeweilige Bedienungsanleitung im Supportbereich des Herstellers herunterladen. Hier wird in den meisten Fällen beschrieben, was die einzelnen HDMI-Eingänge für Standards verarbeiten können.

Die fehlende Angabe der HDMI-Version könnte man aber auch positiv bewerten und zu dem Schluss kommen, dass letztlich das Erscheinungsjahr der Geräte darüber Auskunft gibt, welche HDMI-Version verbaut ist. Mit HDMI 2.0a ist die letzte Version im April 2015 verabschiedet worden; Geräte von Anfang 2015 müssen deshalb nicht zwangsläufig HDMI 2.0 oder 2.0a unterstützen.Wer hingegen ein Gerät besitzt, das im Jahre 2014 oder früher auf den Markt gekommen ist, kann sich die Recherche sparen. Fast alle UHD-Fernseher und andere Multimediageräte aus dieser Zeit sind definitiv veraltet und für die neuen Standards nicht kompatibel. Es sei denn, man besitzt ein Gerät mit einer verbauten One-Connect-Schnittstelle, wie dies beispielsweise bei manchen Samsung-TVs der Fall ist. Hier kann im Hardware-Bereich tatsächlich nachgerüstet werden. In jedem Fall lohnt sich eine Anfrage beim Hersteller oder das Klicken in die FAQ-Liste der entsprechenden Internetseite.

Abbildung 394: One-Connect-Schnittstelle von Samsung

Dagegen sind die 2015er UHD-Modelle der meisten Hersteller mit den kompatiblen HDMI-Eingängen ausgestattet, die Standards wie HDCP 2.2 und H.265 unterstützen. Damit können die 2015/2016 erscheinenden UHD/4K-Blu-ray-Player problemlos angeschlossen und echte 4K-UHD-Qualität genossen werden. Weitere Hinweise finden sich übrigens auch im Kapitel „Schnittstellen (Interfaces)“ im Abschnitt über die Grundlagen des Digitalfernsehens in diesem Buch.

4K/UHD-Blu-ray-Player + HDR

Denn mit echter 4K-UHD-Qualität sind längst nicht die Modelle gemeint, die seit 2014 auf dem Markt erhältlich sind. Hierbei handelt es sich lediglich um Full-HD-Player – auch wenn sie mit 4K beworben werden, weil sie das 1080p-Full-HD-Bild von einer Blu-ray hochskalieren und gleichfalls in UHD-Auflösung ausgeben können. Und es liegt in der Natur der Sache, dass ebenjene Player zu den kommenden Filmen in echter 4K/UHD-Qualität nicht kompatibel sind. Denn wie bereits erwähnt, ist nur eine Abwärtskompatibilität möglich. Man kann sich schließlich die Haare auch nur abschneiden, aber nicht wieder ankleben. Jedenfalls im Allgemeinen. Der technische Hintergrund liegt unter anderen darin, dass das zukünftige Videomaterial in UHD auf 66 GB (Dual Layer) oder 100 GB (Triple Layer) Medien gespeichert wird. Dafür sind herkömmliche Blu-ray-Disk und entsprechende Full-HD-Player gar nicht ausgerichtet. Die Blu-ray Disc Association (BDA) hat erst im August 2015 mit der Lizensierung des UHD-Formates für Blu-ray begonnen. Die Spezifikation beinhaltet neben der Speicherkapazität bis 100 GB auch die Möglichkeit, mit authentifizierten Geräten Filmdaten kopieren und im heimischen Netzwerk bereitstellen zu können. Selbstredend sind Features wie HDR, HDCP 2.2 und der neue HEVC-Codec ebenfalls mit dabei.

Insofern kann nur ein HDMI-Eingang mit HDCP 2.2 für den ab 2015 erworbenen UHD/4K Blu-ray-Player genutzt werden. Erst dann können die Signale mit dem Standard (3.840 x 2.160 Pixel bei 24 Hz bis hoch zu 60 Hz und mindestens 8 Bit mit YCbCr 4:2:0 Farbunterabtastung) problemlos verarbeitet werden. Im Übrigen auch dann, wenn dieser HDMI-Eingang tatsächlich nur 8 Bit und eine Farbunterabtastung von YCbCr 4:2:0 zulässt. Denn die UHD/4K-Blu-ray-Player werden die UHD-Bildausgabe ebenfalls mit 8 Bit unterstützen, auch wenn die entsprechenden Filme mit 10 Bit auf den neuen größeren Blu-ray-Medien gespeichert sein sollten. Wie gesagt: abwärtskompatibel zu Full HD ist in diesem Fall immer möglich. Einen kleinen Überblick über die genannten Fakten bringt die folgende Abbildung.

Auflösung

Bildrate (Hz)

Farbtiefe/Chroma-Abtastrate

8 Bit

10 Bit

12 Bit

3840 x 2160p

4096 x 2160p

50.00

59.94

60.00

YCbCr 4:2:0

YCbCr 4:2:01

YCbCr 4:2:21

YCbCr 4:4:41

--

--

RGB 4:4:41

--

--

1wird nur bei einem HDMI3-Anschluss unterstützt

Form27

Abbildung 395: unterstütztes Format 4K bei 50/60 Hz bei HDMI 2.0 mit HDCP 2.2 und H.265/HEVC(LG Electronics Bedienungsanleitung)

Doch auch hier kann man sagen, dass das Essen nie so heiß gegessen wird, wie es gekocht wurde. Oder anders: Wenn der HDMI-Eingang nur 8 Bit anstatt 10 Bit unterstützt, ist der Unterschied in der Bildqualität quasi mit der Lupe zu suchen. Wer sich mit Full HD zufrieden gibt, braucht sich überhaupt keine Sorgen zu machen, denn das schafft sogar HDMI 1.0.

Was ist nun aber mit den 4K/UHD-Blu-ray-Playern der nächsten Generation? Was zu Beginn des Jahres 2015 noch vollmundig von den Herstellern versprochen wurde, kam schleppend auf den europäischen Markt. Wenn man sich die Preise anschaut, könnte man sich vom Weihnachtsmann auch etwas anderes wünschen. Die neuen Player könnten somit nur etwas für absolute Heimkinoenthusiasten sein, die auf das Streaming-Angebot nicht zurückgreifen wollen.

Abbildung 396: neues Logo für Blu-ray in Ultra HD

Blu-ray in 4K/UHD-Qualität ist nicht billig zu haben. Player kosten um die 500 Euro, die entsprechenden Disks sage und schreibe zwischen 40 und 50 Euro. Massenmarkt sieht irgendwie anders aus. Und wer glaubt, dass Blu-ray-Discs mit dem Aufdruck "Mastered in 4K" über eine native UHD-Auflösung verfügen, der irrt gewaltig. Auch wenn die Discs mit 4K-Auflösung im Studio erstellt wurden, enthalten die 2014er Modelle tatsächlich nur Full HD. Was „richtiges“ Blu-ray anbelangt, halten sich die Filmproduzenten im Herbst 2015 dezent im Hintergrund. Twentieth Century Fox Home Entertainment möchte aktuelle Movies erst auf UHD-Blu-ray herausbringen, wenn auch die entsprechenden Player verfügbar sind.

Ein Schelm ist, wer hier Böses denkt. Aber mal ehrlich: Ist das nun Taktik oder aber verlassen die Ratten so langsam das sinkende Schiff? Auf der IFA 2015 stellten Hersteller wie Panasonic oder Samsung erste lauffähige Geräte (z.B. UBD-K8500) vor. Von Herzblut oder gar Enthusiasmus war allerdings keine Spur. Grund dafür ist nicht zuletzt der stark eingebrochene Markt und die stetig rückläufigen Verkaufszahlen in punkto Blu-ray. Im September 2015 wurde während der IFA bereits hinter vorgehaltener Hand laut geflüstert, dass selbst die Hersteller kaum noch an den Erfolg eines UHD-fähigen Mediums in Form von Blu-ray glauben. Insofern sind die recht lieblosen Offerten in diesem Produktbereich mehr als nachvollziehbar.

Und die Konkurrenz schläft nicht. Welchem Nutzer ist es zu verübeln, wenn er angesichts der preiswerten Vielfalt an VoD-Angeboten die Blockbuster lieber gemütlich streamt als umständlich und teuer als Hard-Disk zu kaufen? Abgesehen davon reicht bei dem Überangebot an Filmen auch irgendwann der Platz im Regal nicht mehr aus. Und die Umwelt freut sich ebenfalls über den Trend zur Online-Videothek.

Allerdings bleibt hier das Problem, dass nicht jeder über eine „fette“ Internetleitung verfügt und das Datenvolumen mit einigen Videos schnell aufgebraucht sein könnte. Abhilfe könnten natürlich auch die ersten UHD-Sender schaffen, die über Satellit zum Teil frei empfangen werden können. Allerdings lässt sich über die intellektuelle Qualität der Inhalte von "Fashion 4K", "UHD1" und "Pearl.TV 4K" auch prima streiten. Insofern sollen im Folgenden zumindest einige Geräte vorgestellt werden, die mit dem neuen Logo „UHD“ versehen sind.

Als erstes Gerät sei hier das Modell UBD-K8500 der Firma Samsung erwähnt, das sehr minimalistisch designt ist. Ein Display sucht man hier vergeblich, aber vielleicht gehört der Anspruch, zumindest die aktuelle Spielzeit auf einen Blick ablesen zu wollen, auch ins Antiquariat. Die Silhouette ist genauso gebogen wie viele Curved-TVs der Marke. Über den Sinn kann gerne philosophiert werden. Ansonsten entspricht der 4K/UHD-Blu-ray-Player den nötigen Standards, unterstützt also erweiterte Farbräume, HDR und Bildraten bis zu 60p. Die üblichen und oben genannten Voraussetzungen in Bezug auf die HDMI-Anschlüsse treffen hier natürlich genauso zu, ebenso wie die Abwärtskompatibilität – also das problemlose Abspielen von herkömmlichen Blu-ray-Disks und sogar DVDs.

Bei den Audio-Formaten hat sich im Übrigen generell etwas geändert. Der neue Blu-ray-Standard umfasst zusätzlich auch DTS:X und Dolby Atmos. Darüber hinaus kommt der Ton nicht mehr ausschließlich über den TV beziehungsweise angeschlossenen AV-Receiver, sondern kann mithilfe der sogenannten "Digital Bridge" auch über den Player via Bluetooth an diverse mobile Endgeräte drahtlos übertragen werden. Das Schlagwort 3D kommt bei Samsung überhaupt nicht mehr vor und wurde wohl auch nicht spezifiziert. Auch das ist ein Indiz, dass die dreidimensionale Variante mit UHD ausläuft.

Neben Samsung stellte auch Panasonic seinen neuen Blu-ray-Player auf der IFA 2015 vor. Der neue DMP-BDT570 gehört natürlich zur Kategorie der High-End-Player und bildet eine Art Fusion zwischen dem mehrfach ausgezeichneten DMP-BDT500 und dem Modell BDT700. Für 3D-Fans sind hier allerdings die entsprechenden Features noch enthalten – inklusive 2D/3D-Konvertierung.

Dank seines Dual-Core-Prozessors ist das Hochskalieren auf 4K-Qualität für den Neuen aus dem Hause Panasonic kein Problem. Zum Originalbild in Full HD werden durch die modernste Technologie Millionen zusätzlicher Pixel künstlich erzeugt, was für mehr Schärfe und Detaildichte sorgt. Das sogenannte „4K Direct Chroma Up Conversion“ ist verantwortlich für präzise Farb- und Helligkeitswerte und damit für hochwertigen 4K/UHD-Filmgenuss. Ob über Speicherkarte oder den USB-2.0-Highspeedport im Frontpanel können auch ultrahochauflösende Fotos im JEPG-Format beziehungsweise Videodateien von externen Speichern wiedergegeben werden.

Abbildung 397: High-End Blu-ray-Player DMP-BDT570 von Panasonic

Und auch die Audioqualität ist bemerkenswert, die durch High-Performance-Audio-Komponenten realisiert wird. Hierzu gehören der 192kHz/32bit DAC (x4), ein analoger 7.1-Analogausgang aber auch ein zweiter HDMI-Ausgang, der ausschließlich für Audiosignalübertragungen genutzt werden kann.

Natürlich ist der DMP-BDT570 von Panasonic internetfähig und verfügt über DLNA-Funktionalität, um hochauflösende Soundformate (z.B. FLAC-, WAV, ALAC- oder DSD-Dateien) direkt im Heimnetzwerk abzuspielen. Darüber hinaus kann via Miracast der Displayinhalt von mobilen Endgeräten auf den Fernsehbildschirm gebracht werden. Es ist also alles drin, was modere Unterhaltungselektronik ausmacht. Im Gegensatz zu Samsung ist der Panasonic DMP-BDT570 mit Aluminium Frontpanel Ende 2015 für nur 399 Euro auf dem Markt erhältlich und damit fast ein Schnäppchen.

Blu-ray vs. Streaming (4K/HDR)

Im Frühjahr 2016 brachten unter anderem Panasonic und Samsung Neuauflagen Ihrer 4K-Blu-ray-Player auf den Markt. Über die Preise gibt es nicht mehr viel zu sagen: Sie sind hoch und halten in Verbindung mit dem spärlichen und vor allem teuren Angebot an Blu-ray-Discs (durchschnittlich 30 Euro) kaum einem Vergleich mit dem immer beliebter werdenden Streaming kaum stand. Panasonic verlangt für sein aktuelles Modell DMP-UB900 stolze 799 Euro, Samsung für seinen 4K-BD-Player UBD-K8500 immerhin „nur“ 499 Euro.

Hinzu kommen einige Tücken im Rahmen der Wiedergabe von 4K-Blu-ray-Discs. TV-Modelle aus 2015 stoßen hier trotz HDR-Unterstützung oftmals an ihre Grenzen. Der Grund: Helligkeitswerte und Farbumfang passen nicht zwangsläufig zu den Anforderungen der neuen 4K-Blu-ray-Discs. Verblasste oder aber überzogene Darstellungen sind die Konsequenz, da die automatische Farbzuweisung noch nicht realisiert werden kann. Näheres hierzu findet sich im Kapitel „BT.2020: Der lange Weg zum erweiterten Farbraum“ in diesem Buch.

Hinzu kommt die Tatsache, dass Filme nicht selten in 2K gemastert werden und dann auf 4K hochskaliert werden. Die Auflösung lässt also bisweilen zu wünschen übrig. Einzig und allein der HDR-Effekt kann sich sehen lassen, auch wenn dieser in den wenigsten Geräten bisher sauber umgesetzt werden kann (Stand: 2016). Insofern kann man sich einen neuen Blu-ray-Player und die entsprechenden Discs kaufen, muss es aber nicht. Das VoD-Angebot ist um ein Vielfaches umfangreicher und Streaming-Boxen gibt es weitaus preiswerter zu haben als BD-Player in Ultra HD/4K plus HDR. Der Haken hier ist – wie bereits mehrfach beschrieben – die nicht überall verfügbare Bandbreite und der damit verbundene Mangel an Datenvolumen, welches für einen 4K/HDR-Stream nun einmal erforderlich ist.

Tuner/Receiver & Co.

Im Bereich der Anschüsse sollte vor dem Kauf ebenfalls geprüft werden, inwieweit die eingebauten Empfangstuner UHD-praktikabel sind. Für die eingehenden SAT- oder Kabelsignale der Zukunft müssen die TV-Geräte 50Hz/60Hz unterstützen und mit dem H.265/HEVC-Codec ausgestattet sein, natürlich bei einer Auflösung von 3.840 x 2.160 Bildpunkten. Wünschenswert ist darüber hinaus die Unterstützung des HD-fähigen DVB-T2 Standards. Auch wenn sich das TV-Programmangebot in UHD-Qualität bisher (Stand: 2016) auf den Demokanal "Astra Ultra HD" und einige wenige andere beschränkt, wird es nicht mehr allzu lange dauern, bis auch die klassischen TV-Sender ihre Signale zumindest teilweise in UHV ausstrahlen. Wer sich also einen neuen Fernseher zulegt, sollte auf die zukunftsfähigen Standards achten. Die meisten Hersteller sind mit ihren aktuellen Modellen für die nahe Zukunft bestens gerüstet, sogenannte Triple-Tuner für alle Empfangswege (Antenne, Satellit und Kabel) stellen also keine Seltenheit mehr dar.

Integrierte Tuner

Wer Platz und Geld sparen möchte, entscheidet sich am besten für einen integrierten Tuner, bestenfalls für die Dreifachvariante (Triple). In modernen Fernsehgeräten ist sowohl der Anschluss für DVB-T als auch für DVB-S und DVB-C enthalten. Hierbei sollte darauf geachtet werden, dass der Neue auch tatsächlich die aktuellen Standards DVB-S2 und DVB-T2 unterstützt und darüber hinaus über entsprechende Einschübe (Slots) für HD-Karten sowie Pay-TV verfügt – falls man diese denn nutzen möchte.

Abbildung 398: Beispiel für Triple-Tuner inklusive DVB-T2

Klarer Vorteil ist bei integrierten TV-Tunern neben den Finanzen auch die Platzersparnis. Man hat also keine zweite Kiste herumstehen und benötigt auch keine weitere Fernbedienung. Wer beispielsweise gleichzeitig deutsches und ausländisches Fernsehen via Satellit empfangen möchte, der muss besonders darauf achten, dass der Fernseher über einen Twin-Tuner verfügt – also zwei LNB (Twin = zwei) für den parallelen Empfang von zwei verschiedenen Satelliten.

Auch bei Kabel- oder Antennenempfang kann ein solcher Twin-Tuner Sinn machen. Denn hier ist es möglich, eine TV-Sendung aufzunehmen, während man sich die andere gerade anschaut. Wer allerdings ausschließlich einen Übertragungsweg für das TV-Signal favorisiert beziehungsweise als Vertragskunde von Telekom, Vodafone, Sky & Co. einen separaten Receiver bereits sein Eigen nennt, der kann beim Neukauf eines Fernsehgerätes natürlich auf die eingebauten Triple- oder Twin-Tunter verzichten. Wer sich hingegen gerade für einen wunderschönen Fernseher entschieden hat, beim TV-Empfang lieber flexibel bleiben möchte und deshalb lieber in punkto Tuner nachrüsten will, der sollte einen Blick auf die externen Tuner werfen.

Externe Tuner

Hier bietet beispielsweise die Firma TechniSat seit 2015 mit ihrem Modell DIGIT ISIO STC+ einen SAT-Receiver mit UHD-Qualität und integriertem 3-fach-TwinTuner. Diese Hybrid-Variante unterstützt sowohl Digital-SAT als auch digitales Kabelfernsehen und DVB-T2 (H.265/HEVC). Darüber hinaus ist ein Entschlüsselungssystem für HD+ ebenfalls integriert. Diese Kombination von digitalem Fernsehen via Satellit, Kabel und terrestrischem Empfang bringt in jedem Fall Vielfalt und gewährleistet auch dann ein TV-Bild, wenn ein Übertragungsweg mal nicht funktionieren sollte.

Abbildung 399: DIGIT ISIO STC+ von TechniSat

Durch die Twin-Technologie lassen sich Programme parallel empfangen. Während man eine Sendung anschaut, kann gleichzeitig per UPnP-Live-Streaming eine andere im Heimnetzwerk bereitgestellt oder mithilfe der DVR-ready-Funktion aufgezeichnet werden. Gespeichert werden kann auf ein externes Speichermedium via USB-Anschluss oder aber auf einen Netzwerkspeicher (NAS). Dank der aktuellen Standards (HDMI 2.0/HDCP 2.2/H.265/HEVC) ist der DIGIT ISIO STC+ in der Lage, UHD-TV-Programme sowie generell 4K-Videoinhalte zu empfangen und zu verarbeiten.

Und selbstverständlich ist die kleine schwarze Kiste mit alphanumerischen Display auch internetfähig. Über das integrierte WLAN-Modul kann man direkt über den ISIO-Receiver auf IP-basierte interaktive Dienste (Mediatheken, VoD oder HbbTV) zurückgreifen. Wer also seinen Fernseher etwas aufpeppen möchte, könnte mit einem solchen Hybrid-Receiver bereits den ersten Schritt tun. Natürlich macht erst ein moderner UHD-Fernseher das 4K-Bild perfekt.

Abbildung 400: UHD-Receiver von TechniSat

Allerdings lässt sich auch ohne Smart-TV mit dem DIGIT ISIO STC+ ins Netz gehen. Und damit nicht genug! Sämtliche Filme, Musik und Fotos können über die hauseigene MultiPlay-App „MyTechniSat“ verwaltet und im Heimnetzwerk auf allen UPnP-fähigen Endgeräten abgespielt werden. Außerdem kann der Receiver mithilfe eines komfortablen Touch-Interface über alle mobilen Endgeräte gesteuert werden und sogar vorhandene Programmdaten und Timer mobil via Internet entsprechend updaten. Umgekehrt funktioniert das natürlich auch. Mit TechniCast lassen sich Inhalte von Smartphone oder Tablet einfach kabellos auf den TV-Bildschirm übertragen. Interessant dabei ist, dass die Geräte nicht über das Heimnetzwerk (WLAN-Router) eingebunden werden müssen, sondern direkt via WLAN-Funk kommunizieren. Diese Verbindung kann am ehesten mit Bluetooth verglichen werden. In jedem Fall ist sie kostenfrei und belastet auch nicht das Datenvolumen des Internetproviders.

Tuner plus SAT-IP-Client

Noch mehr Mobilität versprechen die internen oder externen Tuner inklusive SAT-IP-Client. Wie im entsprechenden Kapitel dieses Buches bereits ausführlich erläutert, können hier alle TV-Inhalte, die über Satellit empfangen werden, an mobile Endgeräte weitergeleitet werden. Eine runde Sache exklusiv für DVB-S-Kunden, deren Zahl in nächster Zeit vermutlich steigen wird, wenn mit DVB-T2 die Privatsender nicht mehr kostenfrei zur Verfügung stehen. Näheres hierzu finden Sie im Kapitel über den neuen Antennenstandard DVB-T2 in diesem Buch.

Abbildung 401: Beispiel für Triple-Tuner inklusive SAT-IP-Client (www.panasonic.com)

AV-Receiver

Wer das TV-Signal separat empfängt, kann auch auf einen AV-Receiver zurückgreifen. Denn dieser kann schon längst mehr, als nur den Ton auf die externe Surround-Anlage zu übertragen. Der moderne AV-Receiver ist heute quasi die Schaltzentrale im Heimkinobereich.

Abbildung 402: AV-Receiver ONKYO TX-NR646

Und die gute Nachricht ist, dass in der Produktgruppe der AV-Receiver die Preise immer weiter nach unten gehen. Heute bekommt man für relativ wenig Geld jede Menge Ausstattung. Dazu gehört zum einen natürlich die Verteilung von Video- und Audiosignalen, zum anderen aber auch die Einbindung im heimischen Netzwerk für den Empfang von Internetradio oder Musikstreaming von mobilen Endgeräten. Das Modell TX-NR646 von Onkyo etwa verfügt über die neuesten Features und entsprechende Schnittstellen. Für 600 Euro bietet der 2015er Receiver HDMI 2.0a, HDCP 2.2, Dolby Atmos, DTS:X und auch Ultra HD bei 50/60Hz mit 10/12-Bit-Unterstützung. Selbst analoge Eingänge sind noch vorhanden, auf die hier aber nicht weiter eingegangen werden soll. Interessanter sind in diesem Kapitel doch die Möglichkeiten der Zukunft, die schon längst begonnen hat. Wer noch überlegt, ob er lieber Musik über sein Smartphone streamt, gern Schalltplatten oder doch lieber Internetradio hört oder eben den neuesten Blockbuster im hochauflösenden Bild und Sound genießen möchte – für sämtliche Vorlieben ist natürlich solch ein Multitalent wie der TX-NR646 von Onkyo eine großartige Lösung. Natürlich sind noch viele andere Geräte diverser Hersteller auf dem Markt, dennoch gelten vom Grundsatz her dieselben Basisdaten.

Ein Blick auf die Rückseite eines AV-Receivers kann deshalb nicht schaden. Wer sich hier überfordert fühlt, könnte auch auf kleine Soundanlagen zurückgreifen, die lediglich via Bluetooth die Audiosignale weitergeben. Wer allerdings die handfeste Hardware mit entsprechenden Steckverbindungen favorisiert, ist hier genau richtig. Denn das Anschlussfeld eines typischen Mittelklasse-AV-Receivers, wie etwa dem Onkyo TX-NR646, bietet heute eine Fülle an Möglichkeiten, mit der Außenwelt zu kommunizieren und Signale zu verarbeiten.

Abbildung 403: AV-Receiver ONKYO TX-NR646 (Rückseite)

Zur Grundausstattung gehören hier natürlich nach wie vor die analogen Anschlüsse, auch wenn sie immer mehr an Bedeutung verlieren, außerdem natürlich ein Netzwerkanschluss per Ethernet oder WLAN. Neben herkömmlichen Klinkensteckern finden sich ab der 2015er Serie auch HDMI-Anschlüsse – insbesondere im Hinblick auf die Unterstützung von HDCP 2.2 für UHD/4K-Filme. Allerdings gibt es in punkto Video bei AV-Receivern durchaus qualitative Unterschiede. Geräte der Einstiegsklasse verfügen meist nur über begrenzte Möglichkeiten zur Bildverarbeitung und deren Aufbereitung, sie schleifen die Signale oft einfach nur eins zu eins durch. Daran gibt es an sich nichts auszusetzen, zumal die Bildqualität einer Blu-ray-Disk auch ohne Nachbearbeitung schon hohen Ansprüchen gerecht wird. Deshalb wird auch bei modernen Blu-ray-Playern mit echter UHD/4K-Aufösung höchstwahrscheinlich kein Videoprozessor im AV-Receiver benötigt. Das Durchleiten des Signals über HDMI reicht in den meisten Fällen also vollkommen aus. Wenn hingegen ein Videoprozessor nachhelfen soll, hat das auch seinen Preis. Wer also analoge Bildverbindungen hochskalieren möchte oder besonderen Wert auf maximale Bildschärfe und perfekte Farben legt, der sollte ein paar Euro mehr ausgeben und sich einen AV-Receiver zulegen, der über einen integrierten Videoprozessor verfügt. Gängige verbaute Prozessoren stammen von IDT HQV, Marvell, Anchor Bay, Silicon Optix oder Meridian-Faroudja.

Neben den bereits erwähnten Schnittstellen sollte ein solcher AV-Receiver heutzutage über Bluetooth, Wi-Fi oder AirPlay verfügen sowie über qualitativ hochwertige Lautsprechersysteme. Je nach Preisklasse ist ein Mehrkanalsystem von 5.1 bis 11.2 realisierbar, wobei die 5.1-Konfiguration auch 2015 noch am meisten eingesetzt wird. Der letzte Schrei sind sogenannte Höhenlautsprecher, wie sie bei Dolby Atmos oder DTS:X Verwendung finden. Die Konfiguration wird hier mit 5.1.2 oder 7.1.2 bezeichnet.

SAT-Receiver inklusive 4K + HDR

Für den Empfang von 4K/HDR-Inhalten via Satellit reichen die herkömmlichen Receiver mit SD- oder HD-Standard natürlich nicht mehr aus. Die Satellitenschüssel selbst muss jedoch nicht erneuert werden. Seit 2016 sind erste 4K-fähige Receiver auf dem Markt. Ein durchweg sehr gutes Ergebnis in diversen Tests erhielt unter anderem der HUMAX Digital UHD 4tune+. Ein Quad Tuner für das parallele Sehen, Speichern und/oder Streamen von mehreren Programmen.

Abbildung 404: Empfehlung der Fachzeitschrift „satvision“ für HUMAX Digital UHD 4tune+

Außerdem eignet sich das Gerät als Server für SAT-IP und verteilt das TV-Signal via Satellit im heimischen Netzwerk. Die technischen Standards werden hier erfüllt, denn nicht umsonst erhielt der Humax UHD 4tune+ in den vergleichenden Warentests mehr als einmal die Note „sehr gut“.

Im Herbst 2016 soll Samsung seine 4K-TV-Box „GX-VI680SJ“ auf den Markt bringen, die neben UHD-Inhalten mit einer maximalen Bildfrequenz von 60 Bildern pro Sekunde sogar HDR unterstützen soll. Hardware und Menüstruktur des unter Linux laufenden Sat-Receivers von Samsung sind auf die hohe Auflösung (3.640 x 2.160 Pixel) angepasst. Neben dem Satellitenempfang ermöglicht die 4K-TV-Box auch das Streamen von VoD-Inhalten und unterstützt das Soundformat Dolby Digital. Darüber verfügt das Gerät über einen WLAN-Empfänger mit 2.5 und 5 GHz, die Festplatte für die Aufnahmefunktion muss hingegen extra gekauft werden. Bisher wird dieses Gerät nur in Dänemark beworben und ist dort ab Oktober 2016 für 1.990 dänische Kronen erhältlich, was knapp 300 Euro entspricht. Ob Samsung auch in Deutschland einen 4K-fähigen Receiver anbietet, der HDR unterstützt, ist derzeit nicht bekannt (Stand: 2016).

Abbildung 405: 4K-TV-Box „GX-VI680SJ“ von Samsung für dänischen Markt ab Oktober 2016

PS4 PRO mit 4K/HDR-Content

Ab November 2016 soll hingegen die Playstation 4 PRO in Deutschland auf den Markt kommen – mit echter 4K-Auflösung und HDR. Allerdings ermöglicht dieses Gerät tatsächlich „nur“ ech­tes 4K/HDR Gaming sowie Streaming in Verbindung mit entsprechenden 4K-/HDR-fähigen Bildschirmen. Sony zufolge wird es kein Laufwerk mehr geben, was das Abspielen von DVD oder BD ermöglicht. Dafür werden die Apps von Netflix und YouTube aktualisiert. Somit kann die aktuelle Konsole aus dem Hause Sony die stetig wachsenden 4K/HDR-Content des VoD-Anbieters und der Videoplattform wiedergeben. Wobei zu erwähnen ist, dass die Abwärtskompatibilität in Bezug auf die Bildwiedergabe durchaus gegeben ist. Man muss sich also nicht gleich einen neuen Fernseher zulegen, das etwas ältere Modell in Full HD tut es zur Not auch weiterhin. Auf herkömmlichen HD-Displays macht die Playstation 4 PRO doppelt Spaß, denn sogar ältere Spiele erhalten mit zusätzlichen Shadern erweiterte Grafikfeatures und damit mehr Details und stabilere Framerates. Und alle Titel, die über die Virtual-Reality-Brille von Sony „Play­sta­tion VR“ konsumiert werden, sehen mit der neuen Konsole besser aus, was insbesondere an den erhöhten Bildfrequenzen liegt. Die PS4 PRO soll ab 10. November 2016 auf den Markt kommen (399 Euro). Für alle älteren Modelle verspricht Sony ein Update zur Wiedergabe von HDR-Inhalten. Die Zukunft liegt also nicht mehr in der „Konserve“ (Blu-ray-Disc), sondern ganz klar in der internetbasierten Verwendung, dem Streaming.

UHD/4K-Streaming-Boxen

Schon seit Ende 2015 sind erste Geräte auf dem Markt, die 4K/UHD-Videomaterial realisieren, solange die TV-Sender oder aber Blu-ray auf sich warten lassen beziehungsweise diese schlichtweg zu teuer sind. Mit HDMI 2.0 und HEVC (H.265) ausgestattet, können die neuen Boxen eine 4K/UHD-Wiedergabe bis zu 60Hz ermöglichen und einen klassischen Flachbildschirm zum Smart-TV umfunktionieren.

Abbildung 406: Open Hour Chameleon - Android-TV-Box mit 4K-Support

Wer also bereits einen echten UHD-TV besitzt oder aber sein „altes“ Full-HD-Gerät etwas aufpeppen möchte, der sollte sich eine Streaming-Box mit 4K-Support zulegen. Der Preis ist um ein Vielfachen geringer als Blu-ray-Player mit ultrahoher Auflösung. Für 99 Euro ist seit 5. Oktober 2015 beispielsweise die 4K-Box von Amazon im Handel erhältlich. Fire TV ist nahezu mit allen TV-Geräten kompatibel und unterstützt die Videoformate H.265, H.264, Audioformate AAC-LC, AC3, eAC3 (Dolby Digital Plus), FLAC, MP3, PCM/Wave, Vorbis, Dolby Atmos (EC3_JOC), Fotoformate JPEG, PNG, GIF, BMP und Bildschirmauflösungen von 2160p, 1080p oder 720p bei allen gängigen Frequenzen (24/25/30/50/60Hz). Kurzum: lediglich ein HD-Fernseher mit herkömmlicher HDMI-Schnittstelle ist Mindestvoraussetzung. Von Amazon werden hier HDCP-kompatible Modelle der Hersteller LG, Samsung, Sony, Sharp, Toshiba, Vizio sowie Hitachi, JVC, Mitsubishi, NEC, Panasonic, Philips, Pioneer und Westinghouse genannt.

Amazon hat sowohl den Arbeitsspeicher auf 2 GB als auch die Prozessorleistung um 75 Prozent erhöht. Mit dem modernen Quad-Core-Prozessor und der GX6250-Grafik-Engine ist das Gerät bestens gewappnet für ultrahochauflösenden Filmspaß.

Abbildung 407: Amazon Fire TV mit 4K Ultra HD (seit Oktober 2015)

Mit der Einführung von Fire TV mit 4K/UHD erweiterte Amazon auch sein Angebot an Serien und Filmen von Sony Pictures Home Entertainment. Seit Herbst 2015 stehen somit Blockbuster wie „The Amazing Spider-Man“, „Captain Phillips“, „The Vow“, „Think Like a Man“ oder „Elysium“ sowie Klassiker wie „Lawrence von Arabien“, „Philadelphia“, „Da Vinci Code“ (Sakrileg) oder „Jerry Maguire“ (wenn auch nachbearbeitet) in höchster Bildqualität zur Verfügung. Und natürlich werden auch Amazon Originale mit einer Auflösung von 3840 x 2160 Pixeln verfügbar. Hierzu zählen unter anderem die mit zwei Golden Globes prämierte Dark-Comedy „Transparent“ sowie die hochgelobte Polit-Comedy „Alpha House“, die Musik-Dramedy „Mozart in the Jungle“ sowie das Krimidrama „Bosch“.

Ebenfalls im Oktober 2015 brachte auch Konkurrent Apple seine neue Streaming-Box auf den Markt. Lange wurde gerätselt, ob der Multimedia-Gigant endlich eine Touch-Version der Remote-Fernbedienung liefert. Die Antwort lautet: „Tschüss Drücken. Hallo Wischen.“ Apple bringt tatsächlich die Touch-Funktion nun auf seine Siri-Remote, die im Übrigen über eine Spracherkennung verfügt. Neben Touch und Sprachassistent Siri wartet Apple allerdings mit weitaus mehr Funktionen auf. Apple TV4 verfügt über seinen eigenen App-Store und sogar ein exklusives Betriebssystem tvOS. Böse Zungen könnten behaupten, dass die Benutzeroberfläche in vielen Teilen der von Android TV oder Fire TV gleicht. Grundsätzlich ist aber anzuerkennen, dass ebenjene jetzt sehr viel aufgeräumter und damit übersichtlicher sowie praktikabler ist. Auch die Speicher der zwei angebotenen Versionen mit 32 oder gar 64 GB sind zwar mehr als gigantisch, die Preise für die kleinen Büchsen allerdings auch. Für 199 US-Dollar (etwa 180 Euro) beziehungsweise 149 US-Dollar (etwa 130 Euro) bleibt Apple auch in punkto Kosten sehr exklusiv.

Abbildung 408: Apple TV4 seit Oktober 2015

Ansonsten bleibt der einstige Pionier in Sachen Streaming-Boxen im Schatten der leistungsstarken Konkurrenzmodelle von Amazon Fire TV oder Googles Nexus Player heraustreten. Denn Apple bleibt bei der FullHD-Auflösung und bietet derzeit (Stand: 2016) keinen 4K/HDR-Content an.

Die Zukunft wird zeigen, wie sich hier der Markt entwickelt. Andere Hersteller werden mit Sicherheit nachziehen und auf den Streaming-Zug aufspringen. Insbesondere dann, wenn Blu-ray auf sich warten lässt oder aber aufgibt. Die Technologie der bisherigen Geräte ist grundsätzlich vergleichbar. Boxen wie die von Amazon setzen auf leistungsstarke Quad-Core-Prozessoren und nicht selten auf das Android-Betriebssystem. Ultimative Voraussetzung für das Streaming von echten 4K/UHD-Inhalten ist auch hier die Unterstützung von HEVC (H.265). Das heißt, die Bildausgabe in der UHD-Auflösung mit 3.840 x 2.160 Bildpunkten bei 60 Hz funktioniert nur an solchen UHD-TVs, die zumindest über einen HDMI-2.0-Eingang verfügen, der 10 Bit/UHD Deep Color unterstützt. Alles andere ist sonst „nur“ HD.

Abbildung 409: ITU-Standard für High Efficiency Video Coding (HEVC): H.265

Soundbars/Audio-Systeme

Wer auf Kabelsalat verzichten und lieber minimalistisches Design mit hervorragender Klangqualität vereinen möchte, der ist bei den modernen Soundbars genau richtig. Nirgendwo ist die Palette in Bezug auf Größe, Qualität und Preis größer als hier. Und wer glaubt, dass UHD sich ausschließlich auf das Bild bezieht, der irrt gewaltig. Mit High Resolution Audio (HRA) sind feinste Klangnuancen in Studioqualität im Heimkinobereich kein Wunschdenken mehr. Moderne Technologien – wie beispielsweise das digitale Upscaling – tragen dazu bei, dass auch schlechtere Tonqualitäten zu einem unvergesslichen Musikgenuss werden können. Ob also der Lieblingssong aus der Cloud oder der Soundtrack vom neuesten Blockbuster: mit virtuellem Surround-Sound (7.1-Kanal S-Force PRO) und Wave-Front-Technologie definieren die Soundbars von heute den Begriff Audio neu und können sogar ein dreidimensionales Klangfeld nachbilden, das ganz dicht am Original ist.

Abbildung 410: 7.1-Kanal-Soundbar mit Wi-Fi und Bluetooth (www.sony.de)

Obwohl es in diesem Buch grundsätzlich nicht um Audio-Systeme geht, soll hier dennoch ein kleiner Exkurs in die Welt der modernen Töne vorgenommen werden.

Ähnlich wie das Videosignal wird auch das Audiosignal abgetastet, codiert, moduliert und im Wiedergabesystem decodiert. Als klassisches Verfahren hierzu dient das Audiokompressionsverfahren PCM (Pulse Code Modulation) oder die verlustfreie Variante LPCM (Linear Pulse Code Modulation), welche vorwiegend in Audio-CDs, DVDs und Blu-ray-Discs eingesetzt wird. Die Qualität bestimmen hier zwei Faktoren: die Bit-Tiefe und die Abtastfrequenz. Je präziser die Audiosignale abgetastet werden, umso genauer ist deren Umwandlung. Dabei spielt die Abtastfrequenz eine maßgebliche Rolle, die sich auf den Umfang der speicherbaren Audiofrequenzen auswirkt.

Einfacher ausgedrückt: Je mehr „Schnappschüsse“ vom tiefsten bis zum höchsten Ton gemacht werden, umso hochwertiger ist letztlich der Klang.

Abbildung 411: Unterschiede in der Audio-Signal-Qualität (www.technics.com)

Die Anzahl der verfügbaren Stufen ergibt die Bit-Tiefe, die wiederum für die Klangbeschreibung wichtig ist. Bei hoher Bit-Zahl ist auch der sogenannte Dynamikbereich entsprechend groß – also das Spektrum zwischen dem lautesten und dem sanftesten Klang. Im Laufe der technischen Entwicklungen hat sich die Intensität der Abtastung und Codierung verändert. Während in den 1980ern für CDs eine 16-Bit-Codierung mit 44,1 kHz verwendet wurde, wird heute Musik in weitaus größerer Bit-Tiefe und mit viel höherer Abtastrate aufgenommen und übertragen.

Die seit einigen Jahren bereits im Studio und beim Mastering eingesetzten Formate stehen nunmehr endlich auch dem Privatgebrauch zur Verfügung. Gemeint ist in diesem Zusammenhang das Format High Resolution Audio (HRA), das über 16-Bit beziehungsweise 44,1 kHz hinausgeht. Bei HRA-Aufnahmen werden üblicherweise die 24-Bit-Kodierung und eine 192-kHz-Abtastrate eingesetzt. Die logische Konsequenz ist ein wesentlich höherer Dynamikbereich als bei CD-Aufnahmen. Allerdings gibt es im HRA-Bereich auch weitere Formate. Die gängigsten sollten von modernen Soundsystemen unterstützt werden. Das bekannteste ist wohl das FLAC-Format (Free Lossless Audio Codec) mit 24 Bit und Abtastraten von 96 und 192 kHz. Allerdings gibt es auch Versionen mit der Kombination 24-Bit/44,1 kHz oder 24-Bit/48 kHz. Je höher die Abtastfrequenz (derzeit maximal 192 kHz) – desto hochwertiger ist die Klangqualität.

Abbildung 412: Unterschiede in der Klangqualität (www.technics.com)

Ähnlich wie bei der ZIP-Datei für Computerdaten kann FLAC ebenfalls verlustfrei arbeiten, da während der Wiedergabe verlustfrei dekomprimiert werden kann und somit dieselben Daten vorliegen, wie sie vor der Komprimierung vorlagen. MP3 kann das beispielsweise nicht, hier werden die Inhalte reduziert und mit Verlusten wiedergegeben. Die Firma Apple ist dafür bekannt, hauseigene Formate zu entwickeln. Natürlich ist das im Audiobereich nicht anders. Quasi jedes Kind kennt iTunes, auch wenn es sie nicht verwendet. Das ebenfalls verlustfreie Format ALAC (Apple Lossless) arbeitet grundsätzlich nach dem gleichen Verfahren wie FLAC.

Beim Musik-Download werden heute zumeist beide Formate (FLAC und ALAC) angeboten. Wer online kauft, erhält zusätzlich entsprechende Informationen über Künstler, Album, Genre etc. All diese Daten werden in jeder HRA-Datei codiert und direkt geliefert. Bei CDs können die Informationen zum Teil aus einer Internet-Datenbank angefordert und abgespeichert werden. Wer schon einmal eine CD auf dem PC eingelesen und in Formate wie AIFF oder MP3 konvertiert hat, der kennt das. CD-Cover sowie alles über die Band und das Album wird automatisch eingespeist, sofern man online ist. Bei WAV-Dateien werden die Titelinformationen allerdings nicht standardmäßig abgespeichert. Die neuen FLAC- oder auch ALAC-Formate bieten diese Option selbstverständlich generell an.

Für das Musik-Streaming ist das Format Direct Stream Digital (DSD) interessant, welches die Grundlage für das SACD-Format (Super Audio Compact Disc) darstellt. Hier wird eine komplett andere Codierung verwendet, die bei einem Bit mit einer deutlich höheren Abtastfrequenz arbeitet. Ursprünglich kam hier für die Aufnahme, Speicherung und Wiedergabe von Audiosignalen das Format DSD64 (64-faches Sampling im Vergleich zur CD) zum Einsatz, was einer Abtastrate von 2,822 MHz entspricht. Jedoch gibt es mittlerweile andere Formate mit weitaus höheren Abtastfrequenzen: DSD128 sowie DSD265 und sogar DSD512. Bei Online-Musikkäufen werden derzeit (Stand: 2016) die Formate DSD64 und DSD128 angeboten, die sich vor allem für das Streaming via Software-Player am PC oder über DLNA eignen. Herstellerangaben wie PCM 96k/24Bit können also spätestens jetzt entziffert werden. Wer sich nun beim Kauf einer Soundbar mit den diversen DOLBY®-Angaben konfrontiert sieht, der sollte Folgendes wissen:

Das Tonformat Dolby Digital 5.1 wurde Anfang der 1990er Jahre unter der Bezeichnung AC-3 entwickelt und ist seit 1997 der Ton-Standard für DVDs. Dieses digitale System arbeitet mit maximal sechs Kanälen: zwei Frontkanälen, zwei Surround-Kanälen, einem Centerkanal und einem LFE-Kanal (Low Frequency Effects). Die einzelnen Kanäle übertragen bestimmte Frequenzbereiche (20 bis 20.000 Hz), wobei der LFE-Kanal für den absoluten Tiefbassbereich bis 120 Hz steht.

Bei Dolby Surround Pro Logic handelt es sich um ein analoges Vier-Kanal-Tonsystem mit zwei Frontkanälen, einem Centerkanal und einem Surround-Kanal, das seit den 1980er Jahren auch unter dem Betriff Dolby Stereo bei VHS-Kassetten, DVDs und diversen Fernsehsendungen bekannt ist. Der Übertragungsbereich liegt lediglich bei 100 - 7000 Hz, der Surround-Kanal ist monophon, die Kanaltrennung relativ schlecht. Nachfolger sind die Tonformate Dolby Surround Pro Logic II, bei dem aus zwei analogen Stereokanälen 5.1 Kanäle errechnet werden, und Dolby Surround Pro Logic IIx (6.1) mit sieben errechneten Kanälen, die bis zu vier Surround-Lautsprecher möglich machen.

Fans von Star Wars kennen vielleicht das erstmals im Jahre 1999 von Lucasfilm verwendete Tonformate Dolby Digital Surround – EX 6.1 mit ebenfalls sieben Kanälen. Aus dem 21. Jahrhundert stammt u.a. Dolby TrueHD als verlustfreies Raumklang-Format, das für HD-Filme auf DVD und Blu-ray-Discs entwickelt wurde. Hier existieren bis zu acht Kanäle (7.1 Surround) bei einer Abtastfrequenz von 96 kHz und einer 24-Bit-Tiefe. Über die HDMI-Schnittstelle können Daten mit einer Rate von 18 Mbit/s übertragen werden. Werden weniger als die acht Kanäle verwendet, kann die Abtastfrequenz auf bis zu 192 kHz gesteigert werden.

Abbildung 413: Audio-Varianten DOLBY®

Im modernen Heimkinobereich kommt mittlerweile das Tonformat Dolby Atmos zum Einsatz, das abwärtskompatibel zu älteren Systemen (5.1 oder 7.1) arbeitet und theoretisch eine unbegrenzte Anzahl von Tonspuren zulässt. Der Klang kann hier von allen Seiten – mindestens aus acht (5.1.2) und maximal aus 32 Lautsprechern (als 31.1 oder 24.2.6) kommen. Im Kino werden sogar 64 separate Lautsprecher mit bis zu 128 Audio-Spuren unterstützt. Bei dem dreidimensionalen Klangsystem kommt somit der Sound nunmehr auch von oben. In einigen Kinos wird der Sound mit der Spezifikation 9.1 „Bed“ bereits praktiziert. Unter www.dolby.com finden sich die deutschen Kinos, in denen Dolby Atmos aktuell angeboten wird.

Die wichtigste Neuheit dieses Tonverfahrens, das nach und nach auch im Heimkinobereich genutzt wird, ist die objektbasierte Tonaufzeichnung. Bisher wurden etwa bei Filmszenen unterschiedliche Richtungsinformationen (Musik, Dialoge, Effekte) an bestimmte Lautsprecher oder Lautsprechergruppen gebunden.

Das heißt, dass hier mit Kanälen und nicht mit Objekten gearbeitet wurde. Bei der objektbasierten Tonverarbeitung werden hingegen die einzelnen Soundeffekte in einer Art Koordinatensystem mit Tiefen- und Höheninformationen gespeichert. Diese sogenannten Klangobjekte enthalten demnach sowohl den Ton selbst als auch die Zusatzinformationen über die jeweilige Platzierung im Raum. Moderne AV-Receiver können mit einem Setup entsprechend programmiert werden und verteilen im Anschluss die Klangobjekte an die vorhandenen Lautsprecher im Raum. Dolby Atmos ist somit flexibel einsetzbar und kann sich praktisch an jedes Soundsystem automatisch anpassen. Um Dolby Atmos zu Hause umfassend realisieren zu können, werden neben einem AV-Receiver mit Dolby-Atmos-Decoder fünf Lautsprecher am Boden und zwei an der Decke benötigt. Maximal können 24 Bodenlautsprecher und 10 Höhenspeaker angebracht werden. Ältere Modelle sind in der Regel nutzbar. Die Zimmerdecke sollte dabei aber nicht höher als 2,74 Meter sein.

Abbildung 414: Denon AVR-X5200W - A/V-Receiver mit Dolby Atmos und Auro 3D

Neben den diversen Standardformaten Dolby Digital® gibt es DTS-Tonformate, die jedoch weitaus mehr Speicherplatz benötigen. Im Heimkinobereich arbeitet das klassische DTS-Surround-Verfahren zwar mit den gleichen Kanälen und Frequenzen, dafür aber als echtes 5.1-System mit bis zu 24 Bit Auflösung (im Kino 20 Bit).

Da in der digitalen Videosignalverarbeitung immer besser komprimiert werden kann, stehen hier mittlerweile verschiedene Formate zur Verfügung. Eines davon ist das DTS-HD Master Audio - ein verlustfreies Tonformat, das speziell für HDTV und entsprechende Datenträger konzipiert wurde und mit einer Abtastrate von 192 kHz und einer Tiefe von 24 Bit arbeitet, wobei die Datenrate 768 bis 6.144 kBit pro Sekunde beträgt. Der 7.1-Ton wird ausschließlich über eine HDMI-Schnittstelle mit dem Mindeststandard 1.3a übertragen, optische oder koaxiale Verbindungen unterstützen lediglich die 5.1-Formate.

In Deutschland weniger verbreitet ist ein weiteres Tonformat, das im Übrigen weiterhin mit Sound-Kanälen und nicht mit den oben beschriebenen Klangobjekten (z.B. Dolby Atmos) arbeitet. Der Sound mit Auro 3D benötigt darüber hinaus keine Lautsprecher an der Decke, sondern sorgt auch so für einen beeindruckenden Raumklang.

Entwickelt wurde Auro 3D im Hause Auro Technologies, einem Ableger der Galaxy Studios in Belgien, wo schon seit Jahrzehnten 3D-Musik und entsprechende Soundtracks produziert werden. Außerdem bietet Auro Lizenzen für andere Hersteller sowie hauseigene Geräte für den High-End-Bereich. Hierzu gehört unter anderem der AV-Prozessor Auro-3D-Mensa, ein flexibel einsetzbarer Vorverstärker mit zahlreichen Features, der mit schlappen 20.000 Euro allerdings schon zur Luxusausstattung der Home-Entertainment-Systeme gehört.

Abbildung 415: AV-Prozessor Auro-3D® Mensa™

Auro verzichtet nach eigenen Angaben bewusst auf die Deckenlautsprecher, wie sie bei objektbasierten Tonsystemen wie Dolby Atmos oder aber DTS:X verwendet werden. Als Grund dafür werden die menschlichen Sinne genannt. Ähnlich wie bei der visuellen Wahrnehmung kann der Mensch auch auditiv seine Umwelt in gewisser Art und Weise wahrnehmen. Wie wir in einem bestimmten Radius sehen, können wir beispielsweise Klänge von oben naturgemäß auch nur seitlich hören, denn bekanntermaßen befinden sich unsere Ohren nicht auf unserem Kopf, sondern vielmehr an dessen Seiten. Dennoch ist es uns möglich, Geräusche im 360-Grad-Modus wahrzunehmen und gleichzeitig die jeweilige Richtung zu ermitteln. Auf der Basis von Reflexionen und Zeitverzögerungen ist unser Gehirn also in der Lage, diverse Klänge relativ präzise zu verorten.

Nun könnte man also behaupten, dass die sogenannten "Voice of God"-Lautsprecher grundsätzlich überflüssig sind. Auf der anderen Seite werden die modernen Formate der objektbezogenen Klangsysteme im Heimkinobereich dem konservativen Raumklang als weit überlegen eingeschätzt. Wenn man nun bedenkt, dass auch im Hause Auro an einem objektbasierten Tonsystem gearbeitet wird, liegt der Verdacht nahe, dass die Argumentationen in Bezug auf die unterschiedlichen Raumklangverfahren (Kanäle oder mit Objekte) vielmehr mit dem Marketing zu tun haben.

Beim Verbraucher wird hingegen die Auswahl des Klangsystems hauptsächlich vom Geldbeutel entschieden und ist natürlich vom Geschmack abhängig. Wer es sich also leisten kann und über genügend Platz im Wohnzimmer verfügt, der kann sich selbstverständlich Lautsprecher an die Decke schrauben. Für weniger Ansprüche genügen hier im Zweifel sogar die ultrakleinen Wireless-Audio-360-Speaker von SAMSUNG, die bereits ab 199 Euro zu haben sind.

Abbildung 416: Wireless-Audio-360-Speaker von SAMSUNG (www.samsung.com)

Allen aktuellen 3D-Klangsystemen ist gemeinsam, dass sie - ähnlich wie bei der Bilddarstellung - versuchen, der Natur möglichst nahe zu kommen. Die Imitation natürlicher Klänge wird in diesem Zusammenhang deshalb ebenfalls als immersiv bezeichnet, was eigentlich nichts anderes als universell oder allumfassend bedeutet. Der klare Vorteil ist im Übrigen die Kompatibilität. Moderne AV-Receiver können in der Regel sowohl Auro-3D als auch Dolby Atmos decodieren. Darüber hinaus sind beide Signale (Auro-3D und Dolby Atmos) abwärtskompatibel und mit dem bestehenden 2.0-HDMI-Standard übertragbar. Der Decoder muss hierfür jeweils hinter der HDMI-Strecke liegen.

Wie viele Lautsprecher man sich nun wohin stellt oder hängt, ist also die eine Sache. Das A und O in punkto Klangqualität ist und bleibt der AV-Receiver beziehungsweise die Soundbar. Neben den klassischen TV-Herstellern bieten natürlich insbesondere die Hi-Fi-Unternehmen wie Harman/Kardon, Bang & Olufsen oder auch Teufel solche Soundbars an. Im Heimkinobereich gibt es schon seit längerem hochwertige Anlagen als Klangerweiterung für schmalbrüstige TV-Lautsprecher. Eleganz verspricht Samsung mit seinem Modell HW-J7501 für 749 Euro. Die neue 4K-Technologie kann mit Pansonics SC-ALL70T schon ab 499 Euro realisiert werden. Eine besonders leichte Variante kommt aus dem Hause Harman/Kardon (SB26/230) mit nur 3,5 Kilogramm für immerhin 529 Euro und die Kompaktklasse erhält man seit Herbst 2015 beispielsweise mit der Cinebar 52 THX von Teufel.

Abbildung 417: Cinebar 52 THX von Teufel (www.teufel.de)

Nachdem die Soundbars seit einigen Jahren bereits die deutschen Wohnzimmer schmücken, kam Ende 2015 der nächste heiße Trend: Multiroom. Sonos - der einstige Vorreiter in diesem Bereich - erhält mit der Trendwelle nunmehr Konkurrenz von verschiedenen Seiten. Ob Samsung oder beispielsweise Panasonic – viele Hersteller bringen Soundsysteme auf den Markt, die via WLAN und/oder Bluetooth im ganzen Haus beziehungsweise der Wohnung verteilt werden können.

Bei einer Party kann so dieselbe Musik im Wohnzimmer, Flur, in der Küche und sogar im Bad laufen. Oder man kann das Fußballspiel im Partykeller anschauen und parallel den Sound über einen Lautsprecher in der Küche verfolgen, während zeitgleich im Badezimmer Entspannungsmusik passend zum duftenden Schaumbad gespielt wird.

Selbst Playlisten können den unterschiedlichen Räumen zugeordnet werden, und das alles mit dem Smartphone. Hierüber lässt sich alles steuern – von der Soundquelle bis zur Art der Übertragung.

Abbildung 418: Multiroom-System mit Soundbar HW-H751 von Samsung

Ein Star am Himmel des Multirooms ist in punkto Funktionalität und Design sicherlich Samsungs R7 (WAM7500). Der 360°-Lautsprecher ist derzeit (Stand: 2016) mit knapp 400 Euro der preiswerteste in diesem Bereich und dennoch qualitativ hochwertig. Denn er wurde von keinem geringerem als dem Audio-Geek Allan Devantier entwickelt, der 22 Jahre bei Harman/Kardon gearbeitet hat und von Samsung abgeworben wurde – mit dem selbsterklärten Ziel: „We wanna help Samsung become the No. 1“. Bei solch einem Slogan horchen natürlich die Anbieter der vergleichenden Warentests sofort auf. Computer-Bild testete im August 2015 die Rundum-Lautsprecher WAM7500 und WAM6500 aus dem Hause Samsung und kam dabei auf gute Ergebnisse.

Abbildung 419: Wireless Audio 360 System von Samsung (www.samsung.com)

Vor allem überzeugen die 360°-Systeme von Samsung durch ihre Vielseitigkeit und das ansprechende futuristische Design. Der Klang ist dabei keine Nebensache und wird von Computer-BILD ebenfalls als positiv bewertet. Via WLAN und Bluetooth lässt sich das schier unbegrenzte Angebot der Streaming-Dienste und Internetradio-Anbieter vom Smartphone oder Laptop übertragen. Wer einen Samsung-Fernseher hat, kann hier auch den TV-Sound drahtlos zuspielen. Die einzige Schwachstelle sind die Apps, hier wird aber sicherlich in nächster Zeit nachgebessert.

Heimkino: Beamer/Leinwände

Zum Bereich des Heimkinos zählen schon längst nicht mehr nur die riesengroßen Flachbildschirme und das entsprechende Video-Equipment, wie Tuner, Receiver und Player. Auch die Heimkinoprojektoren sind nicht einfach nur Beamer, die bei Vorträgen oder Publik Viewing eingesetzt werden und somit den guten alten Dia-Projektor ersetzen. Spätestens seit 2015 genießen sie den Status, eine exklusive Alternative zum heimischen Flachbildfernseher zu sein.

Auch hier wächst das Angebot sowie die Nachfrage und gemeinsam mit ihr die Vielfalt der Geräte und Technologien. Grundsätzlich unterscheidet man bei Projektoren/Beamern zwischen den Standards LCD und DLP beziehungsweise DLP/LED sowie der neuen SXRD-Technologie.

LCD-Technologie

Ähnlich wie bei den Flachbildschirmen handelt es sich bei der Bezeichnung LCD um Flüssigkeitskristalle. Das heißt, mithilfe eines transparenten Flüssigkeitsfilms wird das Bild projiziert. Das Prinzip selbst gleicht dem klassischen Diaprojektor, nur dass anstatt eines Dias sogenannte Aktivmatrix-Flüssigkristallanzeigen zum Einsatz kommen, die durch Dünnfilmtransistoren angesteuert werden. Für jede Grundfarbe werden hier in der Regel drei voneinander getrennte LCD-Matrizen verwendet, wobei mithilfe von dichroitischen Spiegeln das Bild zusammengefügt wird (3LCD-Technik). Um die Farbbalance und eines besonders hohe Helligkeit erzeugen zu können, werden in hochwertigen Geräten optische Einheiten mit vier separaten LCD-Matrizen verwendet. Neben den Grundfarben (Rot, Grün, Blau) ist somit eine lichtstarke Darstellung der Farbe Gelb möglich, was Helligkeitsverluste minimiert.

Weniger Helligkeit und eine geringe Auflösung bieten Geräte mit nur einer Flüssigkristallanzeige. Wie bei Flachbildschirmen werden hier die RGB-Farben nebeneinander angeordnet. Die Vorteile bei LCD-Projektoren liegen klar auf der Hand: sie sind relativ preiswert. Die Modelle sind klein und zeigen gegenüber Ein-Chip-DLP-Projektoren der gleichen Lichtleistungsklasse eine bessere Farbintensität. Aufgrund der scharf abgezeichneten Pixelstruktur gewährleisten sie eine gute Lesbarkeit bei Texten und Grafiken. Andererseits können die abgegrenzten Bildpunkte auch als störend wahrgenommen werden. Bei der Wiedergabe muss interpoliert (nachjustiert) werden, da die LCD-Matrizen eine feste Auflösung haben und hier eine automatische Anpassung nicht erfolgt. Diese Nachteile treten jedoch vermehrt bei älteren Modellen auf, genau wie der sogenannte Nachzieheffekt, der im Rahmen der TV-Displays bereits beschrieben wurde. Dasselbe gilt für das Einbrennen, wobei dieser LCD-Memory-Effekt vornehmlich bei Verwendung von Polarisationsfolien mit organischen Flüssigkristallen infolge der hohen Lichtintensität auftreten.

Abbildung 420: LED-Projektor PA1000 von LG

Seit 2008 werden vermehrt anorganische LCD-Panels verwendet, bei denen das Einbrennen nicht mehr vorkommen soll, jedenfalls wenn man den Herstellern Glauben schenkt. Dadurch steigt die Lebensdauer und der Kontrast sowie das Farbspektrum bleiben länger erhalten. Darüber hinaus sind die Lampen sehr staubanfällig. Um die sowieso schon nicht unbegrenzte Betriebsdauer der optischen Einheit nicht vorsätzlich zu verkürzen, sollte man bei der Projektion auf die Umgebung achten. Ist diese durch Staub oder Rauch negativ beeinflusst, lässt auch die Bildqualität des Beamers schnell nach.

DLP/LED-Technologie

Streng genommen handelt es sich bei diesem Verfahren nicht direkt um eine Projektion, wie sie in der physikalischen Optik definiert wird. Im Gegensatz zu anderen Verfahren wird ein reales Bild bei der DLP-Technologie (Digital Light Processing) nicht direkt und unmittelbar auf optischem Wege abgebildet, sondern erst innerhalb des Projektionsweges erzeugt. Dabei werden digitale Bilder auf einen Lichtstrahl aufmoduliert, ähnlich wie auch bei der Laserprojektion. Das Herzstück besteht deshalb aus einer rechteckigen Anordnung von beweglichen Mikrospiegeln, die den Lichtstrahl in Pixel zerlegen und reflektieren. Dieses Prinzip der Spiegel-Matrix wird auch als Digital Micromirror Device (DMD) bezeichnet.

Abbildung 421: BenQ SX914 DLP-Projector

Die sogenannten DMD-Chips reagieren sehr schnell. Jeder Mikrospiegel kann einzeln verstellt werden und seinen Winkel bis zu 5000 Mal pro Sekunde verändern. Eine schnelle Bildfolge ist also kein Problem. Nachzieheffekte unmöglich. Je nach Auflösung variiert die Anzahl dieser Spiegel. Moderne DLP-Projektoren sind mittlerweile mit Auflösungen von bis zu 4160×2080 Pixel erhältlich. Im Vergleich zu den LCD-Panels sind DMD-Chips darüber hinaus länger haltbar, haben eine höhere Ausgangslichtleistung und eine weichere Rasterung des Bildes.

Natürlich hat auch hier die Medaille zwei Seiten. Da die Spiegel unterschiedlich angesteuert werden, kann sich in dunkleren Bildbereichen ein Rauschen zeigen. Hinzu kommen sogenannte Regenbogeneffekte, die vor allem bei älteren Geräten und an kontrastreichen Übergängen bei schneller Bildfolge auftreten. Ursache dafür ist das in DLP-Projektoren verwendete Farbrad und dessen Drehzahl. Ist diese zu gering, werden die Grundfarben des Farbrades an Konturen sichtbar, der Regenbogeneffekt entsteht. Insofern können nicht alle DLP-Projektoren eine präzise Farbtreue garantieren und weisen vor allem bei sattem Grün aber auch bei Rot- und Orange-Tönen gewisse Schwächen auf.

Allerdings gibt es auch hier eine Hybrid-Technologie. Seit einigen Jahren sind LED-DLP-Projektoren auf dem Markt, die anstelle eines Farbrades drei Sätze verschiedenfarbiger LEDs verwenden. Nach Angaben der Hersteller kommt es aufgrund der höheren Schaltgeschwindigkeit der LEDs zu schnellen Farbwechseln, was die Regenbogeneffekte minimieren soll.

Abbildung 422: LED/DLP-Projektor PF80G von LG

Testsieger 2015 im DLP-Bereich wurde übrigens der BenQ TH681, welcher alle Bewertungskriterien erfüllt und somit volle Punktzahl beziehungsweise die Note 1 erhielt. Generell kann man aber sagen, dass die Geräte von BenQ und Acer in den Bewertungen weit vorn und allesamt in punkto Auflösung, Helligkeit, Kontrast, Gewicht und Lebensdauer nicht beieinander liegen. Nur die Preise gehen bei den Herstellern weit auseinander. Für unter 700 Euro ist beispielsweise der DLP-/Full-HD-/3D-Projektor BenQ TH681 zu haben.

Abbildung 423: DLP-/Full-HD-/3D-Projektor BenQ TH681

Für die Luxusklasse von Acer muss man hingegen das Doppelte ausgeben und für PT DZ770ELK von Panasonic sogar über 26.000 Euro hinblättern.

Hier wird deutlich, dass man für ein Heimkino durchaus viel Geld ausgeben kann. Entscheidet man sich für die Luxusvariante, ist man schnell bei einer Gesamtsumme von 100.000 Euro. Doch wer kann sich das schon leisten? Preiswerter geht es hier beispielsweise auch mit dem Modell H6517ST aus dem Hause Acer. Hierbei handelt es sich ebenfalls um einen DLP-Projektor, der mit 1920 x 1080 Pixel auflöst und über 2 Meter Diagonale schafft, wobei er nur einen Meter Abstand benötigt. Der Kontrast von 10.000:1 könnte besser sein, aber alles Gute ist eben nie beisammen. Für Einsteiger könnte dieses Gerät eine Option sein, zumal dieser Acer-Beamer für unter 700 Euro ein echtes Schnäppchen darstellt (Stand: 2015).

SXRD-Technologie

Das von Sony entwickelte SXRD-Panel kombiniert die Vorteile der DLP- und LCD-Technologie. Das sogenannte Silicon X-tal* Reflective Display arbeitet mit der Lichtmodulation und einem sogenannten Polarisator-Flüssigkristall-Polarisator. Hierbei fällt das Licht der Projektorlampe durch eine Polarisationsfolie sowie Flüssigkristallschicht und trifft anschließend auf eine reflektierende Fläche aus Silizium, die mit Aluminium beschichtet ist. Dies erhöht den Reflexionsgrad erhöht. Das Licht durchläuft dabei doppelt die Flüssigkristallschicht, die sich quasi direkt auf dem Siliziumchip befindet. Deshalb spricht man in diesem Zusammenhang auch von einer LCoS-Struktur (Liquid Crystal on Silicon), deren Grundprinzip die Basis für Sonys SXRD-Technologie bildet. Zu den Neuerungen gehört unter anderem die sehr hohe Pixeldichte. SXRD-Chips realisieren bei 4K-Digitalkino-Projektoren eine Auflösung von 4096x2160 Bildpunkten und bieten auch im Heimkinomarkt identische Kenndaten. Die Zwischenräume der Bildpunkte betragen sowohl bei 4K als auch bei Full HD lediglich 0,35 µm, was den Nutzanteil der Pixelfläche sowie die Lichtausbeute extrem erhöht. Selbst bei hoher Lichtleistung ist aufgrund der Siliziumstruktur eine bessere Kühlung möglich. Insofern arbeiten Projektoren mit SXRD-Chip weitaus leiser.

Auch in punkto Verschleiß kann die SXRD-Technologie trumpfen. Die speziellen anorganischen Dünnfilm-Alignment-Schichten sowie die sogenannte Vertical-Alignment-Struktur verhindern unnötigen Lichtdurchgang und erhöhen damit die Lebensdauer der optischen Einheit. Da unter anderem Streulicht vermieden wird, ist auch der Schwarzwert eines SXRD-Panels sehr niedrig und realisiert damit einen hohen nativen Kontrast.

Auf der IFA 2015 in Berlin stellte beispielsweise Sony gleich drei neue Heimkinoprojektoren vor, die seit Oktober desselben Jahres auf dem Markt erhältlich sind. In den neuen Sony-Modellen VPL-VW520ES, VPL-VW320ES und VPL-HW65ES stecken moderne SXRD-Panels und eine Vielzahl an Funktionen, die immer mehr Wohnzimmer in kleine Kinosäle verwandeln.

Abbildung 424: Heimkinoprojektor von Sony

Schon die Vorgänger-Modelle VPL-VW500ES und VPL-VW300ES waren nicht nur bei eingefleischten Heimkinofans sehr beliebt, vor allem weil sie mit äußerst langlebigen Lampen ausgestattet waren. In den Neulingen wurde das Beleuchtungsmaterial noch einmal verbessert. Die neuen Lampen sollen nun 6.000 Stunden lang scharfe Bilder mit hoher Lichtleistung und starken Kontrasten liefern. Darüber hinaus erzeugen die Projektoren VPL-VW520ES und VPL-VW320ES Bilder in packender UHD/4K-Auflösung. Grund dafür sind fortschrittliche SXRD-Panels, die für ein natives 4K-Bild ohne künstliche Pixeloptimierung sorgen. Eine satte und akkurate Farbwiedergabe ermöglicht die hauseigene TRILUMINOS-Technologie von Sony. Bewegungsunschärfen werden mithilfe der Motionflow-Technologie reduziert, sodass selbst bei schnellen Actionszenen rasante Bilder mit hoher Klarheit entstehen.

Außerdem ist das Sony-Modell VPL-VW520ES via HDMI-Input in der Lage, HDR-Inhalte mit einem dynamischen Kontrastverhältnis von 300.000:1 wiederzugeben. Das gewährleistet hohen Kontrast, satte Schwarzwerte und einen sehr guten Dynamikbereich. Damit Filmfans noch besser in den Genuss kommen können, in das Geschehen auf der Leinwand einzutauchen, arbeitet Sony daran, die HDR-Technologie auf alle Geräte dieser Produktgruppe zu erweitern.

Abbildung 425: Heimkinoprojektor VPL-VW520ES von Sony (Anschlüsse)

Doch das ist noch nicht alles. Die Multitalente VPL-VW520ES und VPL-VW320ES verfügen über die nötigen Anschlussoptionen im aktuellen HDMI-Standard, über HDCP 2.2 und sind internetfähig. Somit können Filmfans auch aktuelle 4K-Inhalte von Streaming-Diensten genießen. Außerdem erzeugt ein integrierter 3D-HF-Sender ein starkes Funksignal für größere Reichweite und sorgt so für stabile 3D-Synchronisation. Und falls die Farbbrillanz nicht hundertprozentig den individuellen Ansprüchen der Nutzer entspricht, können diese über ein ebenfalls integriertes Tool zur Farbkorrektur den Farbton, die Sättigung oder Helligkeit jeder Farbe sowie den RGB-Farbraum speziell an ihre persönlichen Wünsche anpassen.

Wer nicht ganz so tief in die Tasche greifen möchte, der kann auch auf den neuen Full-HD-Projektor von Sony (VPL-HW65ES) zurückgreifen, der ebenfalls bei der IFA 2015 vorgestellt wurde. Bis auf die geringere Auflösung verfügt dieser Projektor an sich über ähnliche Features wie die UHD-Modelle. So ist die Lampe für 6000 Betriebsstunden genauso enthalten wie die SXRD-Paneltechnologie, der integrierte HF-3D-Sender, eine USB-Update-Funktion und IP-Steuerung für die flexible Integration ins heimische Netzwerk.

Außerdem garantiert nicht zuletzt Sonys Reality Creation in der zweiten Generation eine gewisse „künstliche Intelligenz“, die verloren gegangene Bildinformationen weitgehend restaurieren und etwaige Artefakte vermindern kann und somit die Detaildarstellung verbessert. Alles in allem bietet Sony mit seinem Modell VPL-HW65ES ein Full-HD-Heimkino-Erlebnis zu einem erschwinglichen Preis.

D-ILA-Technologie

Auf der IFA 2016 präsentierte JVC seinen ersten 4K-Beamer, der mit dualer Lasertechnologie „BLU-Escent“ native Bildqualität im echten 4K-Cinemaformat (4.096 x 2.160 Pixel) realisieren soll. Der JVC DLA-Z1 wird voraussichtlich im Dezember 2016 auf den deutschen Markt kommen. Einige technische Features sind bereits bekannt. Hierzu gehören die aktuelle Laser-Licht-Quelle, das von JVC bereits beantragte THX-4K-Zertifikat sowie eine achtzigprozentige Abdeckung des Farbraums gemäß BT.2020. In einem Werbefilm hierzu verspricht JVC neue „Maßstäbe hinsichtlich Brillanz, Schärfe und Natürlichkeit“. Diese gelten augenscheinlich auch für den Preis, der bei 35.000 Euro liegen soll.

Abbildung 426: JVC-Teaser zur Präsentation des JVC DLA-Z1 zur IFA 2016

Darüber hinaus sind die folgenden technische Details bekannt, welche allerdings bis Reaktionsschluss noch nicht verbindlich festlagen (Stand: 2016).

Auflösung: 4K-Cinema (4.096 x 2.160 Pixel)

Helligkeit: 3.000 Lumen

Lebensdauer: 20.000 Stunden

Dynamischer Kontrast (infinity:1)

Objektiv: 18 Glaslinsen/16 Gruppen mit 100 mm Durchmesser

Zoom: 1.4 zu 2.8:1 (motorisiert mit horizontalem/vertikalem Lens-Shift)

2 x HDMI (HDCP 2.2)

Multiple Pixel Control (MPC) mit Auto Mode (maximal 4K60P 4:4:4)

HDR: HDR-10 und HLG

Motion Enhance: 2D/3D, 4K9 inklusive Clear Motion Drive (CMD)

Abmessungen: 50 x 72 x 21,5 cm/Gewicht: 39 kg

Der JVC DLA-Z1 soll über ein 4K-D-ILA-Panel verfügen. Gemeint ist damit eine Weiterentwicklung der ILA-Technik (Image Light Amplifier), welche sich vor allem durch eine hohe Auflösung und Helligkeitswerte auszeichnet. Insbesondere große Projektionen lassen sich hiermit realisieren. Das D in der Bezeichnung der Nachfolger-Technologie ist eigentlich ein Doppel-D und steht für „Direct Driven“ und ist ebenfalls im High-End-Bereich zu finden, also im oberen Preissegment (zwischen 10.000 und 40.000 Euro).

Mit D-ILA sind die Röhren definitiv passé. Ähnlich der LCD-Technologie wird hier das Licht mithilfe von Linsen auf die einzelnen Farbsegmente verteilt. Bereits seit 1997 arbeitet JVC an Projektoren mit D-ILA-Technologie, die ebenfalls auf Basis von Flüssigkeitskristallen funktioniert, sich aber dennoch von der klassischen LCD-Technologie unterscheidet. Neben JVC nutzt auch Sony die D-ILA-Technologie in seinem 4K/HDR-fähigen Modell VPL-VW520ES, das es übrigens schon für gute 10.000 Euro gibt und im Mai 2016 von testberichte.de mit der Note „sehr gut“ bewertet wurde.

Ebenfalls auf der IFA 2016 präsentierte Sony seinen neuen 4K-Projekter VPL-VW550ES mit verbesserter Kontrastwieder. Die Weiterentwicklung des Vorgängermodells aus dem Jahre 2015 (VPL-VW520ES) unterstützt HDR-10 und HLG und wird ab Oktober 2016 für knapp 1.000 Euro auf dem Markt kommen.

Abbildung 427: VPL-VW550ES (www.sony.de)

Auch wenn die Hersteller wie Sony insbesondere während der IFA 2016 mit ihren Neuheiten werben, muss man die Unterschiede zu den Vorgängermodellen nicht nur bei den Projektoren mit der Lupe suchen. Die Hardware bleibt in weiten Teilen dieselbe. Beim aktuellen Modell VPL-VW550ES erhöht sich der dynamische Kontrast von 300.000:1 auf 350.000:1 – ein Fortschritt, aber keine Revolution. Auch die Lichtleistung bleibt bei 1.800 Lumen genauso wie die Lebensdauer der Lampen, die weiterhin bei 6.000 Stunden liegt. Natürlich kann sich der Neue aus dem Hause Sony durchaus mit der Konkurrenz messen. Neu sind hingegen die HDMI-Eingänge in der Version 2.0a, die HDCP 2.2/H.265 unterstützen und somit für die Verarbeitung von 4K/HDR-Inhalten ausgelegt sind.

Interessant dürfte hier ein Blick auf die Konkurrenz sein. Neben JVC werben auch andere Hersteller mit ihren 4K-fähigen Modellen. So beispielsweise Acer (V9800), Hinsense mit seinem 4K-Laser-Cast-Beamer oder aber Optoma mit einem aktuellen 4K-Laser-Kurzdistanz-Projekter, der voraussichtlich im Frühjahr 2017 auf den Markt kommen soll.

Wichtige Parameter

Beim Kauf eines Projektors beziehungsweise Beamers sollte man vor allem auf die Anschlüsse (vgl. Kapitel UHD-Standards bei Schnittstellen) aber auch auf bestimmte Features Wert legen. Hierzu gehören natürlich der Kontrast, die Auflösung, garantierte Betriebsstunden der Lampe, Gewicht und Maße sowie die Möglichkeit der Deckenmontage. Darüber hinaus sollte auf den Lichtstrom geachtet werden, der in Anlehnung an das ANSI-Verfahren im Labor ermittelt wurde. Dieser wird von den Herstellern in Lumen (lm) ausgewiesen, wobei gilt: je höher der Wert, desto heller erscheint das Bild. Typische Angaben finden sich zwischen 500 und über 2000 (ANSI)-Lumen. Natürlich ist der Kontrast wichtig, dessen Wert nicht unter 10.000:1 liegen sollte, und die Gammaabweichung, die in Prozent angegeben wird. Hierbei gilt: je niedriger der Wert, desto besser werden sowohl in hellen als auch in dunklen Szenen Details dargestellt.

Neben der Bilddiagonale und dem maximalen Zoomfaktor ist natürlich der Projektionsabstand nicht zu unterschätzen. Auf den Markt strömen immer mehr sogenannte Kurzdistanz-Beamer oder sogar Ultrakurzdistanz-Beamer, wie Philips LED-Mini-Beamer mit Android-OS, der sich vor allem für kleine Räume eignet. Mit nur zehn Zentimetern Abstand zur Projektionsfläche soll der Philips HDP1590TV Screeneo ein Bild von 50 Zoll erzeugen. Bei 44 Zentimetern vergrößert sich die Bilddiagonale immerhin auf 100 Zoll (254 Zentimeter).

Die sogenannte Ultra-Short-Optik bietet auch das Modell PF1000U aus dem Hause LG - ein reiner LED-/Full-HD-Beamer, der bereits einen DVB-T2-Tuner enthält. Er erreicht eine Bildbreite von etwa zwei Metern bei einem Abstand von 60 Zentimetern. In diesem Zusammenhang sei auf ein weiteres Feature hingewiesen, dass bisher nur von Smartphones oder Tablets mit Android-Betriebssystem bekannt war: die Screen Share Funktion (früher: Miracast) für die kabellose Bild- und Ton-Übertragung. Im Zeitalter des Online-Streamings eine praktische Funktion, mit der man von einem Gerät (engl. Device) direkt auf den Beamer übertragen kann.

Leinwände

Apropos übertragen: zu einem grandiosen Projektor gehört natürlich auch die entsprechende Leinwand. Und hier sind wir schon längst meilenweit entfernt vom ausrollbaren Etwas, das wir noch aus unserer Schulzeit kennen. Moderne Großbildprojektionen können selbst bei Tageslicht oder künstlicher Beleuchtung in all ihrer Brillanz wahrgenommen werden. Dank High-Tech-Material im Leinwandtuch. Auch optisch kann man die aktuellen Leinwände kaum noch von einem XXL-Fernseher unterscheiden.

Abbildung 428: HD Progressive 0.9 von Da-Lite (www.projectorscreen.com)

Auf dem Markt sind gleich mehrere Hersteller international unterwegs. Nur die wenigsten bringen allerdings Qualität zu einem guten Preis. Die Fachzeitschrift HDTV hat in ihrer Sonderausgabe (5/2015) verschiedene Modelle auf Herz und Nieren geprüft. Vom Design fällt die Leinwand HD Progressive 0.9 von Da-Lite im wahrsten Sinne des Wortes ins Auge. Das Leinwandtuch wird hier fest um einen Rahmen gespannt, Zierblenden sorgen für den nötigen Halt und den versprochenen TV-Look. Der Bildrahmen misst gerade einmal sechs Millimeter und ist somit tatsächlich kaum noch von einem Flachdisplay zu unterscheiden.

Neben einer fulminanten Bilddiagonale von 205 Zentimetern und dem stabilen Rahmenkonzept (UTP Contour) ist die Leinwand von Da-Lite auch noch im unteren Preissegment zu finden und kostet je nach Größe und Beschaffenheit (Stand: 2016) zirka 1.000 Euro. Im Gegensatz zum Flachbildfernseher hängt hier ein nahezu weißes XXL-Rechteck an der Wand, das brillante Farben ermöglicht. Lediglich an der Schwarzdarstellung hapert es, jedenfalls bei Tageslicht. Jedoch wird der Kontrasteindruck besser, wenn der Raum abgedunkelt wird. Dafür muss der Projektor nicht neu kalibriert werden und die Sitzordnung ist fast egal.

Abbildung 429: Rahmenleinwand Frame Vision Light ReAct 3.0 von Draper

Mehr Kontrast unter Tageslichtbedingungen erhält man mit der Rahmenleinwand Frame Vision Light ReAct 3.0 aus dem Hause Draper. Und preiswerter ist sie mit ca. 1000 Euro noch dazu. Der klare Tageslichtvorteil ist in der grauen Beschichtung begründet, welche allerdings auch ihre Nachteile hat. Der Sitzabstand sollte mindestens eine anderthalbfache Distanz betragen, sonst könnte das Muster der Leinwand während der Projektion als störend empfunden werden.

Da man aber in der Regel nicht mit der Nase direkt davor sitzt, überwiegt die überwältigende Schwarzdarstellung, die Plastizität der Farben und nie geahnte Bilddetails. Darüber hinaus wird eine sonst übliche gelbliche Verfärbung bei einfallendem Sonnenlicht konsequent vermieden. Punktabzug gab es von der Redaktion der Zeitschrift HDTV für Kontrast- und Brillanzverlust bei seitlicher Betrachtung sowie das Rahmendesign. Hier wurde nur billiger Kunststoff anstatt Metall verwendet. Darüber hinaus ist die Spannvorrichtung nicht optimal, sodass es mehr als schwerfallen kann, das Tuch perfekt in Form zu bringen.

Ganz anders kommt da die Leinwand der Firma Screen Innovation daher. Denn der Name ist Programm. Das Material von Black Diamond 1.4 ist nicht nur sehr dunkel, sondern vor allem überaus stabil. Anders als herkömmliche elastische Leinwandtücher ist dieses Modell nicht flexibel, weil es aus mehreren Schichten besteht. Aufgrund dessen ist eine vollständige Bildwiedergabe bei Tageslicht realisierbar, Farbbrillanz und Schwarzdarstellung mit Abstand am besten. Abstriche gibt es aber auch hier, wenngleich diese minimal ausfallen.

Abbildung 430: Leinwand „Black Diamond“ von Screen Innovations

Durch die Spezialbeschichtung entstehen Glitzereffekte und Musterstrukturen, die bei einem etwas größeren Abstand allerdings nicht mehr auffallen. Insofern sind auch hier Blickwinkel und Position ein kleines Problem, weshalb ein zweifacher Sitzabstand und eine direkte Sicht empfohlen werden. Aufgrund der kühlen Farbgebung könnte gegebenenfalls neu kalibriert werden. Die Redaktion von HDTV gab der Black Diamond 1.4 von Screen Innovation dennoch volle Punktzahl und die Highlight-Auszeichnung 5/2015, weil sich insbesondere Videospiele und Animationsfilme hier von ihrer besten Seite zeigen können.

Und damit sie dies tun, sollte man ein bisschen Zeit investieren und sich dem optimalen Sitzabstand zu widmen. Die gute Nachricht ist, wie weit und in welchem Winkel man zur Leinwand sitzt, hängt vornehmlich von den persönlichen Vorlieben, den individuellen Möglichkeiten, der Qualität des Beamers und der Leinwand ab (vgl. hierzu die vorhergehenden Ausführungen). Insofern sind Empfehlungen wenig hilfreich. Grundsätzlich sollte man auch hier die menschliche Wahrnehmung berücksichtigen und insbesondere unser Sichtfeld (horizontal und vertikal).

Zur Wiederholung: Beim binokularen Sehen (linkes plus rechtes Auge) eines Erwachsenen beträgt das Gesichtsfeld in seiner horizontalen Ausdehnung maximal 180 Grad, der vertikalen Ausdehnung hingegen 60 Grad nach oben und 70 Grad nach unten. Da nur im Zentrum des Sichtfeldes scharf gesehen werden kann, reduziert sich zum äußeren Rand hin die Wahrnehmung insbesondere bei sich bewegenden Objekten sowie der Mustererkennung, die hier kaum mehr möglich ist.

Deshalb gilt: je größer die Leinwand, desto größer der Sitzabstand. Oder umgekehrt hängt die Größe der Leinwand von der Größe der Räumlichkeit ab. Es macht also wenig Sinn, sich eine 3-Meter-Leinwand in ein Zimmer zu hängen, wenn selbiges nur „briefmarkengroß“ ist.

Virtual Reality

Last but not least soll im Zusammenhang mit „Bildwiedergabesysteme  NEXT GENERATION“ noch ein weiteres Kapitel aufgeschlagen werden, das diese Bezeichnung mehr als verdient.

Natürlich ist die Idee, eine virtuelle Umgebung zu schaffen, an sich nicht neu. Schon in den 1950er Jahren wurde diesbezüglich experimentiert. Spätestens seit den 1970er Jahren kennen wir die 3D-Brille, wenngleich diese nicht mehr im Geringsten mit der modernen Technologie zu vergleichen ist. Unter dem Stichwort „virtual reality“ verbirgt sich nicht nur der absolute Kick für Gamer, die nun endlich vom Sessel aufstehen müssen, um in die dreidimensionale Spielewelt eintauchen zu können.

Abbildung 431: VR-Brille "Project Morpheus" für PS4 von Sony

Auch in der Medizin bedeutet die 3D-Animation eine großartige Chance. Der virtuose Chirurg fällt schließlich nicht einfach so vom Himmel, die professionelle Durchführung minimal-invasiver Eingriffe erfordert eine äußerst präzise und sorgfältige Ausbildung. Dabei ist es zwingend erforderlich, dass nicht direkt am lebenden Objekt herumgeschnippelt wird, sondern Szenarien-Trainings absolviert werden, die einen hohen Grad an Realismus aufweisen sollten. Virtuelle Techniken sind insofern von großem Nutzen und kommen in Form von 3D-Visualisierung und 3D-Interaktion bereits heute in zahlreichen medizinischen Anwendungsfeldern erfolgreich zum Einsatz. Insofern bietet die virtuelle Realität nicht ausschließlich für Gamer einen Ort, in dem man sich bewegen, fühlen und sehr viel erfahren kann. Allerdings zielt der Trend im Entertainmentbereich natürlich vorrangig auf die Gamer ab, wobei die neuesten Entwicklungen zeigen, dass hier weit mehr drinsteckt, als nur „Minecraft“ oder „Call of Duty“. Natürlich ist die Gamer-Community eine dankbare und vor allem zahlungswillige Zielgruppe, weshalb immer mehr Hersteller auf der VR-Welle mitschwimmen wollen.

Die großen Leader im Gamer-Hardwaresektor (Sony und Microsoft) haben natürlich mit PS4 (Project Morpheus), Xbox und Hololens einen gewissen Heimvorteil. Aber tatsächlichen Kultstatus besitzt wohl schon jetzt das Startup Oculus. Im Jahre 2012 gründete Palmer Luckey das Unternehmen und sammelte über die Crowdfunding-Plattform Kickstarter sagenhafte 2,5 Millionen US-Dollar, um seine VR-Brille für den PC zu entwickeln. Nur zwei Jahre später gibt der Medien-Kollos Facebook bekannt, dass er Oculus VR mit zwei Milliarden US-Dollar unterstützt. 2016 soll der Verkaufsstart für das Serienmodell der Rift-Brille sowie Oculus Touch sein.

Abbildung 432: Oculus Rift und Oculus Touch (www.oculus.com)

Darüber hinaus hat sich die Firma Samsung die Oculus-Technologie zunutze gemacht und bringt seit einigen Jahren die Samsung Gear VR heraus, die von Oculus mitentwickelt wurde. Ganz ohne Spielkonsole (z.B. Xbox oder PS4) funktioniert diese VR-Variante mit dem Smartphone. Ob Video, Game oder Fotos – das neueste Modell Gear VR Innovator Edition for S6 funktioniert per Clipfunktion mit dem Samsung S6 oder S6 Edge. Das Gear-Headset entführt seine Nutzer in eine virtuelle 360-Grad-Surround-Welt, die sich fast wie Kino anfühlt – nur eben mit mehr Privatsphäre und Individualität. Abgesehen davon partizipiert die VR-Brille powered by Oculus vom Quad-HD-Super-AMOLED-Display (2.560 x 1.440 Pixel) und dem Octa-Core-Prozessor des S6/S6 Edge.

Dank ausgefeilter Virtual-Reality-Technologie von Oculus folgt die VR-Brille den Kopfbewegungen seines Trägers und gibt Gamern so das Gefühl, mitten im Geschehen ihres Lieblingsspiels zu sein. Sich während eines Spiels umzudrehen, ist für viele sicherlich eine komplett neue Erfahrung. Navigiert wird im Übrigen über ein Samsung Gamepad oder andere Gaming-Controller auf Android-Basis.

Das 96°-Blickfeld garantiert aber auch einen einzigartigen Filmgenuss. Über die Cinema-App von Oculus können Film-Clips sowie Previews und sogar die Oberfläche des Mondes geladen werden. Die eigenen Videos aus der Mediathek oder per Stream erscheinen in einer völlig neuen Perspektive. Für den 360°-Effekt bietet Oculus ebenfalls eine App an, über die man virtuelle Helikopterflüge oder sogar Zeitreisen unternehmen kann.

Abbildung 433: VR-App DISCOVER Gear powered by Oculus (www.samsung.com)

Kurzum: Alles, was wir aus Science-Fiction-Filmen oder -Büchern kennen, ist längst Realität. Ob virtuell, ultrahochauflösend, nativ, dreidimensional, rasend schnell oder brillant scharf – wir schreiben das Jahr 2016, die Zukunft ist heute.


Impressum     Sitemap     Home

Off Canvas Menü