Dienstag, 12.12.2017 22:50 Uhr

IFA 2016 in Berlin - UHD HDR, DVB-T2 HD, 5G

Verantwortlicher Autor: Gerhard Bachleitner München, 24.09.2016, 20:09 Uhr
Kommentar: +++ Internet und Technik +++ Bericht 4669x gelesen
Dramatischer Zugewinn an Bildinformation durch HDR, hier als fototechnische Simulation des Autors vom Olympiastadion
Dramatischer Zugewinn an Bildinformation durch HDR, hier als fototechnische Simulation des Autors vom Olympiastadion  Bild: G. Bachleitner

München [ENA] Wer diese Abkürzungen auflösen kann, ist schon ziemlich gut informiert. Aber auch dann konnte er einiges Neue erfahren, wenn er Anfang September 2016 die IFA in Berlin besucht und sich nach den Details erkundigt hat. Manches stellte sich auf Nachfrage bei den Anbietern doch anders dar.

Erwartungsgemäß dringt Ultra-HD, das Bildschirmformat mit der vierfachen HD-Auflösung, immer weiter vor und gilt, vor allem bei größeren Geräten, als selbst-verständlich und unverzichtbar. Unterschiede gibt es nach wie vor, und ein Teil davon läßt sich mit persönlichem Augenschein oder mit Blick in den Geldbeutel aufklären. Samsung propagiert weiterhin erfolgreich seine Quantenpunkte, Quantum Dots, und hält LCD für die Technik der Wahl. LG glaubt an OLED, und sogar bei Loewe bildet jetzt ein OLED die Spitze des Segments - mit dem schwärzesten Schwarz, das es je gab. Nur eine geringe Rolle spielen Projektoren und Laser-TV.

Fast alle Hersteller stellen HDR in den Vordergrund und bewerben diese Technik zur Kontrasterweiterung als signifikante Bildverbesserung. Das ist auch gut so, obwohl bei manchen Demonstrationen das Standardbild offenbar absichtlich ein wenig unvorteilhaft eingestellt wurde. Die Sache mit HDR ist jedoch keineswegs so einfach, wie die Hersteller glauben machen möchten und wie zwei sehr informative Gesprächs-runden der Deutschen TV-Plattform aufzeigen konnten.

Die erste Ernüchterung bestand schon darin, daß der für HDR eigentlich nötige Helligkeitsumfang von 1000 cd/m² (in amerikanischer Terminologie "Nits") von kaum einem Massen-markt-endgerät erreicht wird, und der vorgesehene erweiterte Farbraum BT. 2020, der aber das menschliche Wahrnehmungsvermögen auch erst zu drei Vierteln ausschöpft, ist derzeit ebenfalls eher eine Zielvorstellung als eine in Geräten implementierte Eigenschaft. Im Normal- und Idealfall wird HDR im Bildsignal kodiert, bei der Wiedergabe dekodiert, muß also auf einer Vereinbarung beruhen.

Für das Medium der UHD-Bluray gibt es eine solche Vereinbarung in der Tat, und weil solche Entscheidungen üblicherweise von der weltgrößten Filmindustrie, der amerikanischen, getroffen werden, nimmt es nicht wunder, daß man hier einem Verfahren von Dolby, Dolby Vision, den Zuschlag erteilt hat. Dies wäre nicht weiter schlimm (außer für die unmittelbaren Konkurrenten), doch hat dieses Verfahren, wie uns Stephan Heimbecher von der UHD-Arbeitsgruppe der Deutschen TV-Plattform erklärte, den Nachteil, auf Nach-bear-beitung(szeit) angewiesen zu sein, weil, grob gesprochen, jede Szene mit Meta-daten über die belichtungsrelevanten Parameter versehen wird.

Für Live-Sendungen, wie sie im Fernsehen oft und bei Sky mit Fußball ständig vorkommen, ist dies eine ganz ungünstige Ausgangslage. Daher haben die Fernsehanstalten BBC und NHK mittlerweile ein anderes Verfahren vorgeschlagen, HLG, Hybrid Log-Gamma, das inzwischen ebenfalls bei der ITU standardisiert wurde. Zum Glück ist der technisch-rechnerische Aufwand für die beiden als "Transfer-Funktionen" bezeichneten Prozesse nicht so groß, daß man sie nicht noch nachträglich per Firmware-Aktualisierung in die Dekoder implementieren könnte. Sky hat jedenfalls genau dies vor: den derzeit als Leihgerät verteilten UHD-Dekoder per Update HDR-tauglich zu machen.

Nun taucht aber das neue Problem auf, wie der Dekoder oder Fernseher zwischen Dolby-Vision (von der Scheibe) und HLG (vom Satelliten) unterscheiden kann. Dafür braucht die Geräteschnittstelle HDMI ebenfalls eine Aktualisierung - und die zieht sich hin. Man könne von Glück sagen, wenn die Signalisierung bis zum Jahresende vereinbart sei, gab Heimbecher zu verstehen, der zugleich darauf hinwies, daß das HDMI-Gremium seinerseits anderen amerikanischen Normierungsgremien verpflichtet sei, die auch erst mitspielen müßten.

So bietet HDR also derzeit nicht das Bild einer fertigen Funktion, sondern einer Baustelle und erinnert nicht zufällig an die unerfreuliche Einführungsphase von UHD, als etwa zwei Jahre lang Geräte ohne den essentiellen HEVC-Dekoder und ohne die entsprechend aktualisierte HDMI-Schnittstelle auf den Markt gebracht wurden. Kommunikationssysteme haben mittlerweile eine immense Komplexität angenommen, doch die dafür nötigen Standardisierungsgremien und -prozesse haben damit nicht Schritt gehalten, so daß immer wieder Voreiligkeiten oder Verzögerungen in Teilbereichen auftreten und das jeweilige System aus der Balance bringen.

Das Nachsehen hat der Kunde, der zu früh - manchmal auch zu spät - kauft und dann von bestimmten Funktionen ausgeschlossen bleibt. Samsung überspielt die unabgeschlossene Normierung mit dem Verzicht auf selbige, bietet HDR also nur wiedergabeseitig, gewissermaßen als Rekonstruktion oder Simulation an. Auch Sony, wo man Dolby Vision noch nicht unterstützt, verfolgt diese Strategie und spricht von HDR Remastering. Ältere Zeitgenossen werden sich an Radios erinnern, die noch kein Stereo dekodieren konnten, aber Pseudo-Stereo anboten, und beim Fernsehton wird auch heute noch gerne Mehrkanalton aus zwei Lautsprechern simuliert.

Eine HDR-Simulation muß nicht schlecht sein, weil die Strategie der visuellen Dynamik-verbreiterung gut bekannt ist und für Standardsituationen unschwer eingerichtet werden kann. Die vielfältigen Möglichkeiten von HDR, wie sie dann auch ein Regisseur möglicherweise differenziert anwenden möchte, kommen dabei jedoch nicht zum Tragen. Im Themengebiet HDR kursieren noch zwei weitere erklärungsbedürftige Begriffe. Hersteller werben mit "HDR10", was eine Anspielung auf 10 bit Farbtiefe sein soll.

Das Dolby-Verfahren gehört in der ITU-Standardisierung zu einer Spezifikation, die sich "Perceptual Quantization" (PQ) nennt, was man etwa mit wahrnehmungsorientierter Quantisierung übersetzen könnte. Diese Spezifikation entspricht ungefähr jenem Vorgehen, das man im Audiobereich, also bei Verstärkern und Lautsprechern, vor Jahrzehnten als "physiologische Lautstärkeregelung" bezeichnet hat und das unter dem neudeutschen Begriff "Loudness" gelegentlich noch heute verwendet wird - eine Filterkurve, die das Signal dem menschlichen Wahrnehmungsvermögen anpaßt.

DVB-T2 HD - Logo und Lüge

Die Aktualisierung des Antennenfernsehens zu DVB-T2 war auf der Deutschen TV-Plattform und auf der PTKO (Presseforum der Produktions- und Technik-Kommission von ARD/ZDF) ein wichtiges Thema, denn sie ist ja in vollem Gange und wird im kommenden März zur Abschaltung von T(1) führen. Die Zuschauer müssen also vorbereitet werden. Leider setzten sich die im Vorjahr bereits kritisierten Irritationen durch die unglückliche Namenswahl, T2 HD, und das unschöne Logo, mit zwei weiteren Faktoren fort. Der Sendernetzbetreiber heißt nach einer Firmenübernahme nun Freenet TV und hatte in seinem früheren Leben Internetzugang angeboten - den damals natürlich niemand als kostenlos vermutet hat.

Jetzt aber, im per se kostenlosen terrestrischen Fernsehen, signalisiert Freenet gerade das Gegenteil, nämlich die kostenpflichtige Variante des Senderbuketts, die Privatsender. So wundert sich der Zuschauer, weshalb er außer der Zusicherung von DVB-T2 noch ein Freenet TV brauchen soll, das gerade nicht "free" ist. Aber es kommt noch schlimmer. Denjenigen Dekodern, die auf den Schacht für die Bezahlkarte verzichten, weil ihre Besitzer grundsätzlich nicht daran denken, für werbe-finanziertes Fernsehen zusätzlich zu bezahlen, wird das besagte Logo verweigert.

Dies ist höchst problematisch, weil damit der wichtige Einstiegspreissektor negiert wird und implizit behauptet wird, daß diese Geräte zum Empfang von DVB-T2 HD nicht geeignet wären. Dies aber ist eine falsche Behauptung. Beim Satellitenempfang, wo bekanntlich die "Free-to-air"-Boxen seit langem ein etabliertes Marktsegment darstellen, hätten die Verantwortlichen studieren können, wie man eine solche Funktionsdifferenzierung organisiert: alle Geräte erhalten das DVB-Logo, und diejenigen mit Schacht zusätzlich eine Kennzeichnung für das CI+Modul.

Da die irreführende Logo-Entscheidung nicht beiläufig getroffen worden sein kann, muß man annehmen, daß eine Beeinflussung des (potenziellen) Käufers zu Gunsten des kostenpflichtigen Anteils von DVB-T2 beabsichtigt war, in der Hoffnung, daß ihn die unentgeltliche Probephase schließlich doch zu einem Abo verführen könne. Zu einer solch fragwürdigen Marktpolitik sollte ein Logo keinesfalls mißbraucht werden.

Man kann nur hoffen, daß sich zum einen die Hersteller von der ungerechtfertigten Ausgrenzung und Diskriminierung nicht abschrecken lassen, sondern unerschrocken die Einsteigergeräte bauen, und zum anderen die Händler den Kunden auch sachlich beraten und über die gezielte Desinformation aufklären, und zum Dritten auch die Käufer selbst wach und interessiert genug sind, hinter das Logo zu schauen und die wirklichen technischen Eigenschaften der Geräte in den Blick zu nehmen.

5G

Zu einer überraschenden Präsentation von 5G im Umkreis der IFA lud die Deutsche Telekom ins Olympiastadion ein, als dort gerade das 75te Stadionfest stattfand. Nicht, daß man den gleichzeitigen Video-Upload von 80.000 Menschen hätte simulieren wollen, aber Video wurde tatsächlich zur Demonstration der Leistungsfähigkeit des künftigen Mobilfunkstandards benutzt. Man hatte sich die 360-Grad-Kamera des Fraunhofer-Instituts ausgeliehen und konnte dem Zuschauer so mit einer VR-Brille einen Rundumblick aus der Mitte des Stadions bieten.

Natürlich sah das Video bei entsprechend höherer Bandbreite und besseren Bildparametern auch wirklich schöner aus, aber darauf kam es bei dieser mit einer Nettodatenrate von ca. 3,3 Gbit/s operierenden Funkzelle nicht an. Viel wichtiger sei, so Markus Borchert, Europa-Chef von Nokia, wo man nach wie vor Netzwerktechnik entwickelt, die Minimierung der Latenzzeit auf möglichst 1 ms. Für eine künftige Verkehrstelematik sei dies unerläßlich, und das Meßgerät des Demonstrators zeigte auch schon 2,9 ms. 5G ist ja noch nicht ganz fertig, doch an der abschließenden Optimierung besteht kein Zweifel.

Eine andere Herausforderung ist die Integration einer immer heterogener werdenden Endgeräte-population - unvermeidliche Folge des "Internets der Dinge". Die Netztopologie muß entsprechend flexibel werden, ein Vorgang, der unversehens an den Umbau des Stromnetzes erinnert, der durch die Vielzahl privater Stromerzeuger nötig gemacht wird und ebenfalls noch im Gange ist. Die berliner Wirtschaftssenatorin Cornelia Yzer nahm das Projekt "5G Testfeld Berlin" zum Anlaß, Berlin als "digitale Hauptstadt" zu präsentieren, was man als Standard-Standort-Selbstlob durchgehen lassen kann. Ihre These, daß Reindustrialisierung nur mit Hilfe der Digitalisierung möglich sei, enthält aber wohl eine nicht ungefährliche kleine Illusion.

Daß Reindustrialisierung nun wieder wünschenswert sein soll, nachdem die Deindustrialisierung doch über viele Jahre hinweg vielerorts und nicht zuletzt in Berlin eifrig betrieben worden ist, bedürfte bereits einer eigenen Rechtfertigung (um nicht zu sagen: Fehlereinsicht). Daß die Digitalisierung nun aber der Reindustrialisierung wegen stattfinden möge, verkennt systematisch ihr Potenzial und unterschätzt ihre "disruptive Energie", um das epidemisch gewordene Modewort hier einmal zu verwenden. Wer glaubt, die volkswirtschaftliche Wertschöpfung weiterhin oder erneut von einer Reindustrialisierung erwarten zu können und die Digitalisierung sozusagen nur zur Gewinnmitnahme einsetzen zu müssen, wird sich irgendwann getäuscht sehen.

Für den Artikel ist der Verfasser verantwortlich, dem auch das Urheberrecht obliegt. Redaktionelle Inhalte von European-News-Agency können auf anderen Webseiten zitiert werden, wenn das Zitat maximal 5% des Gesamt-Textes ausmacht, als solches gekennzeichnet ist und die Quelle benannt (verlinkt) wird.
Zurück zur Übersicht
Info.