TV Technik

 

Konrad Maul, ehem. Entwicklungsleiter bei Grundig, schreibt über die Meilensteine der Fernsehentwicklung bei Grundig.

 

  Meilensteine der Fernsehentwicklung bei Grundig

Konrad Maul auf der IFA 2007 in der Grundig Halle vor den ersten Grundig 100Hz LCD-TV-Geräten

 

Das weltweit erste flimmerfreie TV-Seriengerät

Der Grundig Monolith 70-390/7 Text mit 100 Hz Technik: oder wie die digitale Bildsignalverarbeitung in Grundig High-End-Fernsehgeräte Einzug hielt.

 

Wie das Spielen auf den Bildschirm kam

Vom ersten Videospiel über den Grundig Super Play Computer bis zur Virtual Reality

 

Der Weg zur naturgetreuen Bildwiedergabe und die physiologischen Hintergründe

Die räumliche Bildwiedergabe (3D / Stereo Vision / Stereopsis)

 

Geschichte Grundig 3D TV Entwicklung 1989-2008

 

Der Weg zur naturgetreuen Bildwiedergabe und die physiologischen Hintergründe

Displaytechniken und Verbesserungen der Bewegungs- und Schwarzwiedergabe (100Hz / 200Hz / Backlightscanning)

 

Das erste Grundig LCD-TV Gerät

 

 

 

Das weltweit erste flimmerfreie TV-Seriengerät

Der Grundig Monolith 70-390/7 Text mit 100 Hz Technik: oder wie die digitale Bildsignalverarbeitung in Grundig High-End-Fernsehgeräte Einzug hielt.

 Grundig der Vorreiter der 100 Hz Technik.

Grundig der Vorreiter der 100 Hz Technik.

1987 präsentierte Grundig  mit dem Monolith 70-390/7 Text weltweit das erste 100 Hz TV-Seriengerät. 20 Jahre später setzte Grundig die Erfolgsgeschichte von 100 Hz mit einem der ersten 100 Hz LCD-TV-Geräte, dem Lenaro 37 LXW 94-9710, fort. Das Foto zeigt den Autor auf der IFA 2007 in der Grundig Halle vor diesen ersten 100 Hz LCD-TV-Geräten.

 

Stand der Digitaltechnik

Die Digitalisierung ist heute Thema in allen Medien und wird auch in der breiten Öffentlichkeit diskutiert. Stillschweigend wird davon ausgegangen, dass dies eine Technik ist, die erst in den beiden letzten Jahrzehnten entwickelt worden wäre. Dem ist aber nicht so. So hatte Harry Nyquist, ein schwedisch-amerikanischer Ingenieur der Elektrotechnik, schon 1927 festgestellt, dass ein analoges Signal (z. B. Sprache, Musik oder Bilder) mit mehr als der doppelten Signalfrequenz abgetastet werden muss um aus dem digitalen Abbild wieder das analoge Ausgangssignal rekonstruieren zu können. D.h., wenn wir vom menschlichen Hörbereich, der bis ca. 20 000 Hz geht, ausgehen, muss man für die Digitalisierung von akustischen Signalen mindestens 40 000 Abtastwerte pro Sekunde entnehmen (bei der Audio-CD verwendet man 44.100 Abtastwerte pro Sekunde). Nyquist hatte sein Forschungsergebnis 1928 publiziert. Sein Abtasttheorem und seine Erforschung der erforderlichen Bandbreite bildeten eine wichtige Grundlage für Claude Shannons theoretische Arbeiten, die letztlich zur Begründung der Informationstheorie führten. Im Folgenden soll nun gezeigt werden wie die digitale Bildsignalverarbeitung in die Grundig Fernsehgeräte Einzug hielt, denn Mitte der 1980er Jahre machten die Fortschritte in der IC-Technologie es möglich Analog Digital Converter (ADC) zu fertigen, die schnell genug waren um Bildsignale zu digitalisieren und auch preislich für den Einsatz in der Consumer-Elektronik geeignet waren.

Der Halbleiter Hersteller ITT Intermetall (später Micronas) hatte bereits Anfang der 1980er Jahre  unter der Marketingbezeichnung Digit2000 einen Satz von Integrierten Schaltkreisen (IC) entwickelt, der die komplette Video- und Audiosignalverarbeitung im Fernsehgerät digital durchführte. Einige Unterhaltungselektronikhersteller setzten dieses Konzept in ihren Geräten ein. Da es aber von der Bild- und Tonqualität einem analogen IC-Konzept unterlegen war und somit für den Kunden keinen verbesserten Nutzen hatte, ging Grundig einen anderen Weg, wie im Folgenden erläutert wird.

 

Stand der Bildqualität von Fernsehgeräten in den 1980er Jahren

Die in den 1980er Jahren, nach dem PAL-System arbeitenden Fernsehgeräte lieferten eine  durchaus  gute Bildqualität. Trotzdem waren im damaligen analogen Übertragungssystem  (CCIR-Norm B und G; Horizontalablenkfrequenz 15 625 Hz; Vertikalablenkfrequenz 50 Hz;  625 Zeilen im Zeilensprungverfahren) noch bestimmte Störeffekte vorhanden. Seit der Einführung dieses Übertragungssystems waren Bildröhren mit höherer Bildhelligkeit sowie größeren Bildformaten entwickelt worden, die die folgenden vier Effekte nun stärker sichtbar werden ließen:

 

Großflächenflimmern

Große, helle Bilder oder Bildteile zeigten ein deutliches Flimmern. Die Ursache dafür lag in  der zu niedrigen Bildwechselfrequenz. Physiologische Untersuchungen erbrachten, dass  Bildwechselfrequenzen von mindestens 70 Hz für eine flimmerfreie Bildwiedergabe erforderlich waren. Dies galt bereits für Bildschirmarbeitsplätze in der EDV-Technik als Richtlinie.

 

Zwischenzeilenflimmern

Bedingt durch das Zeilensprungverfahren sprangen horizontale oder nahezu horizontale  Linien bzw. Kanten des Bildinhaltes (z. B. die Grundlinie bei Tennisübertragungen) im  Rhythmus der Vollbildfrequenz also mit 25 Hz. Der Effekt wurde auch mit Kantenflackern  oder Zwischenzeilenflimmern bezeichnet.

 

Cross-Color

Durch Übersprechen des Luminanzsignals in den  Color-Verarbeitungsteil des Fernsehgerätes wurden feine Helligkeitswechsel des Luminanzsignals eingefärbt, z. B. deutlich sichtbar wenn der Nachrichtensprecher ein graugestreiftes Jackett trug.

 

Cross-Luminanz

Durch Übersprechen des Chrominanzsignals in den Luminanzverarbeitungsteil des Fernsehgerätes wurden bei Farbsprüngen Störeffekte sichtbar, z. B. unbunte Störung beim Farbbalkentestbild an den Farbübergängen.

Der Grundig Monolith 70-390/7 Text, das erste 100 Hz TV-Seriengerät

Der Grundig Monolith 70-390/7 Text, das erste 100 Hz TV-Seriengerät. Der Normwandler-Baustein bestand aus zwei Platinen (im Foto aufgeklappt) mit ca. 100 Integrierten Schaltkreisen. Als Gruppenleiter war der Autor Herr Konrad Maul für dieses 100 Hertz-TV-Gerät verantwortlich.

 

Verdopplung der Bilderzahl pro Sekunde beseitigt Großflächenflimmern

Legte man die damaligen und auch heute noch bei Fernsehgeräten üblichen Betrachtungsabstände von ca. 4- bis 5facher Bildhöhe zugrunde (bei der damals üblichen 70 cm Bildschirmdiagonale ergab sich dann ein Betrachtungsabstand von ca. 2 bis 3 m) war für die meisten Testpersonen das Großflächenflimmern am störendsten. Da es systembedingt war, das PAL-Übertragungs-Verfahren aber beibehalten werden musste, erschien es am sinnvollsten,  im Fernsehempfänger selbst das Großflächenflimmern zu beseitigen. Dies geschah mit digital arbeitenden Bildspeichern. Sie ermöglichten eine Art Normumwandlung im Fernsehgerät. Aus 50 Halbbildern pro Sekunde wurden 100 Halbbilder pro Sekunde erzeugt. Bei 100  Halbbildwechseln in der Sekunde war selbst bei sehr großen Helligkeitswerten kein Großflächenflimmern mehr erkennbar.

Wurde diese Flimmerreduktion zusammen mit der damals schon verwendeten   Farbsignalsprung-Versteilerungs­Schaltung (CTI = Colour Transient Improvement) eingesetzt, ergab dies einen außerordentlich guten Bildeindruck. Mit dem Monolith 70-390/7 Text wurde nun erstmals ein großflächenflimmerbefreites Fernsehgerät in das Produktspektrum von Grundig aufgenommen (Abb. 1). Da dieses Gerät, wie schon erwähnt eine Art Normumwandlung  durchführte, ließ diese sich am besten realisieren, wenn man das Gerät in drei Funktionsbereiche aufgliederte (Abb. 2). Diese drei Teilbereiche waren  Empfangs-Farbdecoderteil, Normwandlerbaustein und Displayteil.

Das Empfangs-Farbdecoderteil arbeitete mit 50 Hz Vertikal- und 15 625 Hz Horizontalfrequenz;  deshalb  wird es hier kurz mit 50-Hz-Ebene bezeichnet. Signale dieser Ebene erhalten im Folgenden den Index 50. Das Displayteil arbeitete mit 100 Hz Vertikal-  und 31 250 Hz Horizontalfrequenz; deswegen wird es hier kurz mit 100-Hz-Ebene bezeichnet. Signale dieser Ebene erhalten im Folgenden den Index 100. Im Anschluss werden die Teilbereiche näher beschrieben. Abb. 2 zeigt den mechanischen Aufbau des Monolith 70-390/7 Text und Abb. 3 die Blockschaltung der Video- und Ablenksignal-Verläufe. Auch der Videotext wurde im Monolith 70-390/7 Text auf flimmerfreie 100 Hz Wiedergabe konvertiert. Darauf soll aber hier nicht eingegangen werden.

Der Grundig Monolith 70-390/7 Ansicht von hinten

Grundig Monolith 70-390/7 Text weltweit das erste flimmerfreie Fernsehgerät. Die Ansicht von hinten zeigt die Funktionsbereiche Empfangs- und Farbdecoderteil, Normwandlerbaustein und Displayteil. Die zwei Chassis und der Normwandlerbaustein sind zur besseren Sichtbarkeit herausgezogen.

 

Empfangs- und Farbdecoderteil

Das Empfangsteil war im wesentlichen identisch mit dem eines Monolith 70-390/9 mit normaler 50-Hz-Bildwiedergabe. Daher wird hier nur auf die Unterschiede in der Signalverarbeitung eingegangen. Der analoge Farbdecoder arbeitete mit dem TDA 4555 und lieferte das demodulierte Luminanzsignal (Y50) und die demodulierten Farbdifferenzsignale  (-(R-Y)50 und -(B-Y)50). Diese Signale wurden als Schnittstelle zum Normwandlerbaustein (Bildspeicher) gewählt, da sie erstens von der Farbfernsehnorm unabhängig waren und zweitens bezüglich des Speicherplatzbedarfes eine ökonomisch vertretbare Lösung darstellten.

Blockschaltung der Video- und Ablenksignal-Verläufe

Blockschaltung der Video- und Ablenksignal-Verläufe des Grundig Monolith 70-390/7 Text

 

Digitaltechnik für den Normwandler

Für die 50/100-Hz-Konvertierung sind damals verschiedene Prinzipien diskutiert worden. Als guter Kompromiss hinsichtlich Leistungsfähigkeit und Aufwand wurde die Halbbildwiederholung gesehen, da keine Anpassung an Bewegungsabläufe erforderlich war. Dabei wurde das vom Sender empfangene Halbbild (20 ms) in einem Halbbildspeicher abgelegt und anschließend mit einer Halbbilddauer von 10 ms zweimal auf dem Bildschirm dargestellt. Um schnellstmöglich ein großflächenflimmerbefreites Gerät fertigen zu können,  wurde auf die Verwendung von kundenspezifischen Schaltkreisen verzichtet. Deshalb  mussten als Speicher-Schaltkreise digitale CCD-Speicher (317 kBit) verwendet werden, da diese einen wesentlich geringeren Steueraufwand für die mit Standard- Logik-Schaltkreisen  (74F..., 74LS...,74HCT...) aufgebaute Speichersteuerung erforderten.

Dieser digitale CCD-Speicher (SAA 9001 von Valvo) besaß eine serielle Struktur. Dies bedeutete bei Verwendung in einem Normumsetzer zur Halbbildverdoppelung, dass zwei Halbbildspeicher  benötigt wurden. Der eine wurde mit dem jeweils aktuellen Sender-Halbbild beschrieben, während der andere, der das vorherige Halbbild enthielt, zweimal aus­ gelesen und sein Inhalt auf dem Bildschirm dargestellt wurde.

Dieser Nachteil der seriellen Speicherstruktur des digitalen CCD-Speichers, der bei Großflächenflimmerbefreiung eine Verdoppelung der Speicherkapazität erforderte wurde aber in Kauf genommen um Time to Market für das Grundig 100 Hz-Fernsehgerät möglichst kurz zu halten.

Das Einfügen der CTI-Schaltung nach der  D/A-Wandlung ermöglichte, die Abtastrate für die beiden Farbdifferenzsignale drastisch herabzusetzen. Da die farbfernsehnormunabhängigen Komponenten (Y50), -(R-Y)50 und -(B-Y)50 digitalisiert wurden, war PAL/SECAM-Betrieb möglich. Auf NTSC­Wiedergabe wurde bewusst verzichtet, da dies eine aufwendige Speichersteuerungs-Umschaltung erfordert hätte (60 Halbbilder/s).

Die Schaltungsauslegung und Funktion des Normwandlers ist aus der Blockschaltung in Abb. 4 zu ersehen.

 

Blockschaltung des Normwandlers des Grundig Monolith

Blockschaltung des Normwandlers des Grundig Monolith 70-390/7 Text.

 

Sowohl für die A/D- und die D/A-Umsetzung der Luminanz- und Farbdifferenzsignale als auch für die Speichersteuerung benötigte man geeignete Taktsignale. Wichtig war dabei, dass diese Taktsignale zeilenfrequenzverkoppelt waren, d. h., die Taktsignalfrequenzen mussten ein ganzzahliges Vielfaches der Zeilenfrequenz (fz = 15,625 kHz) sein. Nur dann konnte  eindeutig und in einfacher Weise (ohne aufwendige Interpolation) ein im Speicher abgelegter Signalwert auch einem bestimmten Bildpunkt auf dem Bildschirm zugeordnet und Auflösungsverluste vermieden werden. Die den abgetasteten Signalwerten auf dem Bildschirm zugeordneten Bildpunkte lagen dann nämlich in einem festen, orthogonalen (rechtwinkligen)  Raster zueinander und die Bildpunkte einzelner Vollbilder fielen genau übereinander. Wie Abb. 4 zeigt, erhielt der Block "Takt- und Steuersignalgenerator" einen Zeilenimpuls ABK50 (Bursttastimpuls), der über eine  PLL (Phase Locked Loop) den VCO (Voltage Controlled Oscillator) des Taktgenerators (40,5 MHz) mit der Zeilenfrequenz 15,625 kHz verkoppelte.

Aus diesem 40,5-MHz-Systemtakt wurden dann alle anderen Takt- und Speichersteuerungssignale der Bildnormumsetzung abgeleitet und diese waren damit ebenfalls zeilenverkoppelt. Um den Speicheraufwand gering zu halten, wurden die Luminanzinformation (Y50) und die Farbinformationen -(R-Y)50 und -(B-Y)50 auf zwei getrennten Signalwegen umgewandelt. Damit war eine optimale Anpassung an die jeweils erforderliche Signalbandbreite möglich.

Bei der vor dem Speicher liegenden A/D-Umsetzung wurde für das Y50-Signal eine  Amplitudenauflösung von 7 Bit verwendet. Bei der für das Luminanzsignal (Y50) gewählten Abtastrate von 10,125 MHz ergaben sich 540 Abtastwerte pro Fernsehzeile. Für die beiden       Farbdifferenzsignale -(R-Y)50 und -(B-Y)50  wurde eine Amplitudenauflösung von 6 Bit verwendet. Die Abtastrate für die Farbdifferenzsignale betrug 1,6875 MHz. Somit ergaben sich für jedes Differenzsignal 90 Abtastwerte pro Fernsehzeile. Insgesamt wurden pro Halbbild 294 Zeilen Bildinhalt abgespeichert.

Damit ergab sich ein Speicherbedarf für das Y50-Signal pro Halbbild von:

7 Bit x 540 x 294 = 1,2 MBit

Für  das -(R-Y)50  und -(B-Y)50 Signal ergab sich pro Halbbild:

6 Bit x (90+90) x 294 = ca. 0,3 MBit

Insgesamt wurden also pro Halbbild 1,5 MBit Speicherkapazität benötigt. Für einen Halbbildspeicher des Normumsetzers wurden somit fünf CCD­Speicher SAA 9001 (mit    jeweils 317 520 Bit) benötigt, vier für das Luminanzsignal und einer für die beiden Farbdifferenzsignale. Für die benötigten zwei Halbbildspeicher des Normumsetzers wurden somit  insgesamt zehn  digitale CCD-Speicher eingesetzt. Um immer optimale A/D-Converter-Aussteuerung zu gewährleisten, war dem Y50-A/D-Umsetzer eine Regelstufe mit Klemmschaltung (TDA 9045) vorgeschaltet. Weiterhin war ein Tiefpass am Y50-Eingang erforderlich (Anti-Aliasing-Filter). Nach der D/A-Umsetzung mussten das Y100 und die Farbdifferenzsignale -(R-Y)100 und -(B-Y)100  zunächst durch Tiefpässe (TP)  gefiltert  werden bevor sie an die Video/RGB-Kombination (TDA 3505) bzw. an den CTI Schaltkreis (TDA 4565) geführt wurden.

 

Displayteil

Da Luminanzsignal und Farbdifferenzsignale aus dem Bildspeicher des Normumsetzers doppelt  so schnell ausgelesen wie eingeschrieben wurden, mussten CTI, Video/RGB-Kombination  und  RGB-Endstufen eine obere Grenzfrequenz haben, die etwa bei der doppelten Übertragungsbandbreite des entsprechenden Eingangssignals lag.

Da die Vertikalablenkendstufe des TDA 2653 A über eine Wechselstromkopplung mit der  Ablenkeinheit verbunden war, mussten beim 100-Hz-Betrieb Rasterkorrektursignale direkt  in die Vertikalablenkspulen eingespeist werden. Diese Korrektursignale wurden vom   Steuersignalgenerator des Normwandler-Bausteins erzeugt (Shift-Video). Das Shift-Video-Signal war immer dann aktiv, wenn normaler Fernseh-Video­Betrieb vorlag. Dann mussten mit Hilfe dieses Shift-Video-Signals  jeweils vier aufeinanderfolgende 100- Hz-Halbbilder, in der Zeitdauer einer 25 Hz Vollbildsequenz des Senders, in die zueinander richtige  Vertikallage gebracht werden (sogenannter AABB-Betrieb).

Die Erhöhung der horizontalen Ablenkfrequenz auf 31 250 Hz erforderte einen kompletten Neuentwurf der Horizontalablenkschaltung. Insbesondere an Ablenkeinheit,  Horizontalendstufe und Zeilentransformator wurden  sehr hohe Anforderungen gestellt. Es wurde ein System Zeilentrafo/Kaskade entwickelt, das bei Betrieb mit 31,25 kHz einen  entsprechend niedrigen Innenwiderstand in der Hochspannungserzeugung aufwies.

Das Netzteil musste dem erhöhten Leistungsbedarf der Horizontalablenkschaltung und der  Zusatzbelastung des Normwandlerbausteins angepasst werden. Weiterhin wurde, um jegliche Interferenzen mit der Horizontalablenkschaltung zu vermeiden, ein zeilenverkoppeltes Schaltnetzteilkonzept mit 31,25 kHz gewählt.

Der Monolith 70-390/7 Text wurde 1987/88 in limitierten Auflage gefertigt und erzielte ausgezeichnete Testergebnisse.

Die Testzeitschrift video schrieb in ihrer Ausgabe 9/1987: „Im video-Testlabor trat der erste 100-Hertz-Serienfernseher gegen sein Schwestermodell ohne Flimmerfrei-Schaltung an, den Monolith 70-390, der in der video-Bestenliste Platz eins inne hat. Der bei der Bildqualität erzielte Fortschritt war allen Testpersonen sofort augenfällig.“ Und schlussfolgerte schließlich: „Denn oberstes Ziel bleibt für die Fürther die Verbesserung des bewegten Bildes.“ Dieser Erfolg war eine sehr schöne Bestätigung und zugleich Ansporn auch in Zukunft weiter eine Vorreiterrolle bei der Entwicklung von Bildqualitätsverbesserungen zu spielen.  

 

Ausblick: Grundig 100 Hz Weiterentwicklungen bis zum 100 Hz LCD-TV

Im Rahmen der Weiterentwicklung der Halbleitertechnologie konnten aufgrund der nun möglichen kleineren Strukturen der Integrierten Schaltkreise (Large Scale Integration) immer mehr Funktionen in die ICs integriert werden. So konnten in den folgenden Jahren alle noch bestehenden Störeffekte (Artefakte) des PAL-Systems unter Beibehaltung des analogen Übertragungsstandards im Fernsehgerät durch digitale Signalverarbeitung beseitigt werden. Abb. 5 zeigt den zeitlichen Verlauf der weiteren empfängerseitigen Bildverbesserungen in Grundig High-End-Farbfernsehgeräten.

 

Grundig 100 Hz-Innovationen

Grundig 100 Hz-Innovationen

 

Und was ist heute im Zeitalter von Flachbildschirmen und digitaler Übertragungstechnik für  HDTV von der 100 Hz Technik noch geblieben? Das digitale Übertragungsverfahren für HDTV hat die eingangs aufgeführten Schwachstellen des PAL-Systems nicht. Aber Flachbildschirme in LCD- und OLED-Technik haben bei all ihren Vorteilen doch einen Schwachpunkt gegenüber der guten alten Bildröhre. Aufgrund ihres technischen Prinzips können diese Flachbildschirme Bewegung schlechter wiedergeben. Um diesen Effekt zu vermindern kommt die 100 Hz Technik wieder zu Ehren. Es werden durch digitale Signalverarbeitung empfängerseitig zusätzliche Bilder berechnet. Bei den HDTV Standards 720p/50 (ARD, ZDF) und 1080p/50 werden zum Beispiel  zu den vom Sender übertragenen 50 Bildern pro Sekunde weitere 50 berechnet. Besonders hochwertige LCD-TV-Geräte arbeiten sogar mit 200 Hz. Hier kann nicht im Detail auf das Prinzip eingegangen werden aber bei Interesse kann unter http://www.gisela-und-konrad-maul.de/HV07_Essay.pdf  ein Technik-Essay des Autors „Die raffinierten Tricks der Bildverbesserer“ nachgelesen werden, in dem das Prinzip der Verbesserung der Bewegungswiedergabe von LC-Displays erklärt wird.

Und selbst bei UHD1-Phase1, dem Ultra High Definition TV-System mit der Auflösung von 3840 x 2160 Bildpunkten, wird die empfängerseitige Berechnung von Zwischenbildern (100 Hz Technik) zur Verbesserung der Bewegungswiedergabe empfohlen (siehe [8] Sachstand: UHDTV des Instituts für Rundfunktechnik IRT).

Erst bei UHD1-Phase 2 ist dann eine senderseitige (native) Übertragung in HFR (High Frame Rate) also 100 bzw. 120 Bildern pro Sekunde (100 bzw. 120 Hz) vorgesehen um die Bewegungswiedergabe vor allem bei Sportübertragungen zu verbessern.

 

Literatur

[1]   Maul K. L.;G. Müller: TV-Bild ohne Flimmern. Funkschau Nr. 14 (1987)

[2]   Kraus, U. E.: Vermeidung des Großflächenflimmerns in Fernseh-Heimempfängern. Rundfunktech. Mitteilungen Jahrg. 25 (1981), Heft  6.

[3]   Digitaler Halbbildspeicher  für Fernsehgeräte. Elektronik  Nr. 16 (1983).

[4]   Michel, C.: Der Multi-Norm-Farb/RGB­ Baustein. Grundig Technische Informationen Nr. 1 (1985).

[5]   Institut für  Rundfunktechnik: Technischer Bericht  Nr.  B71/85; Großflächenflimmern bei 50 Hz und 60 Hz Bildwechselfrequenz.

[6]   Achterberg, H.: Flimmerfreie Bildwiedergabe in Fernsehgeräten. Valvo Technische Information

[7]   Maul, K. L.: Die raffinierten Tricks der Bildverbesserer. Home Vision Heft 7 (2008)

[8]   Schäfer, Rainer et al.: Sachstand: UHDTV. FKT Nr. 4 (2018)

 

Autor

Dipl.-Ing. (FH) Konrad L. Maul, Certified Counsellor

Konrad L. Maul war 37 Jahre in der Fernsehentwicklung tätig, davon 30 Jahre in leitender Position. Als Gruppenleiter war er für das erste Grundig 100 Hertz-TV-Gerät verantwortlich. Von 2001 bis 2008 leitete er die Fernsehentwicklung der Grundig AG und in der Nachfolge der Grundig Intermedia AG. Heute arbeitet er als Berater für Einzelne, Gruppen und Organisationen in technischen, wirtschaftlichen und sozialen Handlungsfeldern.

https://www.m2counselling.de

Seeing Hearing Engineering - YouTube

M2Counselling - YouTube 

 

URHEBERRECHT / COPYRIGHT

Alle Rechte vorbehalten, all rights reserved,

Konrad L. Maul, Dipl.-Ing. (FH)

D-90459 Nürnberg
 
Dieses Technik-Essay, sein Inhalt und die enthaltenen Ideen sind urheberrechtlich geschützt. Sie dürfen nur zu privaten, wissenschaftlichen und nichtgewerblichen Gebrauch zum Zweck der Information kopiert und ausgedruckt werden. Der Autor behält sich das Recht vor, diese Erlaubnis jederzeit zu widerrufen. Ohne vorherige schriftliche Genehmigung des Autors darf dieses Dokument nicht vervielfältigt, archiviert, oder auf einem Server gespeichert, in Webseiten und Newsgruppen einbezogen, in Online-Diensten benutzt oder auf einer CD-ROM gespeichert werden. Ich erlaube ausdrücklich und begrüße das Zitieren aus diesem Dokument.

 

 

Wie das Spielen auf den Bildschirm kam

Vom ersten Videospiel über den Grundig Super Play Computer bis zur Virtual Reality

 

 2 Teaser

Grundig Super Play Computer SPC 4000 angeschlossen an ein Grundig Lenaro 37 LCD-TV Gerät.

 

Homo ludens – Der spielende Mensch

Spiele sind ein integraler Teil aller Kulturen und die ältesten Formen sozialer Interaktion. Denken wir zum Beispiel nur an Würfelspiele im antiken Rom, wie sie auf Wandmalereien zu sehen sind oder an das älteste Schachlehrbuch aus dem alten Persien. Darum ist es nicht verwunderlich, dass Menschen auch jede neue Technologie früher oder später zum Spielen nutzen, so auch das Fernsehgerät. Aber sehen wir uns zunächst an wie es dazu kam.

 

1. Der Beginn: Das erste Videospiel

Alles begann 1958 in den USA damit, dass der Physiker und Leiter der Abteilung für Mess- und Analyse-Instrumente am Brookhaven National Laboratory William Higinbotham darüber nachdachte, was man denn „Am Tag der Offenen Tür“ des Instituts den Besuchern vorführen könnte. Dabei kam ihm das Benutzerhandbuch des Analogrechners der Abteilung in den Sinn. In diesem Handbuch wurde beschrieben, wie man Kurven auf einem Oszillographenbildschirm darstellen konnte.

Ein Analogrechner wurde damals benutzt um z.B. Differentialgleichungen aus der Regelungstechnik zu lösen, denn die wenigen „Elektronenrechner“, wie damals Digitalrechner noch genannt wurden, waren sehr teuer und für viele Problemstellungen noch nicht geeignet. So ein Analogrechner bestand aus mehreren Operationsverstärkern, die entsprechend des Rechenproblems verschaltet werden konnten. Dabei wurde die jeweilige physikalische Größe durch eine entsprechende elektrische Spannung nachgebildet.

Und in dem besagten Benutzerhandbuch fand sich nun ein Beispiel eines springenden Balls. Das brachte Higinbotham auf die Idee ein Tennisspiel für den „Tag der Offenen Tür“ zu entwickeln. Er nannte es „Tennis for Two“. Abb.1 zeigt ein Bildschirmfoto des Oszillographen, der für die Darstellung verwendet wurde. Der Tennisplatz ist im Aufriss dargestellt, d.h., der Boden als waagrechte Linie, das Tennisnetz als senkrechte Linie. Die Flugbahn des Balls ist durch das Nachleuchten des Bildschirms deutlich zu sehen. Nachdem der Ball im eigenen Feld aufgesprungen war musste der Spieler durch entsprechende Verstellung seines Schlägers den Ball wieder zurückschlagen. Dabei war sogar durch die Verstellung des Schlägerwinkels die Flugbahn durch den Spieler beeinflussbar. Es wurde berichtet, dass die Besucher in Zweierreihen anstanden um einmal selbst „Tennis for Two“ spielen zu können.

Auf dem Eingangsfoto sehen wir wie zwanzig Jahre später mit dem Grundig SPC 4000 diese Tennisvariante mikroprozessorgesteuert ganz ähnlich dargestellt wurde. Jetzt wurde die Flugbahn des Balls mit dem Mikroprozessor digital berechnet.

Higinbotham verfolgte seine Idee damals nicht weiter und ließ sich das Prinzip auch nicht patentieren.

2 Abb01 jpg

Abb.1:   Das erste Videospiel „Tennis for Two“

 

2. Der Beginn: Ralph Baer der Vater der Videospiele

Ralph Baer war Divisionsmanager bei Sanders Associates Inc. und in seinem Bereich waren 500 Ingenieure tätig. In den 1960er Jahren gab es schon Millionen Farb- und Schwarz-Weiß-Fernsehgeräte in den amerikanischen Haushalten. Baer überlegte wie man diese TV-Geräte zu mehr als nur passivem Fernsehen nutzen könnte. Da kam er auf die grandiose Idee ob es wohl möglich sei Spiele auf den Fernsehbildschirm zu bringen. Und 1966 begann Baer die für diesen Zweck anwendbaren technischen Möglichkeiten zu untersuchen. Zwischen 1967 und 1968 entwickelte Baer zusammen mit seinen Mitarbeitern Harrison und Rusch einige Videospiel-Prototypen zum Testen. Das Ergebnis war dann die erste „Brown Box“, ein Prototyp des ersten Video Game Systems. „Brown Box“ deswegen weil die Schaltung und die Bedienteile in braun furnierte Holzkästchen eingebaut worden waren. Dieses Spielesystem konnte mehrere Spiele, unter anderem Fangen, Jagen und Ping Pong. Es war für mehrere Spieler ausgelegt. Aufgebaut war es mit diskreten Bauteilen (Transistoren, Dioden, Widerständen, Kondensatoren etc.). Integrierte Schaltkreise waren damals für diese Applikation viel zu teuer. Als erfahrener Entwicklungsingenieur dokumentierte Ralph Baer seine Schaltungen ganz genau und sein Arbeitgeber Sanders Associates Inc. meldete eine Reihe von Patenten an. Abb.2 zeigt die Anordnung seiner Erfindung aus einer Patentschrift von 1972. Der HF-Modulator des Spielesystems wurde über ein HF-Kabel an den Antenneneingang des Fernsehgerätes angeschlossen. Sanders Associates Inc. war selbst nicht auf dem Gebiet der Unterhaltungselektronik tätig und lizensierte deswegen das System an Magnavox, damals einer der großen Fernsehhersteller in den USA. Magnavox brachte das Spielesystem 1972 unter dem Namen „Odyssey“ auf den Markt. Es war die weltweit erste Spielekonsole und immer noch aufgebaut mit diskreten Bauteilen. Von der Magnavox Spielekonsole „Odyssey“ wurden ca. 200 000 Exemplare verkauft. Magnavox sah damals „Odyssey“ nur als Mittel um Fernsehgeräte zu verkaufen. Es wurde nicht erkannt welches ungeheure Potential Videospiele in sich bargen. Wer konnte auch schon ahnen, dass sich viele Jahre später eine unabhängige Video Game Industrie entwickeln würde.

2 Abb02

Abb.2:   Baers United States Patent Nr. 3 659 285 Television Gaming Apparatus and Method (Fernseh-Spiele-Apparat und Prinzip). Auszug Patentschrift.

 

3. Integrierte Schaltkreise für Videospiele

Wie erwähnt war das erste Videospielsystem „Odyssey“ aus vielen diskreten elektronischen Bauteilen aufgebaut. Nun hatten 1958 Jack Kilby (Texas Instruments) und Robert Noyce (Fairchild) den Integrierten Schaltkreis (IC) erfunden. Damit konnten die Bauteile einer elektronischen Schaltung, wie Transistoren, Dioden, Widerstände und Verbindungsleitungen, quasi zusammengefasst und mit einem einzigen „Integrierten Schaltkreis“ realisiert werden. Das ermöglichte kleinere Abmessungen der Elektronik.

Anfangs waren diese ICs noch sehr teuer und auf wenige Funktionen beschränkt. Aber mit dem technischen Fortschritt im Halbleiterbereich gelang es General Instrument, damals ein großer Hersteller von Halbleiterbauelementen in den USA, 1976 als erstem sechs auswählbare Spiele auf einem IC zu integrieren. Die Spiele waren Pelota, Squash, Tennis, Fußball, Treibjagd und Tontaubenschießen. Damit war nur noch eine kleine Menge an Bauteilen für das komplette Spielesystem erforderlich und kostengünstige Konzepte wurden ermöglicht.

Auf Basis dieses General Instrument ICs (AY-3-8500) entwickelte Grundig seine Tele-Spiel-Cassette 1 und brachte das System 1976 auf den Markt.

Der Autor, der mit seinem Team ab 1977 auch für die Grundig Video Spiele Entwicklung zuständig war, begann noch mit der Entwicklung der Grundig Tele-Spiel-Cassette 2. Es sollte auf dem General Instrument IC AY-3-8760 „Motor Cycle“ basieren. Bei diesem Spiel musste man wie ein Stuntman durch geschicktes Gasgeben auf einer Rampe Objekte (Autos, Busse) überspringen. Doch diese Entwicklung wurde abgebrochen.

Ein weiterer Technologiesprung, die Erfindung des Mikroprozessors, hatte einen neuen Ansatz zur Realisierung von Videospielen geliefert. Die Idee alle Baugruppen eines Digitalrechners auf einem Schaltkreis zu integrieren und damit quasi einen „Mikroprozessor  IC“ (µP) zu realisieren wurde 1968 unabhängig voneinander durch Ted Hoff (Intel) und Gilbert Hyatt (Hyatt Micro Computer Inc.) geboren. Intel hatte bereits 1971 den weltweit ersten Mikroprozessor, den 4 Bit Intel 4004, im Markt eingeführt. Aber es dauerte natürlich noch ein paar Jahre bis bezüglich Preis und Leistungsfähigkeit an den Einsatz von Mikroprozessoren bei Videospielen gedacht werden konnte. Doch 1977 war es dann soweit.

 

4. Mikroprozessorgesteuerte Videospiele am Beispiel des Grundig SPC 4000

Die bisher verfügbaren Integrierten Spiele Schaltkreise (ICs) erlaubten keine vielseitigen Spielesysteme, die auch noch kostengünstig waren, da für jedes Spiel ein neuer integrierter Schaltkreis entwickelt werden musste. Das änderte sich mit der Einführung des Mikroprozessors. Es war nun zum ersten Mal möglich ein Spiel in Software zu realisieren. Durch Änderung des gespeicherten Programms konnte nun ein neues Spiel gespielt werden, ohne dass eine neue Hardware (Schaltung) erforderlich wurde. Das bedeutete kürzere Entwicklungszeiten und damit viele attraktive Spiele.

In den USA hatte die Firma Atari 1977 mit der Produktion der ersten von einem Mikroprozessor gesteuerten Spielekonsole begonnen. Die verschiedenen Spieleprogramme wurden mittels Steckmodulen geladen, die Halbleiterspeicher (Read Only Memory) enthielten. Die Atari 2600 wurde 30 Millionen mal verkauft.

Verständlich dass Grundig ebenfalls ein solch erfolgreiches Produkt in seiner Produktpalette haben wollte.

Der Philips-Halbleiter-Bereich, Interton (ein deutscher Videospieleproduzent) und Grundig bildeten eine Systempartnerschaft, denn nur eine Bündelung der Entwicklungs- und Produktionskapazitäten ermöglichte kurze Entwicklungszeiten und akzeptable Stückzahlen. Und so wurde 1978/1979 der Grundig SPC 4000 entwickelt.

Er war unter den mikroprozessorgesteuerten Bildschirmspielen die qualitativ beste Lösung. Durch RGB-Ansteuerung des Fernsehgerätes in 75 Ohm Videotechnik lieferte er eine Farbwiedergabequalität  und Bildschärfe wie sie nur von der kommerziellen RGB-Fernsehübertragung her bekannt war. Es sei daran erinnert, dass es zu dieser Zeit keine Euro-AV Anschlussbuchse (SCART) gab und die meisten Fernsehgeräte noch nicht netzgetrennt waren. Grundig Fernsehgeräte der Super Color 80 Serie ab Baujahr 1979 waren netzgetrennt und enthielten einen frontseitigen Universalschacht, der schon die Anschlussmöglichkeiten der späteren Euro-AV Buchse vorwegnahm. An diesen Universalschacht konnte der SPC 4000 angeschlossen werden (siehe Abb.3). Ebenso war es möglich über diesen Universalschacht eine Videotext-Cassette oder ein externes Bildschirmtextgerät anzuschließen.

 

2 Abb03

Abb.3:   Grundig Super Play Computer SPC 4000 mit eingeschobenem Cassettenschacht-Anschluss in ein Fernsehgerät der Super Color 80 Geräteserie (ab Baujahr 1979)

 

4.1 Aufbau des SPC 4000

Der SPC 4000 bestand aus der Kompaktkonsole (Abb.4), den beiden Handspielgeräten mit Steuerknüppeln (heute mit Joystick bezeichnet) und Tastenfeld sowie dem Anschlussstecker  (Abb.5) der in den Universalschacht des Fernsehgerätes eingeschoben wurde. Die gewünschte Spielecassette wurde in die Öffnung der Konsole eingesteckt.

2 Abb04

Abb.4:   Grundig Super Play Computer SPC 4000 (Spielekonsole; Handspielgeräte mit Steuerknüppeln und Tastenfeld).

 

2 Abb05

Abb.5:   Anschlussstecker des Grundig Super Play Computer SPC 4000

 

4.2 Spielecassetten für den SPC 4000

Dem SPC 4000 lag die Spielecassette Nr. 1 für Autorennen bei. Diese enthielt zehn verschiedene Spielevarianten wie z.B. Grand Prix und Rallye. Die Abb.6 zeigt das damalige Spieleangebot, das im Fachhandel angeboten wurde.

2 Abb06

Abb.6:   Das Cassetten Programm des Grundig Super Play Computer SPC 4000. Foto Grundig AG Bedienungsanleitung SPC 4000.

 

4.3 Systembeschreibung

Das Blockschaltbild des SPC 4000 ist in Abb.7 dargestellt. Der Einsatz von Mikroprozessoren führte bei Bildschirmspielen, wie schon erwähnt, zu einer völlig anderen Schaltungskonzeption und ermöglichte den Einsatz von programmierbaren Bauelementen. Durch Auswechseln des programmierten Lesespeichers (ROM Read Only Memory; in Abb.7 blau umrandet) ließen sich immer wieder neue Spiele laden. In etwa vergleichbar mit dem Laden einer neuen App heutzutage. Abb.8 zeigt eine geöffnete Spielecassette für den SPC 4000.

2 Abb07

Abb.7:   Grundig Super Play Computer SPC 4000 Blockschaltbild. Grundig Technische Informationen  4/1979.

 

2 Abb08

Abb.8:   Geöffnete Spielecassette des Grundig Super Play Computer SPC 4000

 

Der mechanische Aufbau des Grundgerätes bestand aus einer Hauptplatine mit einer Steckleiste für die Programm-Cassette und drei steckbaren Bausteinen (Netzteil-, Ton-Klangformungs- und Schnittstellenbaustein). Die Abb.9 zeigt diesen Aufbau. Der Schnittstellenbaustein ist in der Abb.9 abgezogen. Direkt auf der Hauptplatine waren der Mikroprozessor, das programmierbare Video-Interface und der Synchron-Impulsgenerator untergebracht. In der Entwicklungszusammenarbeit mit Philips (Halbleiter) und Interton hatte Grundig die Aufgabe den Fernsehgeräte Schnittstellen-Baustein, den Netzteil-Baustein, die RGB-, Synchron- und Ton-Signal Übertragung zum Fernsehgerät, den Anschlussstecker, den Cassettenschacht und die komplette Signalumschaltung im Fernsehgerät zu entwickeln übernommen.

 

2 Abb09

Abb.9:   Grundig Super Play Computer SPC 4000 Hauptplatine. Der Schnittstellen-Baustein ist abgezogen um die Sicht auf die Grundplatte freizugeben.

 

4.3. Mikroprozessor und PVI

Das Gehirn der Schaltung bildete der 8Bit Mikroprozessor 2650A (Signetics/Philips). Er stand über Daten- und Adressbus mit dem ROM der Programm-Cassette und dem speziell für Bildschirmspiele entwickelten Programmierbaren Video Interface IC (PVI 2636 von Philips) in Verbindung. Dieses PVI stellte eine Art programmierbaren Generator für das Videosignal dar. Es verfügte über einen eigenen RAM-Speicher (Random Access Memory = Schreib-Lese-Speicher), in den vier sich bewegende Objekte (Autos, Flugzeuge etc.) und deren Duplikate sowie die Objektkoordinaten aus dem ROM-Programmspeicher übernommen werden konnten. Außerdem konnte durch das PVI eine aus waagerechten und senkrechten Balken gebildete Kulisse (siehe Spielfeld und Tennisnetz im Eingangsfoto) dargestellt werden. Ferner konnten mit dem PVI noch der Spielstand (Anzahl Fehler, Kilometerzähler usw.) angezeigt werden. Diese Anordnung von Mikroprozessor und PVI wurde als „objektorientiertes System“ bezeichnet, da nicht für jeden Bildpunkt (Pixel) des Bildschirms ein Speicherplatz benötigt wurde, sondern nur für die einzelnen Objekte, wie z.B. Ball, Auto, oder Flugzeug. Diese Objekte konnten dann durch die Veränderung ihrer horizontalen und vertikalen Koordinaten durch den Mikroprozessor über den ganzen Bildschirm verschoben werden.

So konnte dann beispielsweise die Flugbahn eines Tennisballs dargestellt werden. Dieses Konzept war unter anderem besonders gut für schnelle Bewegungsspiele geeignet. Auf  RAM basierende Systeme, bei denen die Bewegung von Objekten durch fortwährendes Umschreiben des Bildspeichers erzielt wird, waren damals aufgrund der geringen Arbeitsgeschwindigkeiten (Taktfrequenz  beim Mikroprozessor  2650A ca. 1MHz) und der hohen Speicherkosten für einen kompletten Bildspeicher nicht möglich. Bei den heute möglichen Taktfrequenzen und den entsprechend schnellen und kostengünstigen Speicherbausteinen kommt dieses Prinzip in jedem Desktop, Notebook, Tablet oder Smartphone zum Einsatz. Zum Vergleich der neueste Gaming Prozessor von Intel, der Core i9-9900K, hat eine Taktfrequenz von 3600 MHz (3,6 GHz).

Eine ausführlichere Beschreibung der Funktionsweise des Grundig SPC 4000 hatte der Autor  für die Grundig Technischen Informationen 4/1979 verfasst. Bei Interesse finden sie diese Beschreibung unter https://www.m2counselling.de/literatur.htm.

 

4.4.  SPC 4000 ein Highlight der Internationalen Funkausstellung 1979

Grundig hatte, wie schon erwähnt die Super Color 80 Fernsehgeräteserie entwickelt. Diese Modelle der 66 cm Spitzenklasse, sowie der Fernsehprojektor Cinema 9000 waren mit Sicherheits-Bausteinen und dem erwähnten Cassetten-Schacht zum Anschluss des SPC 4000 ausgestattet. Auf der Internationalen Funkausstellung 1979 konnten die Besucher  am Grundig Messestand alle verfügbaren Spiele ausprobieren.

Besonders spektakulär war der Aufbau mit dem Spiel  „Grand Prix“ Autorennen. Auf einem Podium war die originale vordere Hälfte eines VW Golf montiert. An Lenkrad und Gaspedal waren die Spielecontroller angebaut. Der Spieler saß also in einem richtigen Auto mit Lenkrad und Gaspedal. Vor dem Golf war die Leinwand des Grundig Cinema 9000 Fernsehprojektors montiert (Abb.10). Viele Messebesucher drehten begeistert ihre Runden. Der erreichte Kilometerstand und die Fehlerzahl wurden notiert, zum Ansporn für die nächsten Testfahrer um den bisherigen Rekord zu brechen.

      

2 Abb10

Abb.10:   „Grand Prix“ Autorennen auf der Internationalen Funkausstellung 1979. Am Steuer der Autor (Konrad Maul) in jüngeren Jahren.

               

5.  Videospielen mit dem Heim- und Personalcomputer

Anfang der 1980er Jahre begann das Zeitalter der Homecomputer. Als Beispiel seien Apple II, Radio Shack TRS-80 und Commodore 64 genannt. Diese konnten zum Spielen und für andere Programme (z.B. Schreiben von Texten oder Programmieren in Basic) benutzt werden. Das schien den Kunden eine bessere Investition zu sein als ein System, das nur für Spiele geeignet war. Die Verkaufszahlen von Spielekonsolen und Cassetten sanken. Magnavox und andere Hersteller stoppten die Video Spiele Produktion. Grundig stoppte den Verkauf des SPC 4000. Atari kämpfte ums Überleben.

Auch in Franken wurde ein Heimcomputerkonzept entwickelt. Die Firma Triumph-Adler entwickelte  die „alphatronic“, den persönlichen Computer zum Spielen und Lernen. Die Spiele für Homecomputer wurden zunächst von Digitalen Compact-Cassetten geladen, später dann von Floppy Disk und danach von der Daten CD. 

1981 stellte IBM seinen legendären Personal Computer IBM 5110 in den USA vor. Die IBM Werbung dafür las sich so:

„Ein IBM Personal Computer kann Ihren Kindern helfen. Indem sie Spiele spielen oder Grafiken zeichnen wird Ihr Sohn oder Ihre Tochter entdecken wie ein Computer arbeitet und was er machen kann. Ihre Kinder mögen sogar Computer Smart werden und beginnen ihre eigenen Programme in Basic oder Pascal zu schreiben. Zu guter Letzt kann ein IBM Personal Computer eine der besten Investitionen in die Zukunft Ihrer Familie sein.“

Wer wollte da noch eine Spielekonsole kaufen und damit die Zukunft seiner Familie aufs Spiel setzen?

 

6. Renaissance der Spielekonsolen

Eine damals kleine japanische Firma zeigte, dass gegen Homecomputer und PC doch ein Kraut gewachsen war. 1985 stellte Nintendo sein Nintendo Entertainment System vor. Der Game Boy war geboren. Ein kleiner Computer mit Display, den man in der Hand halten konnte. Damit konnte man nun überall spielen. Der kommerzielle Erfolg übertraf alle vorigen Spielekonsolen. Die Video Games waren nun im Alltag angekommen.

Nach Nintendo brachten nun auch Sony und Microsoft Spielekonsolen auf den Markt. Allerdings für den stationären Betrieb im Heim und ohne Bildschirm. Aber warum konnte sich die Spielekonsole wieder am Markt etablieren? Da war die sehr einfache Bedienung. Im IT-Jargon als „turn key system“ bezeichnet, was bedeutet Einschalten und loslegen. Dann der trotz Spitzentechnologie in den Hardwarekomponenten attraktive Verkaufspreis, da die Hersteller den Hauptteil des Gewinnes mit Spieleprogrammen erzielen (Vermarktungskonzept wie bei Druckern). Und last but not least der Fernsehbildschirm kann als Monitor benutzt werden, man konnte also auch wieder im Wohnzimmer spielen.

Und inzwischen ist mit dem Siegeszug der Smartphones das Video Gaming für jeden und zu jeder Zeit möglich. Es braucht nur die entsprechende App geladen zu werden.

 

7.  Video Games in Virtual Reality (VR)

Den nächsten Technologiesprung stellte sicher die Anwendung von Virtual Reality Technik bei Video Games dar. Zur Einleitung sei vielleicht eine kurze Erklärung versucht. Nehmen wir das Duden Fremdwörterbuch zu Hilfe: „Virtuelle Realität: Von Computern simulierte, künstliche Welt, in die man sich mithilfe der entsprechenden Ausrüstung hineinversetzen kann.“  

In Abb.11 sind in Stichpunkten die Merkmale der Virtual Reality dargestellt sowie ein Foto der Samsung Gear VR (mit Sennheiser Kopfhörer) zu sehen. Es  kann in diesem Artikel nicht im Detail auf VR eingegangen werden. Bei weiterem Interesse seihttps://www.m2counselling.de/3D_Virtual_Reality_Brille.htm empfohlen. Dort kann man sich auch 3D-Testbilder für das Smartphone herunterladen, die man dann z.B. mit der Google Card Box VR-Brille oder ähnlichen einfachen VR-Brillen für das Smartphone  betrachten kann, um zumindest einen Eindruck der räumlichen Darstellung zu gewinnen. Aber zurück zum Video Gaming. Das mit Immersion bezeichnete Eintauchen in die Spielewelt bringt sicherlich ein ganz neues Erlebnis mit sich. Eine Reihe von Spielen wurde regelrecht für die Virtual Reality Headset Technologie entwickelt. Exemplarisch sei hier nur Valkyrie von Eve angeführt, das vom Portal pcgamesn unter die besten VR-Games gewählt wurde (https://www.pcgamesn.com/best-vr-games). Valkyrie ist ein Multiplayer Dogfighting Shooter Game. Der Begriff Dogfighting wurde im ersten Weltkrieg geprägt und bedeutete im Luftkampf das Duell zweier Piloten. Heute sitzen virtuelle Piloten anstatt in Jagdflugzeugen in Raumgleitern. Wenn wir kurz auf den SPC 4000 zurückblicken, dann gab es 1979 auch schon die „Cassette 7 Luftkampf“. Warum solche Spiele so beliebt waren und immer noch sind wollen wir lieber der Psychologie überlassen.   

 

2 Abb11

Abb.11:   Virtual Reality: Gaming mit 3D Bild und 3D Ton.

 

8.  Ausblick: Zukünftige Spielewelten

In der Science Fiction Serie Star Trek „The Next Generation“ ist das Holodeck ja schon erfunden und realisiert. Also eine Technik mit der sich die Besatzung in verschiedene Umgebungen versetzen und dort auch handeln kann.

Wir haben ja schon über die Möglichkeiten der Virtual Reality Games gesprochen. Aber bisher ist es damit nicht möglich, wenn z.B. in der Spielewelt eine Tür zu öffnen ist auch das haptische Empfinden zu vermitteln. Nehmen wir an ich werde in einer Star Wars Spielhandlung verfolgt und die Stormtroopers sind mir schon auf den Fersen und dann komme ich an eine Tür, die mit einem elektronischen Zahlenschloss verriegelt ist. Ich muss eine Zahlenkombination eingeben. Aber in der bisherigen VR-Technik greift meine Hand ins Leere. Keine Tasten und keine Tür zu spüren.

Abhilfe schafft hier die Firma „The Void“, die begehbare Virtual Reality Spielewelten ermöglicht, die über typische VR-Brillen Erfahrungen hinausgehen. Die erste „The Void“ Erfahrungswelt wurde 2016 bei Madam Tussauds in New York eröffnet. Die neueste VR Erfahrungswelt hat das Thema „Star Wars: Secrets of the Empire“ und wurde in Zusammenarbeit mit der Walt Disney Company kreiert. (Zu sehen an verschiedenen Locations in USA.)  Was ist nun das Neue bei „The Void“? Die Spieler tragen ein VR Headset mit Kopfhörern und eine Art Rucksack, in dem ein Hochleistungsrechner eingebaut ist. Das wirklich Neue ist, dass dort, wie oben beschrieben, wo in der Spielhandlung  eine Tür ist wirklich eine Tür zu ertasten ist. D.h., bei „The Void“ werden die Räumlichkeiten und das Inventar, in denen sich die Spielhandlung abspielt in groben Abmessungen nachgebaut. Die feinen Details generiert dann der Rechner für den Spieler.

Über das  „The Voids fully immersive Star Wars VR“ Erlebnis urteilt time.com: „Diese Kerle haben praktisch ein Holodeck geschaffen.“ Na ja eine Spielhandlung macht noch kein Science Fiction Holodeck. Es gibt also noch viel Raum für zukünftige Entwicklungen, die das Eintauchen in virtuelle Spielewelten perfektionieren könnten. Wir dürfen also gespannt sein was uns die Zukunft beim Gaming noch bringen wird.

 

Autor

Dipl.-Ing. (FH) Konrad L. Maul, Certified Counsellor

Konrad L. Maul war 37 Jahre in der Fernsehentwicklung tätig, davon 30 Jahre in leitender Position. Von 1977 bis Anfang der 80er war er als Teamleiter Vorentwicklung und Digitale Signalverarbeitung auch mit der Entwicklung mikroprozessorgesteuerter Videospiele betraut. Als Gruppenleiter war er für das erste Grundig 100 Hertz-TV-Gerät verantwortlich. Von 2001 bis 2008 leitete er die Fernsehentwicklung der Grundig AG und in der Nachfolge der Grundig Intermedia AG. Heute arbeitet er als Berater für Einzelne, Gruppen und Organisationen in technischen, wirtschaftlichen und sozialen Handlungsfeldern.

https://www.m2counselling.de

Seeing Hearing Engineering - YouTube

M2Counselling - YouTube

  

URHEBERRECHT / COPYRIGHT

Alle Rechte vorbehalten, all rights reserved,

Konrad L. Maul, Dipl.-Ing. (FH)

D-90459 Nürnberg
 
Dieses Technik-Essay, sein Inhalt und die enthaltenen Ideen sind urheberrechtlich geschützt. Sie dürfen nur zu privaten, wissenschaftlichen und nichtgewerblichen Gebrauch zum Zweck der Information kopiert und ausgedruckt werden. Der Autor behält sich das Recht vor, diese Erlaubnis jederzeit zu widerrufen. Ohne vorherige schriftliche Genehmigung des Autors darf dieses Dokument nicht vervielfältigt, archiviert, oder auf einem Server gespeichert, in Webseiten und Newsgruppen einbezogen, in Online-Diensten benutzt oder auf einer CD-ROM gespeichert werden. Ich erlaube ausdrücklich und begrüße das Zitieren aus diesem Dokument.

 

 

Der Weg zur naturgetreuen Bildwiedergabe und die physiologischen Hintergründe

Die räumliche Bildwiedergabe (3D / Stereo Vision / Stereopsis)

 3 Abb01

Abb. 1: Beispiel für ein Stereobildpaar; Ansicht des linken und rechten Auges;

             am Galeriebrüstungsansatz ist die unterschiedliche Perspektive gut zu erkennen. 

 

1. Einführung

Dem Traum der Menschen von einer naturgetreuen Übertragung und Wiedergabe  von Szenen und Ereignissen in die eigenen vier Wände kommen heutige Fernsehgeräte mit neuester Signalverarbeitung und Displaytechnologie schon sehr nahe. Der flache Bildschirm an der Wand ist Realität geworden. Die großformatige, detailgetreue Wiedergabe, angepasst an die Physiologie des menschlichen Gesichtssinnes durch 16:9 und HDTV ermöglicht eine bisher nicht gekannte Einbezogenheit in das Geschehen auf dem Bildschirm (Telepräsenz). Nun fehlt den hochauflösenden Bildern nur noch die dritte Dimension der realen Welt d.h. die räumliche Darstellung.

In vielen Abhandlungen und Artikeln über das räumliche Sehen wird von einem naiven Verständnis dieses physiologischen Prozesses ausgegangen. Man bietet den Augen einen linken und rechten Bildauszug an und schon entsteht ein räumlicher Bildeindruck. Dies wird der Komplexität des Systems Auge-Gehirn in keiner Weise gerecht. Deswegen möchte ich den Versuch unternehmen zunächst die physiologischen Grundlagen etwas abzuklären.

 

2. Physiologische Hintergründe / System Auge-Gehirn

Das Auge

Ein horizontaler Querschnitt durch das menschliche Auge ist in Abb. 2 zu sehen.

3 Abb02

Abb.2: Horizontaler Schnitt durch das rechte menschliche Auge.

(Eigene Zeichnung nach The vertebrate visual system, by Polyak, 1957,

University of Chicago Press; in Howard I.P. 2002 Seeing in Depth)

Das menschliche Auge ist annähernd kugelförmig mit einem Durchmesser von ca. 24 mm. Die Hornhaut (Cornea) hat einen Durchmesser von ungefähr 12 mm und einen Kurvenradius von ca. 8 mm. Es wird oft angenommen, dass die Linse dazu dient, die einfallenden Lichtstrahlen zu bündeln und das Bild auf der Netzhaut (Retina) zu erzeugen. Der Ort an dem beim menschlichen Auge die Lichtstrahlen am stärksten gebrochen werden ist aber die Vorderseite der Cornea. Dies ist darin begründet, dass die Brechkraft einer Linse grundsätzlich von dem Unterschied zwischen den Brechungskoeffizienten des umgebenden Mediums und dem des Linsenmaterials bestimmt wird. Der Brechungskoeffizient der Luft ist niedrig, während der des Kammerwassers hinter der Cornea annähernd so hoch wie der Brechungskoeffizient der Linse des Auges ist. Dadurch hat die Cornea mit ca. 42 Dioptrien ungefähr 70% der Brechungskraft des gesamten Auges. Die Linse besitzt einen Durchmesser von ca. 9 mm und ist ungefähr 4 mm dick. Die Brechkraft der Linse kann durch den Ziliarmuskel um ca. 10 Dioptrien verändert werden und sorgt durch Verstellung (Akkommodation) dafür, dass das Netzhautbild bei entfernten und nahen Objekten scharf gestellt werden kann.  Damit hat das Gesamtsystem Cornea-Linse eine Brechkraft die von ca. 60 bis zu 70 Dioptrien variiert werden kann. Als visuelle Achse (Mittelpunktstrahl) wird die Verbindungslinie zwischen einem Punkt eines fixierten Gegenstandes  und dem Zentrum der Sehgrube (Fovea centralis) bezeichnet. Als optische Achse wird der am besten passende Strahl durch die vier brechenden Oberflächen des Auges bezeichnet. Die optische Achse schneidet die Retina ca. 1,5 mm seitlich entfernt von der Sehgrube und ca. 0,5 mm über der Sehgrube. Sie bildet somit mit der visuellen Achse einen Winkel von ca. 5°. Beide Achsen müssen gemäß den optischen Gesetzen durch den resultierenden Knotenpunkt /Nodalpunkt (nodal point) des optischen Systems Auge gehen. Dieser liegt beim nicht akkommodierten Auge ca. 17 mm vor der Retina und durch ihn gehen alle Strahlen die eine eins zu eins Abbildung der Punkte des Sehfelds auf der Netzhaut reproduzieren. Die Iris (Regenbogenhaut) in Verbindung mit den Irismuskeln kontrolliert die Linsenöffnung des Auges (Apertur, Pupillengröße). Oft wird angenommen, dass die Veränderung der Pupillengröße dem Auge erlaubt, ein breites Spektrum von Lichtintensitäten auszunutzen. Da sich ihre Fläche aber nur in einem Verhältnis von 16:1 verändert, kann dies nicht ihre Hauptaufgabe sein, da das Auge einen Helligkeitsbereich von mehr als 1 000 000 : 1 zu nutzen imstande ist. Offensichtlich kontrahiert die Pupille, um die Lichtstrahlen auf den zentralen und optisch effektivsten Teil der Linse zu beschränken und damit Linsenfehler zu minimieren. Die maximale Öffnung wird nur dann eingestellt wenn maximale Empfindlichkeit benötigt wird.

Jedes Auge wird von sechs Muskeln bewegt wie in Abb.3 dargestellt.

3 Abb03

Abb.3: Augenmuskeln des linken menschlichen Auges.

(Eigene Zeichnung nach Cogan 1956 Neurology of the ocular muscles,

Charles C. Thomas, Publisher, Springfield, Illinois; in Howard I.P. 2002 Seeing in Depth)

 

Dies ist erforderlich, da der Mensch nur in der Sehgrube ein hohes Auflösungsvermögen der Netzhaut besitzt und dadurch die Augen bewegt werden müssen um auszuwählen was scharf gesehen werden soll. Wird ein Objekt betrachtet, so konvergieren beide Augen sodass die Abbildung unabhängig von der Entfernung des Objektes auf der Sehgrube zentriert wird. Die Augenmuskeln schwenken dabei die Augäpfel um den Rotationsmittelpunkt jeweils in Richtung der Nase hin (nasal). Wie wir noch sehen werden wird dieser Konvergenzwinkel auch als einer von vielen Parametern zur Ermittlung des Raumeindruckes vom Gehirn genutzt.

 

Bildsensor Netzhaut (Retina) - Außenstelle des Gehirns

Die Struktur der Netzhaut ist in Abb. 4 aufgezeigt.

3 Abb04

Abb. 4: Die Struktur der Netzhaut.

(Eigene Zeichnung nach Dowling and Boycott 1966; in Howard I.P. 2002 Seeing in Depth)

 

Diese Struktur wurde zuerst von Ramón y Cajal ermittelt und in einer Serie von Abhandlungen zwischen 1888 und 1933 beschrieben. Die Netzhaut ist eine mehrlagige Membran mit einer Fläche von ungefähr 1000 mm². Sie weist in der Sehgrube eine Dicke von etwa 250 µm auf, die in der Peripherie auf ca. 100 µm abnimmt. Die Fotorezeptoren sind dicht gepackt in der äußeren Schicht, also der Schicht die am weitesten von der Lichtquelle entfernt ist. Das bedeutet, dass das Licht vor dem Erreichen der Rezeptoren durch die Blutgefäße und das feine Netzwerk der Nervenfasern, einschließlich dreier Schichten von Zellkörpern und einer Menge Stützgewebe, dringen muss. Es gibt zwei Arten von Fotorezeptoren. Die Stäbchen haben eine sehr hohe Lichtempfindlichkeit, breite spektrale Abstimmung und sind ausschließlich in der Peripherie, also außerhalb der Sehgrube, verteilt. Sie werden für die Wahrnehmung der Schwarz/Weiß-Helligkeitsempfindung genutzt. Die Zapfen, die für die Farbwahrnehmung genutzt werden, haben eine niedrigere Lichtempfindlichkeit und eine hohe Dichte in der Sehgrube, die in der peripheren Netzhaut abnimmt. Es gibt drei Typen von Zapfen mit jeweils verschiedener spektraler Empfindlichkeit: S-Zapfen mit einer maximalen Empfindlichkeit bei ungefähr 450 nm Lichtwellenlänge (blau). M-Zapfen mit einer Spitzenempfindlichkeit von ca. 535 nm (grün). L-Zapfen mit einem Maximum bei 565 nm (gelb/rot). 5 bis 10% der Zapfen sind S-Zapfen. M- und L-Zapfen sind etwa gleich häufig verteilt.

In dieser Struktur liegt auch die Basis, die unsere technischen Fernsehsysteme bei der Redundanz-Datenreduktion benutzen, bei der keine sichtbaren Verluste entstehen. So kann z.B. die Digitalisierung der Farbinformation mit einer geringeren Datenrate erfolgen als der für die Helligkeitswerte erforderliche Wert.

Der normale Bereich der Lichtempfindlichkeit des menschlichen Auges erstreckt sich über drei logarithmische Einheiten von 0,0000007 cd/m² bis 0,0004 cd/m². Die Helligkeit von äußeren Stimuli variiert um ca. 10 logarithmische Einheiten (log). Spezielle Mechanismen kompensieren den begrenzten dynamischen Bereich des Auges.

Um einen Vergleich der örtlichen Auflösung (Wiedergabe von Details) des menschlichen Auges mit technischen Bildwiedergabesystemen ziehen zu können sind die folgenden Werte des menschlichen Auges wichtig.

Die Retina des erwachsenen Menschen hat zwischen 4 und 6 Millionen Zapfen mit einer Spitzendichte von 100 000 bis 320 000 pro mm² in der Sehgrube. Diese nimmt in der Peripherie stark ab auf z.B. 6000 pro mm² bei 10° Exzentrität. Die Fovea ist eine Grube von ungefähr 1,5 mm Durchmesser, die ein regelmäßiges hexagonales Mosaik von Zapfen im Abstand von 2 bis 3 µm enthält. Die zentrale Sehgrube (Fovea centralis) hat einen Durchmesser von ca. 0,27 mm, was einem Öffnungswinkel (subtend) von ca. 1° entspricht, und enthält ca. 6000 Zapfen. Die menschliche Retina hat mehr als 100 Millionen Stäbchen, die in der Fovea nicht vorhanden sind. Die Fotorezeptoren der Netzhaut bilden 70% der Rezeptoren des menschlichen Körpers.

Wenn wir den Vergleich zu unserem modernen hochauflösenden Fernsehen ziehen (HDTV) dann besitzt das Display ca. 2 Millionen Bildpunkte, die jeweils aus einem roten, grünen und blauen Subpixel bestehen. D.h. insgesamt sind nur ca. 6 Millionen Bildpunkte vorhanden, die gleichmäßig über die gesamte Displayfläche verteilt sind.

Beim menschlichen Auge sorgen dagegen die 100 Millionen Stäbchen, die insbesondere sehr empfindlich auf bewegte Objekte reagieren, dafür dass die Objekte denen unsere jeweilige Aufmerksamkeit gilt, durch die entsprechenden Augenbewegungen scharf auf der Fovea mit höchster Auflösung abgebildet werden können. Die Natur hat das, was wir heute in der Fernsehtechnik mit Telepräsenz bezeichnen schon in idealer Weise realisiert.

Man hat die Retina als eine Art Ausstülpung des Gehirns beschrieben. Entwicklungsgeschichtlich spezialisierte sich also ein Teil der Gehirnoberfläche, wurde nach außen verlagert und lichtempfindlich. Die Retina hat bei diesem Prozess typische Gehirnzellen beibehalten, die zwischen den Lichtrezeptoren und den Sehnervenfasern, also in den vorderen Schichten der Netzhaut liegen, und die elektrische Aktivität der Rezeptoren stark modifizieren. D.h. ein Teil der Wahrnehmungssignalverarbeitung findet bereits im Auge statt. Damit wird dieses auch funktional ein Bestandteil des Gehirns. Diese Vorverarbeitung führt die über 100 Millionen Rezeptorsignale auf ca. 1 Million Sehnervenfasern zusammen. Dadurch kann sich die Dicke des Sehnervs stark verringern, was Augenbewegungen erst ermöglicht.

         

Bilddatenübertragung (Chiasma opticum , primäre Sehrinde)

Das für das Sehen verantwortliche neuronale System beginnt, wie oben gezeigt, schon mit der unglaublich komplexen Struktur der Netzhäute. Jede Netzhaut ist senkrecht in zwei funktionale Hälften geteilt. Die Sehnervenfasern der inneren (nasalen) Hälfte wechseln am Sehnervenkreuz (Chiasma opticum) auf die andere Seite um zur gegenseitigen Hirnhemisphäre zu ziehen (Abb. 5).

3 Abb05

Abb. 5: System Auge/Gehirn von oben gesehen.

Schema der Sehbahnen, das die linken und rechten Gesichtsfeldhälften

mit den retinalen Bildern und der teilweisen Kreuzung im Sehnervenkreuz zeigt.

(Eigene Zeichnung nach Eccles J.C. 1990 Die Psyche des Menschen)

 

Die Fasern der äußeren Netzhauthälfte gelangen zur gleichseitigen Hemisphäre. Am jeweiligen seitlichen Kniehöcker, quasi einer Relaisstation, sind die Sehnerven dann an die jeweilige Hemisphäre angeschlossen. Interessanterweise empfangen die Kniehöcker mehr „absteigende“ Bahnen von höheren Zentren des Gehirns als aufsteigende Bahnen von den Augen. Dies ist die anatomische Basis dafür, dass höhere Zentren des Gehirns die von den Netzhäuten kommenden Signale beeinflussen oder erweitern und damit die Netzhautbilder deuten.

 

Bildsignalverarbeitung im Gehirn (visuelle Merkmale in spezialisierten Modulen)

 Zu einer der wichtigsten Entdeckungen bezüglich der visuellen Signalverarbeitung im Gehirn gehört die der beiden amerikanischen Physiologen David Hubel und Torsten Wiesel. Sie registrierten bei der Katze die Aktivität einzelner Zellen der Sehrinde, während den Katzenaugen einfache visuelle Formen, meist Lichtbalken, angeboten wurden. Dies geschah mittels eines Diaprojektors, der diese Muster auf einen Schirm vor der Katze projizierte. Hubel und Wiesel stellten fest, dass einige kortikale Zellen der ersten Verarbeitungsstufe nur dann aktiv waren (feuerten), wenn ein Balken in einem ganz bestimmten Winkel angeboten wurde (Abb. 6).

3 Abb06

Abb. 6: Hubels und Wiesels Ableitungen von einzelnen Zellen im visuellen Cortex der Katze.

(Eigene Zeichnung nach Gregory R.L. 2001 Auge und Gehirn; Psychologie des Sehens)

 

Bei anderen Winkeln blieb diese Zelle stumm. Die zur Aktivierung erforderliche Neigung des Balkens wechselte von Zelle zu Zelle. Weiterhin stellten Sie fest, dass manche Zellen sich nur durch Bewegung aktivieren ließen oder nur durch Bewegung in eine bestimmte Richtung.

Der Professor für Neuropsychologie Richard L. Gregory schreibt: „Es wird immer deutlicher, dass das Gehirn visuelle Merkmale in spezialisierten „Modulen“ verarbeitet, wobei es unterschiedliche neuronale Kanäle für Form, Bewegung, Tiefenwahrnehmung, Farbe usw. gibt.

Allmählich kristallisiert sich die Organisation der Sehrinde heraus, wenn auch noch immer unklar ist, wie sie mit dem Sehen komplexer Objektformen verknüpft ist. Vielleicht werden wir das visuelle Gehirn erst dann vollständig verstehen, wenn es uns gelingt, eine Maschine zu entwerfen und zu konstruieren, die über ein komplexes Sehvermögen verfügt.“    

  

Disparationsneuronen (David Hubel und Torsten Wiesel)

Die Tiefenwahrnehmung ist im Prinzip abhängig von Ungleichheiten (Disparität) der beiden Abbildungen auf den beiden Netzhäuten, die durch den 50 bis 70 mm betragenden Augenabstand entstehen. Sie kann auch als eine Täuschung betrachtet werden, weil es auf der Retina nur ein zweidimensionales Bild gibt. Dieses wird aber so interpretiert als ob es aus einem dreidimensionalen Objekt resultieren würde. Mit dem Entstehen dieser Täuschung befasst sich die psychologische und physiologische Forschung der visuellen Wahrnehmung.

Raymòn y Cajal hatte schon 1911 die Theorie entwickelt, dass Eingangssignale von korrespondierenden Bereichen der beiden Netzhäute in den von ihm mit „isodynamic cells“ bezeichneten neuronalen Zellen zusammengeführt würden und damit die Basis für das binokulare Sehen gebildet würde. Diese Idee wurde von David Hubel und Torsten Wiesel (1959; 1962) experimentell verifiziert. Sie berichteten dass Paare von Sehnervenbahnen der Katze in „binokularen“ Zellen in dem Teil der Hirnrinde, der visuelle Signale verarbeitet (visueller Cortex), zusammenlaufen. Und dass die rezeptiven Felder jeder „binokularen“ Zelle korrespondierende Positionen in den beiden Augen besitzen. Wenn eine „binokulare“ Zelle identische rezeptive Felder hätte werden, die in jedem Auge identisch positioniert wären, würde diese optimal auf Netzhautbilder (Stimuli) mit null Disparität reagieren und keine Tiefeninformation könnte am Ausgang der Zelle gewonnen werden. Das war schon ein Argument das der Physiologe, Physiker und Psychologe Hermann von Helmholtz gegen die Idee von konvergenten visuellen Eingangssignalen angeführt hatte. Helmholtz neigte zu der Auffassung, dass die räumliche Wahrnehmung ein erlernter Prozess sei und sich in den „höheren“ Verarbeitungsschichten des Gehirns abspielen würde.

Der Psychologe Ian P. Howard schreibt dazu in „Seeing in Depth“:

„Das Problem würde gelöst werden können wenn es Zellen gäbe, die speziell darauf abgestimmt wären, auf ähnliche Bilder in leicht unterschiedlichen Positionen der beiden Retinae, zu reagieren. Unterschiedliche Zellen die optimal auf differente Disparitäten abgestimmt sind. Einfach wie diese Idee klingt wurde diese bis 1965 nicht vorgeschlagen. Wahrscheinlich weil die Idee einer auf spezifische Stimuli-Eigenschaften reagierenden kortikalen Zelle nicht „en vogue“ war, bis 1959 Hubel und Wiesel kortikale Zellen entdeckten, die abgestimmt waren auf Ausrichtung und Bewegung zu reagieren. Hubel und Wiesel gelang es nicht Zellen zu finden, die sensitiv auf Disparitäten reagierten.

Jack Pettigrew lieferte den ersten Beweis von Disparitäts-Detektoren in einer frühen Stufe der visuellen Signalverarbeitung. Er machte diese Arbeit im Rahmen seiner „undergraduate thesis“, die er 1965 an der Universität von Sydney geschrieben hat.“

In vielen weiteren Arbeiten wurde diese Theorie der „Disparationsneuronen“ inzwischen bestätigt.“

Marr und Poggio haben 1979 basierend auf diesen neuronalen Fakten ein erstes nachrichtentechnisches Signalverarbeitungsmodell (A Computational Theory of Human Stereo Vision) entwickelt. Inwieweit solche Modelle die tatsächlichen Mechanismen der höheren Hirnprozesse abbilden, konnte aufgrund deren ungeheuren Komplexität bisher noch nicht gezeigt werden.

 

Sehen in der Tiefe (Disparation, Konvergenz, monokulare Informationen)

 Nachdem wir mit den Disperationsneuronen quasi die unterste Ebene des Tiefensehens kennengelernt haben wollen wir uns auf der Ebene der Wahrnehmungspsychologie mit dem Sehen in der Tiefe beschäftigen.

Das menschliche horizontale Blickfeld ist in Abb. 7 dargestellt.

3 Abb07

Abb. 7: Das binokulare Gesichtsfeld des Menschen.

 

Das monokulare Gesichtsfeld des statischen Auges beträgt ungefähr 95° in Richtung der Schläfe (temporal) und ungefähr 56° in Richtung der Nase. Das gesamte Gesichtsfeld ist der volle Winkel der ausgehend von einem Punkt in der Mitte zwischen beiden Augen alle Punkte im Raum einschließt, die entweder einem Auge oder beiden Augen sichtbar sind. Beim Menschen beträgt dieses horizontale Gesichtsfeld (lateral) bei feststehenden Augen ca. 190° und erreicht 290° wenn die Augen seitlich bewegt werden können. Das binokulare Gesichtsfeld ist der Teil des gesamten Gesichtsfeldes innerhalb dessen ein Objekt liegen muss um für beide Augen sichtbar zu sein (bei fester Augenposition). Das binokulare Gesichtsfeld ist von den monokularen Sektoren des linken und rechten Auges flankiert. Jeder monokulare Sektor erstreckt sich ungefähr 37° seitlich (lateral) vom Schläfenring bis zur Grenze des binokularen Sektors. Die rechte und linke Grenze des binokularen Sehens wird durch die Nase geformt. Für binokulares Sehen ergibt sich daraus ein Winkel von ca. 112°, wenn die Augen symmetrisch konvergieren.

Betrachten wir zunächst die geometrische Basis. Weil die beiden Augen horizontal um den Augenabstand voneinander getrennt sind, sehen diese dieselbe visuelle Szene von zwei unterschiedlichen Ausgangspunkten. Wenn wir einen speziellen Punkt im Raum, wie z.B. den schwarzen Punkt auf dem Pfeil in Abb. 8A fixieren, sorgen wir dafür dass das Abbild dieses Punktes in die Sehgrube (Fovea) des linken und des rechten Auges fällt, also in die Region der Netzhaut mit der höchsten Auflösung.

 

3 Abb08a

Abb. 8A: Die Geometrie der Stereopsis.

Horizontaler Schnitt durch das rechte (AR) und linke Auge (AL) von oben gesehen. Auf dem Horopter liegende Punkte produzieren

Abbildungen auf korrespondierenden Punkten der beiden Netzhäute.

Als Horopter wird die kreisförmige horizontale Linie bezeichnet auf der alle Punkte liegen, die bei gegebener Augenstellung mit beiden Augen nur einfach gesehen werden.

(Eigene Zeichnung nach Tyler C.W. 2004 Binocular Vision; in Ponco R. et.al. 2008 Stereopsis)

3 Abb08b

Abb. 8B: Die Geometrie der Stereopsis.

Horizontaler Schnitt durch das rechte (AR) und linke Augen (AL) von oben gesehen. Punkte auf dem Pfeil, die nicht auf dem Horopter liegen, mit verschiedenen Abständen vom Beobachter produzieren Abbildungen mit verschiedenen Abständen von der Fovea auf den zwei Netzhäuten. Diese Differenz wird binokulare Disparität genannt und ist die Basis für die allgemein bekannteste Art der Tiefenwahrnehmung.

(Eigene Zeichnung nach Tyler C.W. 2004 Binocular Vision; in Ponco R. et.al. 2008 Stereopsis)

 

Dazu schwenken die Augenmuskeln die Augen in den jeweils entsprechenden Winkel (Konvergenz) und der Muskel der Augenlinse sorgt durch Akkommodation (Veränderung der Brennweite) für eine scharfe Abbildung. Dieser Akt definiert die horizontale Fixierungskurve. Wenn wir auf diesem schwarzen Punkt des Pfeiles starten und uns eine bestimmte Distanz auf dem grauen Kreis bewegen werden sich die Projektionen des neuen Punktes in den beiden Augen um die exakt gleiche Distanz auf den beiden Netzhäuten bewegen. Diese Projektionspunkte auf den beiden Retinae werden als „korrespondierende Punkte“ bezeichnet. Der „geometrische Horopter“ ist die Zusammenfassung all der Punkte eines Bildes, die auf „korrespondierende Punkte“ auf den Retinae projizieren. Für einen Beobachter dieser Punkte erscheint es so als ob alle diese Punkte ungefähr in derselben Tiefe wie der Fixierungspunkt liegen würden. Die Menge aller Punkte die exakt in derselben Tiefe erscheinen wird als „empirischer Horopter“ bezeichnet und ist etwas flacher als der kreisförmige „geometrische Horopter“. Für prinzipielle Überlegungen kann zur Vereinfachung mit dem „geometrischen Horopter“ gearbeitet werden.

Betrachten wir nun Teile des Objektes die entweder vor oder hinter dem „Geometrischen Horopter“ liegen, wie zum Beispiel Spitze und Schwanz des Pfeils in Abb. 8B. Diese Objektpunkte werden nicht auf „korrespondierende Punkte“ der Retinae projizieren, weil die Distanz von f nach h auf der rechten Netzhaut nicht gleich der Distanz von f‘ nach h‘ auf der linken Netzhaut ist. Diese Differenz der Netzhaut-Kreisbögen (hf-h’f‘) wird als „binokulare Disparität“ bezeichnet und meist als Bogenmaß oder Winkel angegeben. Die Projektionslinien für Punkte auf der Netzhaut für nahe Objekte kreuzen sich vor dem Horopter und produzieren was man als „gekreuzte Disparitäten“ bezeichnet und umgekehrt produzieren weit entfernte Objekte, wie z.B. der Schwanz des Pfeils in Abb. 8B, „nicht gekreuzte Disparitäten“.

Wenn die retinalen Disparitäten, die ein Objekt produziert, in einen begrenzten Bereich fallen (ungefähr 0,5° in der Nähe der Fovea, etwas mehr bei einer größeren Exzentrizität), wird es als ein einzelnes verschmolzenes Objekt mit Tiefe erscheinen. Außerhalb dieses Bereiches, der als „Panums“ Verschmelzungsbereich bekannt ist, wird das Objekt doppelt erscheinen. Dem Beobachter wird dann jedes der beiden retinalen Bilder bewusst, was dann als „Doppeltsehen“ bezeichnet wird. Trotzdem kann das visuelle System sinnvolle Tiefeninformationen bis zu binokularen Disparitäten von einigen Grad extrahieren, in Abhängigkeit von der Größe des Objektes.

Es ist zu bemerken, die obige Diskussion vorausgesetzt, dass man wissen muss wie zur Abbildung eines Objektes im rechten Auge die passende Abbildung des gleichen Objektes im linken Auge gefunden wird. Dies stellt ein schwieriges Problem dar und ist im Bereich der Bilddatenverarbeitung als „Correspondence Problem“ bekannt. Dieses Problem ist äußerst schwierig, wenn man versucht die einzelnen korrespondierenden Punkte (pixel) auf den zwei retinalen Bildern zu finden (weil es eine große Zahl von Übereinstimmungen gibt). Diese Problemstellung wird leichter handhabbar wenn man lokale Felder von Punkten, z.B. kurze Liniensegmente zum Finden der Übereinstimmungen heranzieht. Zusätzlich ist es wahrscheinlich dass Bildeigenschaften höherer Ordnung, wie z.B. die globale Form eines Objektes, dazu benutzt werden die lokalen Objektübereinstimmungen zu erhärten.

Es gibt noch eine andere Art von Stereopsis bekannt als „da Vinci Stereopsis“ (benannt nach Leonardo da Vinci, der diese zuerst beschrieben hat), die die Benutzung von nicht gepaarten Bereichen der Abbilder in den beiden Retinae der beiden Augen beinhaltet. Dies kommt bei der Überdeckung von Objekten vor. Prinzipiell deswegen, weil das Auge nicht um Objekte herum sehen kann. Ein Objekt in der Form eines Quadrats im Vordergrund wird einen vertikalen Streifen des Hintergrundes auf der linken Seite verursachen der nur durch das linke Auge (AL) gesehen werden kann. Auf der rechten Seite wird dieses quadratische Objekt einen Streifen verursachen, der nur mit dem rechten Auge (AR) gesehen werden kann (Abb.9). Diese Art von Stereopsis ist ebenfalls für die Tiefenwahrnehmung nützlich, speziell zur Definition der Verdeckung. Wir wollen hier aber nicht näher auf die „da Vinci Stereopsis“ eingehen.

3 Abb09a

Abb. 9: Die Basis der „da Vinci Stereopsis“

Horizontaler Schnitt durch das rechte (AR) und linke Auge (AL) von oben gesehen. Ein im Vordergrund vorhandenes Objekt hat zur Folge,

dass Bereiche im Hintergrund jeweils nur von einem Auge gesehen werden können.

(Eigene Zeichnung nach Nakajama K. et. al. 1990 Da Vinci Stereopsis; in Ponco R. et.al. 2008 Stereopsis)

  

Räumliche Auflösung des binokularen Sehens (Stereopsis)

Weil die elementaren Daten mit denen das Gehirn arbeiten muss die binokularen Disparitäten sind, wird die kleinste Tiefendifferenz die unterschieden werden kann durch die kleinste retinale Disparität die aufgelöst werden kann bestimmt. Bei menschlichen Beobachtern, erreicht diese Differenz 5 Bogensekunden (entsprechend 0,0014°), wenn das beobachtete Objekt auf der Fovea abgebildet wird. Dies ist eine wahrlich bemerkenswerte Präzision, wenn man bedenkt dass der Abstand zwischen den Zapfen auf der Fovea in der Größenordnung von 30 Bogensekunden liegt.

Die binokulare Disparität, die sich bei einer gegebenen Tiefendifferenz ergibt, variiert mit dem inversen Quadrat der Distanz zum Objekt. Das bedeutet, dass bei nahen Objekten äußerst kleine Tiefendifferenzen unterschieden werden können. Das können bis zu 25 µm sein, was ungefähr der Dicke eines feinen menschlichen Haares entspricht. Auch bei relativ großen Objektentfernungen kann das binokulare Sehen eine Rolle spielen, vorausgesetzt die Tiefe des Objektes ist groß genug. Für eine Entfernung von 100 m z.B. beträgt die minimale auflösbare Tiefe ungefähr 4 m (Ponce 2008).

 

Andere Parameter für Tiefenwahrnehmung (monokulare Parameter)

Einem signifikanten Anteil der menschlichen Population (ungefähr 5 bis 10%) fehlt die stereoskopische (binokulare) Tiefenwahrnehmung. Man müsste annehmen, dass diese Personen bezüglich ihrer Sehfähigkeit stark behindert wären. Dies ist aber nicht der Fall. Einige von ihnen haben in Berufen Karriere gemacht für deren Ausübung man eine gute räumliche Einschätzung annehmen muss, wie z.B. Chirurgie, Zahnmedizin und professionelles Skifahren. Der Grund dafür ist wahrscheinlich dass es eine Anzahl von anderen Methoden zur Erhaltung von Tiefeninformation gibt. Eine der nützlichsten Verfahren ist durch Kopfbewegungen quasi mehrere Ansichten über die Zeit zu erhalten und damit eine „Bewegungs-Parallaxe“ zu produzieren. Wenn man seinen Kopf in dieser Art bewegt werden Objekte, die sich näher als der Fixierungspunkt befinden, als sich in die Gegenrichtung der Kopfdrehung bewegend wahrgenommen. Objekte, die weiter als der Fixierungspunkt entfernt sind, werden als sich mit der Kopfbewegung bewegend wahrgenommen. Die Geschwindigkeit der wahrgenommenen Bewegung indiziert die Größe der Tiefendifferenz. Im Vergleichstest bei ähnlichen Bedingungen kann die Tiefenwahrnehmung gewonnen aus der „Bewegungs-Parallaxe“ fast so gute Ergebnisse liefern wie die Stereopsis also das binokulare Sehen.

Zusätzlich zur „Bewegungs-Parallaxe“ gibt es noch eine Reihe von Bildparametern, die einen Hinweis auf Tiefe geben. Dies sind auch die Indikatoren die Künstler benutzen um Tiefe auf einer flachen Leinwand vorzutäuschen (Eccles 1990):

  1. Die Position eines Objektes im Bild. Je entfernter ein Objekt ist, desto höher wird es im Bild angesetzt.
  2. Perspektivische Darstellung.
  3. Abgestufte Maserung, die mit der Entfernung feiner wird.
  4. Schatten, die die relative Stellung im Raum anzeigen.
  5. Überdeckungen und Überschneidungen beweisen unzweifelhaft, wie die Objekte relativ zueinander stehen.
  6. Der Freilichteffekt: Verschwommene und mehr blaue Einfärbung entfernter Objekte.

Keiner dieser Hinweise kann die feine Tiefenwahrnehmung des binokularen Sehens erreichen, aber sie liefern einen Gesamteindruck der dreidimensionalen Struktur der Umgebung. Kombiniert mit der „Bewegung-Parallaxe“ erreichen diese monokularen Parameter aber nahezu die Tiefenwahrnehmung des binokularen Tiefensehens.

Ein einfaches Experiment kann uns die feine Tiefenwahrnehmung des monokularen Sehens im wahrsten Sinne vor Augen führen: Wenn man ein Auge schließt oder abdeckt fällt ja die binokulare Information aus. Der räumliche Eindruck verschwindet aber nicht. Es wird nur der kleinere Blickwinkel empfunden und vielleicht ein etwas nicht so prägnanter Tiefeneindruck.

Bevor wir uns im nächsten Abschnitt den technischen Umsetzungen und Verfahren des 3D-Sehens zuwenden sei zum Abschluss des Teiles „Physiologische Hintergründe“ Ian P. Howard (2002) zitiert: „Wir haben ein wachsendes Repertoire von psychophysischen, physiologischen und computergestützten Techniken. Es gibt eine schnell wachsende Anzahl von Psychologen, Physiologen, Anatomen, Biochemikern, Physikern, Ingenieuren und Informatikern die alle Aspekte des „Sehens“ erforschen. Kein anderer Wissenschaftsbereich umfasst eine größere Vielfalt von Spezialisierungen.

Mit all unseren Fortschritten im Verstehen des Sehvorganges, bleibt doch das schiere Erstaunen bestehen, wenn wir ein Stereogramm beobachten. In unseren Versuchen das visuelle Bewusstsein zu verstehen beziehen wir uns auf neuronale Netzwerke, synchrone 

Oszillationen, Zellgruppen (cell assemblies), Impulsfolgen und Quantenphysik, aber wir tappen nur im Dunkeln. Das erstaunliche Geheimnis unserer bewussten Wahrnehmung einer dreidimensionalen Welt, der wir begegnen wenn immer wir unsere Augen öffnen und die uns fortwährend fasziniert und verblüfft, erinnert uns an die wundervolle Maschinerie die jeder von uns in seinem Kopf trägt. Diese Maschinerie brauchte einige Milliarden Jahre um sich zu entwickeln aber in jedem von uns nur ungefähr ein Jahr um heranzuwachsen.“

Wie wir gesehen haben stehen wir bei der Physiologie des Sehens trotz der heute schon vorliegenden Erkenntnisse noch immer vor einem ungeheuren Problem, dessen Lösung, wenn dies prinzipiell überhaupt möglich ist, noch viele Jahre in Anspruch nehmen wird. Vor diesem komplexen Hintergrund werden auch bei technischen Umsetzungen, die den Menschen zur Information, Bildung oder Unterhaltung dreidimensionale Abbilder der realen Welt liefern, noch viele Probleme gelöst werden müssen um damit dann eine möglichst naturgetreue 3D-Wiedergabe erreichen zu können.

 

3. Technische Umsetzungen / Übersicht der Verfahren

Die Erfindung der Perspektive

Schon immer haben die Menschen versucht auf Zeichnungen und Gemälden die Wirklichkeit so real wie möglich abzubilden also auch auf einer ebenen Fläche Tiefe zu erreichen. Schon im alten Griechenland soll diese Technik bekannt gewesen sein. Es wird jedenfalls berichtet, dass dort ein Maler durch ein Bühnenbild das er für ein Schauspiel des Dichters Aischylos angefertigt hatte, durch eine neue Maltechnik so große Wirklichkeitsnähe erreichte, dass er damit das Publikum in großes Entzücken versetzt haben soll. Doch handwerkliche Kunst galt in der griechischen Polis nicht viel. Dieses Wissen geriet jedenfalls wieder in Vergessenheit. Bis ins Mittelalter wirkten alle Gemälde flach. Tiefe wurde nur durch Verkleinerung von Objekten im Hintergrund und Überdeckung angedeutet. Im Florenz des 15. Jahrhunderts erfolgte dann, wahrscheinlich angeregt durch die entstehende Kartographie, die Wieder- oder Neuentdeckung der Perspektive. Mittels der gedachten Sehlinien, die alle auf den Fluchtpunkt zulaufen und dort konvergieren konnte nun der Eindruck von Tiefe erreicht werden. Und so kam es, dass „La Dolce Prospettiva“ in der Renaissance fast alle Maler, Architekten, Gelehrte und reiche Dilettanten in ihren Bann schlug. Als Beispiel sei ein Maler der Frührenaissance angeführt, Paolo Uccello (1397-1475), den das Thema der Perspektive gefangengenommen hatte und der sich immer wieder intensiv mit der Raumdarstellung – der Darstellung der dritten Dimension auf zweidimensionaler Fläche - auseinander gesetzt hatte (Abb. 10).

3 Abb10

Abb. 10: Paolo Uccello (1397-1475) „Die Flut“ (Visipix.com)

 

Wheatstones Stereoskop

Es ist erstaunlich wie lange es gedauert hat bis eine Vorrichtung erfunden wurde, mit der das stereoskopische Sehen, basierend auf den leicht unterschiedlichen Bildern, die durch den Augenabstand entstehen, mit künstlichen Bildern nachgebildet und untersucht werden konnte. Die Erfindung eines solchen Gerätes muss Sir Charles Wheatstone zugeschrieben werden. Ende 1832 hatte er zwei solcher Geräte, Wheatstone nannte sie „Stereoscopes“, bei Optikern in London anfertigen lassen. Eines davon war ein Spiegelstereoskop, das andere ein Prismenstereoskop. In Abb. 11 ist die Prinzipskizze des Spiegelstereoskops nach einer Zeichnung von Wheatstone wiedergegeben.

3 Abb11

Abb. 11: Wheatstones Stereoskop.

              (Eigene Zeichnung nach Gregory R.L. 2001 Auge und Gehirn; Psychologie des Sehens)

 

Es war ein einfaches Instrument welches dem linken und rechten Auge mittels zweier im rechten Winkel angebrachter Spiegel (A in Abb. 11) zwei getrennte 3D-Stereopaarzeichnungen mit entsprechender Disparation (E‘ und E in Abb. 11) angeboten werden konnten, die in die Bildhalter (D‘ und D in Abb. 11) eingespannt wurden. Das Wesentliche jedes Stereoskops ist, dass es erlaubt die Bildvorlagen für jedes Auge getrennt zu kontrollieren. Der Experimentator kann dadurch binokulare Variablen isolieren und die entsprechenden Effekte untersuchen. Wheatstone konnte mit diesem neuen Instrument erstmals die Beziehung zwischen binokularer Disparität und Tiefenwahrnehmung aufzeigen.

Louis Daguerre perfektionierte um die Jahre 1837 bis 1839 das Verfahren auf Metallplatten Abbildungen der Umwelt festzuhalten (Daguerreotypien). Fox Talbot stellte 1840 das Prinzip vor, wie mit Hilfe von transparenten Negativen beliebig viele Positive hergestellt werden konnten. Diese Technik war aber zunächst bezüglich der Bildqualität der Daguerreotypie unterlegen, die aber ihrerseits immer nur die Herstellung eines Originals erlaubte.

Diese Entwicklungen führten dazu, dass Wheatstone 1841 zwei Photographen Richard Beard und Henry Collen beauftragen konnte ihm bei der Erstellung der ersten Stereophotographie zu helfen. Diese war eine Porträtaufnahme von Charles Babbage, dem Erfinder der ersten programmierbaren mechanischen Rechenmaschine. 

Diese ersten Stereophotographien wurden aufgenommen indem eine einfache Kamera um den Augenabstand verschoben wurde. Der Photograph A. Quinet baute 1853 in Paris die erste binokulare Stereokamera, die er Quinétoskope nannte.

Sir David Brewster brachte das von ihm entwickelte Prismenstereoskop nach Paris und interessierte den Optiker Jules Duboscq, der eine größere Anzahl davon baute. Dazu lieferte er einen Satz von Stereodaguerreotypien. Dieses Stereoskop wurde auf der Weltausstellung 1851 in London gezeigt. Eines davon erhielt Queen Victoria, die großes Interesse an dem Gerät zeigte. Innerhalb von 3 Monaten wurden nahezu 250 000 Prismenstereoskope in London und Paris verkauft. Der erste Markterfolg eines 3D-Wiedergabegerätes war geboren.

Mit der Einführung von illustrierten Magazinen erlosch das breite Interesse an stereoskopischen Photographien.

 

Stereoskopische Bewegtbildwiedergabe

Nach vielen Vorarbeiten durch Wissenschaftler und Ingenieure haben wohl Louis Le Prince und William Dickson, der im Thomas Edison Labor arbeitete, die ersten praktisch umsetzbaren und noch heute verwendeten Prinzipien der Aufnahme und Wiedergabe von bewegten Bildern basierend auf Mechanik und Photochemie entwickelt. In dieser Stufe glaubte aber Edison nicht an die Zukunftsfähigkeit von Kinoprojektoren, die große Bilder für viele Zuschauer auf eine Projektionswand werfen könnten. 

So kam es dass die Gebrüder Louis und Auguste Lumiére den ersten funktionsfähigen Kinoprojektor vorstellen konnten. Diese benutzten einen Zelluloidfilm von Eastman. Das erste Lichtspieltheater wurde im Dezember 1895 in Paris eröffnet. 1903 zeigten die Gebrüder Lumiére in Frankreich den offiziell ersten Stereofilm von ein paar Sekunden Dauer. Er hatte den Titel „L’arrivée du train“. Er wurde offenbar auf zwei 35 mm Filmstreifen aufgenommen und dann auf einen Filmstreifen in anaglyphischer Zwei-Farbtechnik kopiert. Dies wird aber von manchen Experten, die der Meinung sind, dass zwei Projektoren mit entsprechenden Farbfiltern benutzt wurden, bezweifelt.

1915 brachte die Famous Players Film Company (die spätere Paramount Picture Company) drei kurze anaglyphische Stereofilme heraus, die der amerikanische Filmpionier Edwin Porter produziert hatte. Harry K. Fairall produzierte den ersten kommerziell erfolgreichen Stereofilm „The Power of Love“, der im Ambassador Hotel Theatre in Los Angeles im September 1922 gezeigt wurde. Alle diese Filme benutzten Anaglyphentechnik, d.h. ähnlich wie beim Stereoskop wurde hier mit Farbfilterbrillen dafür gesorgt, dass das linke Auge nur die Aufnahme der linken Kamera, und das rechte Auge nur die Aufnahme der rechten Kamera sehen konnte. Die beiden Filmprojektoren für den Links- und Rechtsauszug waren mit den korrespondierenden Farbfiltern versehen. Die Anaglyphentechnik erlaubt natürlich aufgrund ihres Prinzips keine Farbaufnahmen.

Edwin Land demonstrierte 1935 einen Stereofilm in Farbe unter Benutzung des Prinzips der Polarisierung von Licht zur Separierung der Links-/Rechtsbilder. Dieser Prozess war in den 30iger Jahren bei Zeiss-Ikon in Deutschland entwickelt worden (Howard 2002). Raymond und Nigel Spottiswoode produzierten für das British Film Institute den ersten 3D-Film ganz in Farbwiedergabe und mit synchronisiertem Stereoton. Dieser wurde 1951 zur Eröffnung der South Bank Exhibition in London gezeigt. Dies kann als der Start des 3D-Booms von 1953 und 1954 angesehen werden.

 

Übersicht der 3D-Verfahren

Im Verlauf der Film- und Fernsehentwicklungsgeschichte sind viele technische 3D-Verfahren entwickelt worden. In Abb.12 sehen Sie eine Zusammenstellung der Verfahren, die in der Fernsehtechnik zur 3D-Bewegtbildwiedergabe benutzt wurden oder heute angewandt werden. Die heute eingesetzten Verfahren sind rot markiert. Grob kann man eine Einteilung in Verfahren die zur Betrachtung eine Brille erfordern und in Techniken die ohne Brille auskommen vornehmen.

3 Abb12

Abb. 12: Technische Verfahren zur 3D-Bewegtbildwiedergabe.

 

Verfahren mit Brille

Im Folgenden werden die Verfahren mit Brille näher erläutert.

 

Anaglyphentechnik

Die Gebrüder Louise und Auguste Lumiére, die schon den ersten funktionsfähigen Kinoprojektor entwickelt hatten, zeigten 1903 in Frankreich den offiziell ersten Stereofilm von ein paar Sekunden Dauer. Er hatte den Titel „L’arrivée du train“. Martin Scorsese hat in seinem neuen 3D-Film „Hugo Cabret“ dieses Filmdokument eingebaut, allerdings nicht in 3D. Die Gebrüder Lumiére benutzten die Anaglyphentechnik, die schon für die Stereophotographie entwickelt worden war. Dabei wird mit Farbfilterbrillen (rot/grün oder rot/cyan) dafür gesorgt, dass das linke Auge nur die Aufnahme der linken Kamera, und das rechte Auge nur die Aufnahme der rechten Kamera sehen kann. Es werden entweder zwei Filmprojektoren für den Links- und Rechtsauszug mit dem jeweils korrespondierenden Farbfiltern eingesetzt oder ein Projektor, der dann einen Filmstreifen projiziert auf den rechte und linke Bilder in den entsprechenden Farben (rot/grün oder rot/cyan) kopiert wurden. Mit der Einführung des Farbfernsehens war die Anaglyphentechnik auch im Heimbereich möglich. Die ARD zeigte z.B. 1982 eine Reihe von 3D-Bildsendungen in ihren 3. Programmen. Da diese Technik vom Prinzip her an und für sich nur für Schwarzweißwiedergabe gut geeignet ist und nur eine sehr schlechte Farbwiedergabe liefern kann, spielt sie heute auch keine Rolle mehr. Natürlich muss sie benutzt werden, wenn Schätze aus den Anfängen des 3D-Films betrachtet werden sollen.

 

Psychooptische Effekte (Pulfrich Effekt)

Den Pulfrich Effekt hat man für das Fernsehen kultiviert, da er im Gegensatz zur Anaglyphentechnik die gewohnte PAL Farbbildqualität ermöglichte, auch nur eine sehr preiswerte Brille benötigt und beim Betrachten ohne Brille ein normales Bild zeigt. Bezüglich der für den Effekt erforderlichen Bewegung ist es nicht relevant ob sich das Objekt oder die aufnehmende Kamera bewegt. So baute z.B. der Privatsender RTL Anfang der 1990er Jahre in seine „Tutti Frutti“ Reihe jeweils Szenen ein, bei denen die weiblichen Darstellerinnen auf einer Drehbühne agierten. Da das Verfahren aber nur bei bewegtem Objekt oder bewegter Kamera Tiefeninformation liefert ist es als professionelles Verfahren für 3D-TV-Geräte nicht geeignet.

  

Shutterbrillen (LCD-Lichtventil)

Seit Anfang der 80er Jahre des letzten Jahrhunderts sind Liquid Crystal Shutters schnell genug um als Lichtventil für die 3D-Film- und 3D-Video-Technik eingesetzt werden zu können. Bei diesem Verfahren werden sequentiell hintereinander das Bild für das linke- und das rechte Auge gezeigt (siehe Abb.13).

3 Abb13

Abb.13: Das Shutterbrillenverfahren. Die Brille lässt für das linke und das rechte Auge nur das zugehörige Kamerabild passieren.

 

Die Shutterbrille wird mit einem drahtlosen Synchronsignal angesteuert und die eingebaute Steuerelektronik sorgt dafür, dass dann jeweils das richtige Auge freie Sicht bekommt. Im Fall des Einsatzes im Kino sind die teuren Brillen, die zusätzlich eine Batterie oder einen Akku enthalten, von großem Nachteil. Es kann im Kino aber eine normale Projektionsleinwand verwendet werden, da nicht mit polarisiertem Licht gearbeitet wird. Sodass sich z.B. der Einsatz in kleinen Programmkinos oder im semiprofessionellem Bereich bei entsprechend kleinen Zuschauerzahlen anbietet.

Im Fall von 3D-Fernsehgeräten setzen z. Z. sehr viele Hersteller auf aktive LCD-Shutterbrillen. Es ist heute das einzige Verfahren mit TV-Geräten im deutschen Markt das die volle HDTV-Auflösung (1920x1080) auch im 3D-Betrieb wiedergeben kann. Die höheren Brillenkosten sind bei der kleinen Anzahl, die im Heimbereich erforderlich sind, nicht so relevant. Die Umschaltung der Shutterbrille zwischen Links- und Rechtsvorlage muss aber mit mindestens 50 bis 60 Hz erfolgen um Flimmern zu vermeiden. Das bedeutet das Display muss dann mit mindestens 100 bis 120 Hz angesteuert werden. Da aus Gründen der optimalen Bewegungswiedergabe LC-Displays schon mit 100 oder 200 Hz bzw. 120/240 Hz betrieben werden stellt diese Forderung kein Problem dar. Um bei Verwendung von LCD’s keine Probleme mit Doppelkonturen durch Übersprechen der  Bilder in das jeweils abgedunkelte Auge zu bekommen (Ghosting siehe 4.), setzen viele Gerätehersteller, die LC-Displays einsetzen, auf 200 Hz Technik. Damit ergibt sich genügend zeitlicher Spielraum um sicherzustellen, dass während die Shutterbrille geöffnet ist nur das jeweilig richtige Bild das entsprechende Auge erreicht.

Zusammen mit einem 3D-Blu-ray-Player, der über eine HDMI-Verbindung (Version 1.4) an das 3D-TV-Gerät angeschlossen ist und im sogenannten „Frame-Packing-Format“ jeweils aufeinander folgend ein linkes- und ein rechtes Bild bei voller HDTV-Auflösung (1920x1080) mit jeweils 24 Bildern pro Sekunde überträgt, erreichen heutige 3D-TV- Geräte mit Shutterbrille die zur Zeit bestmögliche 3D-Wiedergabequalität im Heimbereich.

 

Polarisationsfilter

In der 3D-Kinofilm Historie war erst mit Hilfe von Polarisationsfiltern die farbige 3D-Film Wiedergabe möglich. Das Bild für das linke und rechte Auge wird dabei von je einem Projektor, denen Polarisationsfilter mit unterschiedlicher Polarisationsebene (horizontal, vertikal) vorgesetzt sind, auf die Leinwand projiziert. Es gibt auch ein Verfahren, bei dem nur ein Projektor benutzt wird, der hintereinander das linke und das rechte Bild projiziert. Vorgeschaltet ist dann ein Polarisationsfilter, das zwischen den beiden Polarisationsebenen schnell umschaltet. Der Zuschauer trägt eine Brille mit einem horizontalen und einem vertikalen Polarisationsfilter, sodass jedes Auge nur ein Bild sieht. Die Leinwand muss allerdings eine „Silberleinwand“ (aluminierte Oberfläche) sein, da andere Leinwandmaterialien bei Reflektion mit polarisiertem Licht die Schwingungsebene nicht beibehalten. Senkrecht aufeinander stehende (gekreuzte) Polarisationsfilter haben aber immer noch eine Luminanz-Durchlässigkeit von ca. 10 bis 15%, sodass geringes Übersprechen der linken Bildvorlage in das rechte Auge und umgekehrt erfolgt. Bei Neigung des Kopfes werden die Polarisationsachsen der Brillenfilter gedreht sodass dadurch ebenfalls Übersprechen entsteht. Um dies zu vermeiden werden heute bei der 3D-Kinoprojektion zirkular polarisierte Filter benutzt. Die Wirkungsweise ist wie oben beschrieben, aber nun ist die Schwingungsebene des Lichts zirkular (rechts- und linksdrehend).

Größter Vorteil des Polarisationsverfahrens sind die kostengünstigen passiven Brillen. Für Vorführungen in großen Kinosälen mit vielen Zuschauern ist dies die ideale Lösung.

Im Fall des 3D-Heimfernsehgerätes könnte man sich, wie in einer Variante der Kinoprojektion, auch ein großes geschaltetes Polarisationsfilter vor dem Display (LCD oder Plasma) vorstellen. Das linke und das rechte Bild könnte dann sequentiell hintereinander dargestellt und das Filter entsprechend umgeschaltet werden. Der Zuschauer trägt dann wie im Fall des Kinos eine einfache passive Polarisationsbrille. Leider sind aber großflächige, schnell schaltbare und kostengünstige Polarisationsfilter die vor dem flachen Bildschirm angebracht werden könnten nicht verfügbar. Deswegen wurde die Idee einer zeilensequentiellen Links-Rechts-Bildwiedergabe aufgegriffen. Es wird ein Polarisationsfilter auf das Flachdisplay aufgebracht, das von Zeile zu Zeile die Polarisationsrichtung wechselt. Das Filter braucht nicht schaltbar zu sein. Die Videosignalverarbeitung (Scaler) im 3D-TV-Gerät muss dann dafür sorgen, dass jeweils abwechselnd eine Zeile des linken und dann des rechten Bildes dargestellt wird. Wie im Kino trägt dann der Zuschauer eine passive Polarisationsbrille. Das Prinzip ist in Abb.14 anhand von nur elf Zeilen vereinfacht dargestellt. Der große Nachteil ist aber, dass die Auflösung in vertikaler Richtung halbiert wird. Beim hochauflösenden Fernsehen (HDTV) ergeben sich dann 1080 Zeilen / 2 = 540 Zeilen. Das ist die vertikale Auflösung des bisher üblichen Pal-Fernsehens.

Trotz dieses Nachteils gibt es Hersteller, die dieses Prinzip in ihren 3D-TV-Geräten einsetzen um preiswerte und leicht zu tragende Brillen anbieten zu können. Um diesen Nachteil der reduzierten Vertikalauflösung zu umgehen hat nun die Firma LG anlässlich der Consumer Electronic Show in Las Vegas Geräte vorgestellt, die ein 4k Display besitzen. Das bedeutet statt der üblichen HDTV Auflösung von 1920 x 1080 Pixeln (ca. 2 Megapixel) hat dieses Display die vierfache Pixelzahl von 3840 x 2160 Pixel (ca. 8 Megapixel). Bei 3D Betrieb mit der zeilenweise wechselnden Polarisation halbiert sich die Auflösung in der Vertikalen. Es bleiben aber 2160 / 2 also 1080 Zeilen übrig, d.h., die volle HDTV Auflösung bleibt erhalten.

3 Abb14

Abb. 14: Das Prinzip des Polfilterverfahrens stark vereinfacht anhand von nur 11 Fernsehzeilen.

 

Verfahren ohne Brille

Es folgen detailliertere Beschreibungen der Verfahren ohne Brille.

 

Autostereoskopische Verfahren

3 Abb15

Abb. 15: Prinzipdarstellung des brillenlosen Verfahrens für 2 Ansichten (Links und Rechts).

              (Eigene Zeichnung nach Holliman N. (2005) 3D Display Systems; University of  Durham)

 

Ein Grundprinzip dazu wurde schon 1912 vom Schweizer Augenarzt Walter R. Hess als „Lentikular-Folien-Stereogramm“ patentiert.

Bei einer Anwendung dieser Technik auf 3D-TV-Geräte wird eine Linsenrasterfolie (Fresnellinsenfilterfolie) direkt auf dem Flachdisplay (LCD oder Plasma) aufgebracht. Die Ansteuerung des Displays erfolgt dann so, dass vertikale Streifen des linken und rechten Bildes aufeinander folgen (was allerdings die örtliche Auflösung in der horizontalen Richtung halbiert). Der Abstand zwischen den Augen sorgt dafür, dass jedes Auge das richtige Bild bekommt. Praktisch ergibt sich aber ein sehr kleiner Bereich (kleiner Sweet Spot) in dem das Bild korrekt stereoskopisch gesehen werden kann. Deswegen wurden Systeme entwickelt, die mit einer Kamera die Augen des Betrachters erfassen und Distanz und Augenabstand ermitteln und danach die Linsenrasterplatte mechanisch verschieben. Oder wie im Falle eines Notebooks den die Firma Sony auf der Funkaustellung 2011 zeigte  bei dem die Links-Rechts Pixelmuster auf dem Notebookdisplay mit der Kamerainformation nachgesteuert werden um so den 3D Eindruck bei Kopfbewegungen beibehalten zu können. Diese Systeme sind für ein im Heimbereich verwendbares 3D-TV-Gerät nicht brauchbar. Deswegen wurde ein Verfahren entwickelt, das mehrere Ansichten benutzt und damit den Winkelbereich aus dem 3D gesehen werden kann entsprechend vergrößert (großer Sweet Spot).

3 Abb16

Abb. 16: Prinzipdarstellung des brillenlosen Verfahrens für 5 Ansichten (Links und Rechts).

              (Eigene Zeichnung nach Holliman N. (2005) 3D Display Systems; University of  Durham)

 

In heutigen Realisationen werden acht, neun oder sogar 15 Ansichten eingesetzt. Würde man dies nach dem Prinzip der ausschließlich vertikal orientierten Linsenrasterfolie machen, würde sich die horizontale Auflösung (Anzahl der Bildpunkte) bei neun Ansichten um den Faktor neun erniedrigen, was zu einer sehr bescheidenen Bildqualität führen würde. Deswegen werden z.B. bei neun Ansichten diese in einem Muster in der Horizontalen und in der Vertikalen verteilt. Die Linsenrasterfolie muss natürlich entsprechend angepasst werden. Mit dieser Anordnung kann man dann einen in horizontaler und vertikaler Richtung ausgewogenen Auflösungsverlust um den Faktor dreierreichen. Dies bedeutet aber nach wie vor bei einem HDTV-Bild mit 1920 x 1080 Bildpunkten eine Reduzierung auf 640 x 360 Bildpunkte (Pixel) und ist damit sogar etwas schlechter als Standard PAL Qualität. Um damit hochauflösendes Fernsehen (HDTV) in 3D realisieren zu können muss man Flachdisplays mit mehrfacher HDTV-Auflösung einsetzen. Es gibt zwar schon LC-Displays mit mehrfacher HDTV-Auflösung, die aber aufgrund der hohen Kosten bisher nur für sehr spezielle Anwendungen (z.B. Medizintechnik) eingesetzt werden konnten.

Zur Funkausstellung 2011 hat die Firma Toshiba ihre ersten brillenlosen 3D-TV-Geräte vorgestellt. Diese Geräte benutzen ein Display mit der vierfachen HDTV Pixelzahl (3840 x 2160 Pixel also ca. 8 Megapixel) und basieren auf 9 Ansichten. Trotz des Panels mit der vierfachen HDTV Auflösung ergibt sich bei 9 Ansichten nur mehr eine Auflösung von ca. 0,9 Megapixeln also weniger als die Hälfte der HDTV Pixelzahl. D.h., um bei 3D-Betrieb nicht in der Bildschärfe (Auflösung) abzufallen müsste das verwendete Display mindestens die 9 fache HDTV Auflösung besitzen.

Dass die Flachdisplayhersteller an solchen Panels arbeiten konnte man ebenfalls auf der Funkausstellung 2011 sehen. Sharp zeigte einen Vorgeschmack eines zukünftigen Super-Hi-Vision Systems mit 16-facher HDTV Auflösung.      

Abschließend kann jedoch festgestellt werden dass dieses autostereoskopische Verfahren (basierend auf n-Ansichten) heute die einzige brillenlose 3D-Technik für den Heimbereich darstellt, die das Potential zur breiteren Umsetzung in der näheren Zukunft besitzt.

Der Vollständigkeit halber soll darauf hingewiesen werden, dass es noch ein zweites autostereoskopisches Verfahren basierend auf dem Parallaxen-Stereogramm gibt. Die Applikation dieser Technik auf Flachdisplays (LCD, Plasma) führt aber zu einer starken Reduktion der Bildhelligkeit, die durch die Abschattung der für dieses Prinzip notwendigen Barriere (z.B. Schlitzblende) hervorgerufen wird. Deswegen wird dieses Prinzip bei 3D-TV-Geräten nicht eingesetzt. Es kommt aber bei kleinen Displays für kleine “handheld“ Geräte im Spiele- und Mobilfunkgerätebereich zur Anwendung.

In Abb.17 sind die Vor- und Nachteile der in der 3D-Fernsehgerätetechnik angewandten Verfahren zusammengefasst.

3 Abb17

Abb.17: Vor- und Nachteile der in der 3D-Fernsehtechnik angewandten Verfahren.

 

Holographische Verfahren

Abschließend noch ein Blick in die fernere Zukunft. In der Science Fiction Literatur und in Filmen dieses Genre ist die brillenlose räumliche Bildübertragung nicht mehr wegzudenken. 

Die Basis dafür ist die Holographie die Dennis Gabor1947 erfunden hat. Dafür erhielt er 1971 den Nobelpreis für Physik. Oft wird die Holographie als 3D Fotografie beschrieben, was aber eine völlig falsche Auffassung ist. Bei der Holographie wird ein abzubildendes Objekt mit einer kohärenten Lichtquelle (Laser) bestrahlt. Die vom Objekt gestreute Strahlung fällt auf das Aufnahmemedium (z.B. eine fotografische Platte). Ein Teil der Strahlung der kohärenten Lichtquelle wird abgezweigt und als sogenannter Referenzstrahl mit der gestreuten Strahlung des Objektes auf dem Aufnahmemedium zur Interferenz gebracht. Das resultierende „Lichtfeld“ ist ein anscheinend zufälliges Muster mit verschiedenen Intensitäten, das mit Hologramm bezeichnet wird. Es kann gezeigt werden, dass wenn das Hologramm mit dem originalen Referenzstrahl der kohärenten Lichtquelle bestrahlt wird ein Lichtfeld entsteht, das dem Lichtfeld entspricht welches durch die Streuung beim Bestrahlen des Objektes mit der kohärenten Lichtquelle entstanden war. Wenn nun jemand in das Hologramm schaut kann er das Objekt sehen obwohl dieses nicht mehr vorhanden ist. Wenn sich der Betrachter bewegt scheint er das Objekt aus einem anderen Blickwinkel zu sehen. Wenn der Betrachter seine beiden Augen benutzt erhält er die gleiche Tiefeninformation die er beim Ansehen des originalen Objekts erhalten würde.

Basierend auf Digitaltechnik und einer Methode der „Spatial Light Modulation“ wird nun daran gearbeitet eine auf der Holographie beruhende Aufnahme und Wiedergabe von bewegten Bildern zu realisieren. Dabei wird die Streustrahlung des Objekts mit dem Referenzstrahl statt auf der fotografischen Platte auf einem hochauflösenden Bildsensor (z.B. CCD oder CMOS) zur Interferenz gebracht. Dieses vom Bildsensor digitalisierte Interferenzmuster kann nun abgespeichert, übertragen und mittels eines „Spatial Light Modulators“ wieder hergestellt werden. Dabei moduliert der „Spatial Light Modulator“ (SLM) die Amplitude oder Phase des auftreffenden kohärenten Lichtstrahls einschließlich des räumlichen Musters. Bedingung für die Realisierung dieser „digitalen“ Holographie ist aber die Verfügbarkeit von hochauflösenden „Spatial Light Modulators“ (SLMs) und Bildsensoren (CCDs oder CMOS) mit ausreichendem „Spatial Bandwith Product“ (SBWP). Weiterhin müssten dabei sehr große Datenmengen verarbeitet und gespeichert werden, denn ein typisches Hologramm von 100 mm x 100 mm Größe hat ein SBWP von Giga Samples (Lucente 1994).

Wahrscheinlich wird es aber kaum möglich sein Weitwinkelaufnahmen in natürlicher Umgebung zu machen, da diese ja durch eine enorm starke kohärente Lichtquelle beleuchtet werden müsste um ein gestreutes Lichtfeld dieser Szene zu erhalten. Unsere Umwelt als Hologramm ins Kino oder eigene Heim zu holen wird wohl noch längere Zeit ein Traum bleiben.

Bei der computergenerierten Holographie (computer generated holography) wird auf der Basis eines mathematischen Modells eines Objektes, dessen Interferenzmuster berechnet. Diese „digitalen“ Daten des Interferenzmuster werden dann, wie oben erwähnt, einem „Spatial Light Modulator“ zugeführt, der mittels des Referenzstrahls das Objekt als Hologramm entstehen lässt.

Nicht zu verwechseln ist das holographische Verfahren mit computergenerierten dreidimensionalen Laserprojektionen basierend auf mathematischen Modellen. Damit können einzelne Objekte synthetisch generiert werden. Man kann dieses Verfahren dann z.B. zur brillenlosen 3D-Darstellung von technischen Objekten in der Entwicklungs- und Designphase verwenden. Dies hat aber mit einer 1:1 Abbildung der natürlichen „Wirklichkeit“ nichts zu tun.

 

Probleme („Shortcomings“) beim derzeitigen technischen Stand der 3D-Wiedergabe

3D-Kino und 3D-Fernsehen

Das Hauptproblem ist, dass beim Betrachten von natürlichen Vorlagen eine Änderung der Akkommodation (Scharfstellung der Augen durch Verändern der Linsenbrennweite) von einer Veränderung der Konvergenz (Veränderung des Konvergenzwinkels der beiden Augen durch die Augenmuskeln) begleitet ist. Wenn wir eine virtuelle 3D-Szene auf einer Kinoleinwand oder auf einem Fernsehschirm betrachten, so liegt der Schärfepunkt fest auf der Projektionsebene. Die Einstellung des Konvergenzwinkels wird aber durch die Aufnahme und Projektion vorgegeben (siehe Abb. 18).

3 Abb18

Abb. 18: 3D-Projektion auf eine ebene Fläche.

             (Eigene Zeichnung nach Hodges 1992; in Howard I.P. 2002 Seeing in Depth)

 

Dieser Konflikt zwischen Konvergenz und Akkommodation belastet das Konvergenzsystem, was in seltenen Fällen zu Augenüberanstrengung und Übelkeit führen kann. Dies wurde zumindest von Benutzern von 3D-Virtual-Reality-Systemen berichtet (Howard 2002). Um Risiken und Bedenken sicher auszuschließen sind hier sicherlich noch weitere wissenschaftliche Forschungsarbeiten durchzuführen.

Um diesen Konflikt an einem Beispiel selber zu erfahren können Sie ein kleines Experiment machen. Die Abb.1 dieses Technik-Essays ist ein Stereobildpaar, d.h. das linke Bild stellt die Perspektive des linken Auges und das rechte Bild die Perspektive des rechten Auges dar. Zunächst müssen Sie die Darstellung dieses Bildes auf dem Bildschirm so einstellen, dass sich zwischen den einander entsprechenden Bildteilen ein etwas kleinerer Abstand als Ihr Augenabstand ergibt. Mit 50 mm sollten sich gute Resultate ergeben. Am einfachsten zu messen ist z.B. der Abstand von der Nasenspitze des rechten Bildes zur Nasenspitze des linken Bildes. Wenn Sie die entsprechende Seite ausgedruckt haben erhalten Sie schon den passenden Abstand. Nehmen Sie nun einen sehr nahen Leseabstand ein also eine Entfernung bei der Sie gerade noch scharf sehen können. (Tipp für Brillenträger mit Kurzsichtigkeit: Am besten die Brille abnehmen.) Nun versuchen Sie mittels Ihrer Augenmuskeln die beiden Bilder zu verschmelzen. Wenn es Ihnen gelingt werden Sie drei Bilder sehen. In der Mitte entsteht das dreidimensionale Bild. Rechts und Links jeweils zweidimensionale flache Bilder. Um die Abbildung dreidimensional zu sehen mussten Sie den Schärfepunkt auf der Bildschirm- oder Papierebene halten und die Augenmuskeln mussten die Augen fasst parallel stellen also eine Stellung des Konvergenzsystems, die sonst nur bei der Betrachtung von weiter entfernt liegenden Objekten eingenommen wird. Wenn es Ihnen nicht gelingt ein dreidimensionales Bild zu sehen heißt das nicht, dass Sie im Kino oder mit einem 3D-TV nicht räumlich sehen können, da bei den in der Praxis eingesetzten Aufnahmetechniken Schärfe- und Konvergenzpunkt nie so verschieden sind wie bei unserem kleinen Experiment.  

Um eine Überanstrengung des Konvergenzsystems des Zuschauers durch Überzüchtung der Tiefenwirkung zu vermeiden sollte, bei der Aufnahme auf Vergrößerung des Links-Rechts-Kameraabstandes über den Augenabstand hinaus unbedingt verzichtet werden. Auch sollte ein Wechsel des Konvergenzwinkels bei der Aufnahme äußerst moderat gehandhabt werden.

Da heute fast ausschließlich Verfahren mit Brillen im kommerziellen Einsatz sind, sollte auch bei der Konstruktion der Brillen Augenmerk darauf verwandt werden, dass bei Brillenträgern, die ja dann zwei Brillen übereinander tragen müssen bei dieser Stapelung möglichst keine Spiegelungen und optische Fehler auftreten.

Generell bedeutet die Benutzung von Polarisations- oder Shutterbrillen eine Reduzierung der Helligkeit. Dies ist im Kino nicht so bedeutend, da der Kinosaal ja abgedunkelt ist. Im Fall von 3D-Fernsehgeräten sollte man darauf achten, dass das Gerät eine ausreichend große Helligkeitsreserve besitzt damit 3D-Fernsehen bei vollem Tageslicht möglich ist.

 

3D-Fernsehen und der Puppenstubeneffekt

Die örtliche Grenzauflösung des menschlichen Auges, die sich aus der Dichte der Zapfen in der Sehgrube (Fovea) ergibt, variiert sicherlich individuell etwas und beträgt ca. 1 bis 2 Bogenminuten. Nehmen wir eine mittlere Auflösung von 1,5 Bogenminuten an, so entsprechen diese 0,025°. Mit diesem Wert, der Zeilenzahl des Fernsehsystems und der Bildschirmdiagonale des benutzten TV-Gerätes lässt sich mittels elementaren Winkelfunktionen der optimale Betrachtungsabstand ermitteln. Die Zeilenstruktur oder Pixelstruktur bei Flatpanels ist dabei quasi an der Schwelle der Sichtbarkeit und stört damit nicht. Somit erhält man die beste mögliche Telepräsenz, d.h., die Bildgröße füllt das Blickfeld des Betrachters möglichst weit aus. Nehmen wir ein TV-Gerät mit 1,07 m (42 Zoll) Bildschirmdiagonale an so ergibt sich für Standardfernsehen (SDTV) ein Betrachtungsabstand von etwa 2,60 m (Näherungswert etwa 5 fache Bildhöhe). Beim hochauflösenden Fernsehen, nur dies kommt für 3D-TV in Betracht, ergibt sich ein optimaler Betrachtungsabstand von ca. 1,30 m (Näherungswert 2,5 fache Bildhöhe). Für Überschlagsrechnungen kann bei Fernsehgeräten im 16:9 Format (Standard bei HDTV tauglichen Geräten) für die Bildhöhe die Hälfte der Diagonale angenommen werden. Wie unschwer zu erkennen ist wird in der häuslichen Wohnlandschaft ein Betrachtungsabstand von 2,5 facher Bildhöhe (oder 1,25 facher Bildschirmdiagonale) beim Betrachten von hochauflösenden Fernsehen nicht eingehalten. Dies führt beim Ansehen von 3D-Filmen zum sogenannten „Puppenstubeneffekt“. D.h., bei Weitwinkelaufnahmen sind die betrachteten Objekte so klein dass man diese nicht für real hält. Bezüglich Telepräsenz, also der Einbezogenheit in das Geschehen der filmischen Vorlage, ist das 3D-Kino mit seinen riesigen Leinwänden natürlich überlegen. Im Heimbereich sollte man deshalb ein Gerät mit einer zum Betrachtungsabstand passenden Diagonale wählen oder gar einen 3D-HDTV-Projektor mit entsprechend großem Projektionsschirm.

 

 3D-Fernsehgeräte und das Übersprechen der Kanäle Links und Rechts (Ghosting)

Wie schon erwähnt kommen bei 3D-Fernsehgeräten, die sich heute in der Serienproduktion befinden, zum großen Teil aktive LCD-Shutterbrillen zum Einsatz. Dabei muss die Öffnungszeit der Brille genau an die Darstellungszeit der jeweiligen linken oder rechten Bildvorlage auf dem Bildschirm des Fernsehgerätes angepasst werden. Wenn dies nicht optimal justiert ist, bekommt das linke und rechte Auge ein abgeschwächtes Bild des jeweils für das andere Auge bestimmten Bildes. Dies lässt dann die Disparation der beiden Bilder sichtbar werden, d.h., man sieht Doppelkonturen.

 

3D-Fernsehgeräte die 3D aus normalen 2D-Vorlagen berechnen

Es ist im Grunde eine Vorgehensweise, die immer wieder bei der Einführung von neuen Standards probiert wurde. Bei der Einführung der Audio-Stereophonie wurde versucht Monosignale in (Pseudo)-Stereosignale umzuwandeln. Bei der Einführung des hochauflösenden Fernsehens wurde behauptet, man könne aus einem Standard TV-Signal höherauflösende Komponenten berechnen. Und nun bei der Einführung von 3D-TV wird wieder versucht für ebene 2D-Aufnahmen Tiefeninformation zu berechnen. Gemeinsam ist all diesen Versuchen, dass sie prinzipiell nicht funktionieren können. Informationen, die bei der Aufnahme nicht erfasst wurden, lassen sich mit keiner Technik der Welt wieder hinzufügen. Im Fall von 3D-TV wird versucht mit Objekterkennungs-Algorithmen einzelne Gegenstände und Personen aus dem ebenen Bild zu erfassen und diesen dann eine künstliche Tiefe zuzuweisen. Dies führt bei der Realisation in Consumer 3D-TV-Geräten aufgrund der „Echtzeitbedingung“ und der sehr beschränkten Rechenleistung zu einem sogenannten Scherenschnitt-Phänomen (Cardboard cut-out Phenomenon). D.h., Objekte wirken wie ausgeschnitten und eben vor dem Hintergrund platziert. Mit einer natürlichen Tiefenwiedergabe hat dies nichts zu tun.

Nicht verwechseln darf man das oben beschriebene Verfahren mit dem Vorgehen bei Computergraphiken. In den Studios werden Trick- und Animationsfilme rein synthetisch oder durch Abnahme aus Modellen auf mathematischer Basis erstellt. In diesen mathematischen Abbildungen ist auch Tiefeninformation eingebaut. Diese Trick- und Animationsfilme können aber nicht den Anspruch erheben, dass sie die uns umgebende reale Welt möglichst naturgetreu und ohne Verfälschung wiedergeben.

 

3D-Testbilder und Testsequenzen

“Beauty lies in the eye of the beholder” heißt es bei Shakespeare. Wenn Sie den Kauf eines 3D-Fernsehgerätes in Erwägung ziehen, sollten Sie nur Ihren eigenen Augen trauen. D.h., Sie sollten mit einer entsprechenden Bildvorlage die Sie kennen und die Sie jederzeit wieder benutzen können einen Bildvergleich zwischen den angebotenen Geräten bei Ihrem Händler machen. Dazu gibt es Experten, die 3D-Test-Blu-rays oder Testbilder zum Download für diesen Zweck anbieten (z.B. unter http://www.burosch.de).

 

Ausblick

3 Abb19

Abb. 19: Quo vadis 3-D?  Mit Brille oder ohne?  Hype oder nicht?

 

Wenn man die Versuche zur Etablierung von 3D-Filmen der Filmindustrie betrachtet, so fallen Spitzen in den 50iger Jahren, in den 80iger Jahren des letzten Jahrhunderts und jetzt von 2009 bis heute auf. Man kann daraus unschwer zwei Fakten entnehmen. Die Spitzen sind jeweils im Generationenabstand zu beobachten, d.h., eine jeweils neue Generation lernt diese Technik zum ersten Mal im Kino kennen. Und zweitens folgten diese Versuche jeweils auf zurückgehende Besucherzahlen im Kino durch neue Medien im Heimbereich. In den 50igern durch den Siegeszug des Fernsehens in den USA. In den 80igern die flächendeckende Verbreitung von Farbfernsehgeräten mit großen Röhrenbildschirmen und einer Vielzahl von empfangbaren Programmen (Private Fernsehanbieter) und Ende des ersten Jahrzehnts im neuen Jahrtausend die Etablierung von großen Flachbildschirmen und hochauflösendem Fernsehen (HDTV) in den Wohnzimmern.

Auch die Inhalte des jeweiligen 3D-Filmangebotes darf man meines Erachtens nicht außer Betracht lassen. In den 50igern wendete sich das 3D-Filmangebot mit Horror- und Science-Fiction-Filmen wie z.B. Jack Arnolds „It came from Outer Space“ vorwiegend an Erwachsene. In den 80igern wurde es zeitgemäß mit Exploitation-Filmen und viel Erotik probiert (z.B. Emmanuelle 4 in 1984). Und der neueste Versuch sind meistens computergenerierte Trick- und Actionfilme für das heute überwiegend junge Kinopublikum. Was sich aber geändert hat, dass nun auch namhafte Regisseure die 3D-Film-Technik als künstlerisches Ausdrucksmittel benutzen.

Was ich meine möchte ich an drei Beispielen aufzeigen. Da ist erstens die wundervolle Hommage des Regisseurs Wim Wenders an Pina Bausch. Wer die Porträtaufnahmen der Kompaniemitglieder sieht, während diese ihre Erinnerungen an Pina erzählen, muss zugeben dass 3D ein notwendiges künstlerisches Ausdrucksmittel darstellt. Zweitens Werner Herzogs „Die Höhle der vergessenen Träume“. Nur 3D-Technik kann die bis zu 35000 Jahre alten Felszeichnungen der Chauvethöhle so wiedergeben, wie sie die Steinzeitkünstler gedacht haben. Sie haben nämlich Erhebungen und Vertiefungen der Felswände benutzt um ihre Tierzeichnungen plastisch wirken zu lassen. Und drittens Martin Scorseses neuestes Meisterwerk „Hugo Cabret“. Ohne 3D-Technik würden all die mechanischen Uhren und Automaten im wahrsten Sinne des Wortes flach wirken.     

Damit ist die Chance riesengroß dass sich die 3D-Technik diesmal fest etablieren und neben dem Eventcharakter von Blockbuster 3D Filmen sich ein breiteres Publikum mit anspruchsvolleren Sujets erschließen kann.

Im deutschen Heimbereich wird wohl zunächst die 3D-Blu-ray die wichtigste Programmquelle für das 3D-fähige Flachbildfernsehgerät bleiben sieht man vom Nischenmarkt der Eigenaufnahmen mit Consumer 3D-Kameras und 3D-Camcordern ab, denn die öffentlich rechtlichen sowie privaten Sender haben mit der Einführung von HDTV riesige Investitionen zu tragen. Deshalb wird wohl mittelfristig nicht im großen Umfang in die Anschaffung von 3D-Kameras sowie 3D-Studio-Infrastruktur investiert werden können. Zumal die z.Z. für die Fernsehübertragung benutzten Verfahren aus Gründen der Bandbreitenökonomie sowie der Rückwärtskompatibilität zu im Markt befindlichen SAT-Receivern z.B. im side-by-side Mode arbeiten, was die Reduzierung der horizontalen Auflösung auf die Hälfte zur Folge hat (statt 1920 Bildpunkte nur mehr 960 Bildpunkte pro Fernsehzeile). Dies ist dann nur geringfügig mehr als die Standard TV-Auflösung (DVD 720 Bildpunkte) und damit kontraproduktiv zur Einführung von HDTV. Weiterhin sind Kanäle, in denen 3D im side-by-side Mode übertragen wird nicht rückwärtskompatibel, d.h. TV-Geräte die keine 3D-Funktion besitzen, würden nebeneinander das gestauchte linke und rechte Bild zeigen. Deswegen wird sich längerfristig auch bei der 3D-Fernsehübertragung der bei Blu-ray eingeführte MPEG-4MVC Standard durchsetzen und in SAT-Receivern sowie Kabel-TV-Receivern eingebaut werden.

Weiterhin bleibt die Frage ob größere Teile der Konsumenten bereit sind beim Fernsehabend eine Brille zu tragen. Denn nur die Verwendung einer Shutterbrille bzw. einer Polfilterbrille in Verbindung mit 4k-Panel gewährleistet eine 3D-Wiedergabe mit voller HDTV-Auflösung. Die heute verfügbaren Geräte mit brillenlosen Verfahren (autostereoskopisch) erreichen keine HDTV-Auflösung und lassen auch bezüglich Tiefenwirkung noch zu wünschen übrig.

Andererseits bedeutet die Verwendung einer Brille nicht, dass bei Einführung zukünftiger hochwertiger brillenloser 3D-TV-Geräte das gesamte jetzige System infrage gestellt wird. Der heutige Standard MPEG-4 MVC (Multiview-Video-Coding-Format), bei dem unterschiedliche Bilder für das linke und rechte Auge aufgezeichnet, auf der Blu-ray gespeichert und über den Player via HDMI ausgegeben werden, wird auch in Zukunft Bestand haben – allein die Darstellung des Bildes auf dem Display wird sich wandeln und die Brillen könnten nach und nach verschwinden. Vorrausetzung ist aber, dass die Kosten für superhochauflösende Displays entsprechend reduziert werden können und damit de Aufbau von erschwinglichen brillenlosen 3D-TV-Geräten ermöglicht wird. Der heutige innovative Käufer von 3D-Blu-ray Filmen braucht also nicht zu befürchten, dass er seine Scheiben bei neuen 3D-Displayverfahren nicht mehr verwenden kann.

 

 Literaturverzeichnis

 Eccles, J.C.         Die Psyche des Menschen. Das Gehirn-Geist-Problem in neurologischer Sicht. Serie Piper, München, 1990

 Gregory, R.L.      Auge und Gehirn Psychologie des Sehens. Rowohlt Taschenbuch Verlag, Hamburg, 2001

 Hayes, R.M.        3D-Movies. A History and Filmography of Stereoscopic Cinema McFarland & Co. Inc., Jefferson U.S., 1989         

 Holliman, N.       3D Display Systems. Department of Computer Science University of Durham, Durham 2005

 Howard, I.P.       Seeing in Depth. Volume I Basic Mechanisms. University of Toronto Press, Toronto, 2002

 Howard, I.P.       Seeing in Depth. Volume II Depth Perception. University of Toronto Press, Toronto, 2002

 Lucente, M.        Doctoral Thesis Dissertation, MIT Dept. of Electrical Engineering and Computer Science, Sept. 1994

 Ma, Y. (et al.)      An Invitation to 3-D Vision. From Images to Geometric Models. Springer Science, New York, 2004

 Pöppel,E. (Ed.)    Neuronal Mechanisms in Visual Restitution. Human Neurobiology, Vol. 1, 1982

 Pöppel,E.            Lust und Schmerz. Über den Ursprung der Welt im Gehirn. Wilhelm Goldmann Verlag, München, 1995

 Ponce, R.(et al.)  Stereopsis. Current Biology. Volume 18 No 18, 2008       

 Zeki S.               Inner Vision. An Exploration of Art and the Brain. Oxford University Press, Oxford, 1999

 Anmerkung:       Alle Zitate der englischsprachigen Originale wurden vom Autor ins  Deutsche übertragen.

 

Autor

Dipl.-Ing. (FH) Konrad L. Maul, Certified Counsellor

Konrad L. Maul war 37 Jahre in der Fernsehentwicklung tätig, davon 30 Jahre in leitender Position. Von 1977 bis Anfang der 80er war er als Teamleiter Vorentwicklung und Digitale Signalverarbeitung auch mit der Entwicklung mikroprozessorgesteuerter Videospiele betraut. Als Gruppenleiter war er für das erste Grundig 100 Hertz-TV-Gerät verantwortlich. Von 2001 bis 2008 leitete er die Fernsehentwicklung der Grundig AG und in der Nachfolge der Grundig Intermedia AG. Heute arbeitet er als Berater für Einzelne, Gruppen und Organisationen in technischen, wirtschaftlichen und sozialen Handlungsfeldern.

https://www.m2counselling.de

Seeing Hearing Engineering - YouTube

M2Counselling - YouTube

  

URHEBERRECHT / COPYRIGHT

Alle Rechte vorbehalten, all rights reserved,

Konrad L. Maul, Dipl.-Ing. (FH)

D-90459 Nürnberg
 
Dieses Technik-Essay, sein Inhalt und die enthaltenen Ideen sind urheberrechtlich geschützt. Sie dürfen nur zu privaten, wissenschaftlichen und nichtgewerblichen Gebrauch zum Zweck der Information kopiert und ausgedruckt werden. Der Autor behält sich das Recht vor, diese Erlaubnis jederzeit zu widerrufen. Ohne vorherige schriftliche Genehmigung des Autors darf dieses Dokument nicht vervielfältigt, archiviert, oder auf einem Server gespeichert, in Webseiten und Newsgruppen einbezogen, in Online-Diensten benutzt oder auf einer CD-ROM gespeichert werden. Ich erlaube ausdrücklich und begrüße das Zitieren aus diesem Dokument.

 

 

Geschichte Grundig 3D TV Entwicklung 1989-2008

 4 Abb01

Abb. 1: Grundig Entwicklungsarbeiten vom 3D-TV 100 Hz Bildröhrengerät mit Shutterbrille zum brillenlosen autostereoskopischen 3D-LCD-TV Flachbildgerät

(Grundig M 72-490 Reference; Grundig 3D Tharus 30; Brille Elsa)

 

Einführung

Dem Traum der Menschen von einer naturgetreuen Übertragung und Wiedergabe  von Szenen und Ereignissen in die eigenen vier Wände kommen heutige Fernsehgeräte mit neuester Signalverarbeitung und Displaytechnologie schon sehr nahe. Der flache Bildschirm an der Wand ist Realität geworden. Die großformatige, detailgetreue Wiedergabe, angepasst an die Physiologie des menschlichen Gesichtssinnes durch 16:9 und HDTV ermöglicht eine bisher nicht gekannte Einbezogenheit in das Geschehen auf dem Bildschirm. Dies wird mit Telepräsenz oder heute auch mit Immersion bezeichnet. Nun fehlte den hochauflösenden Bildern nur noch die dritte Dimension der realen Welt d.h. die räumliche Darstellung, was mit neueren 3D-Flachbildfernsehgeräten inzwischen auch möglich geworden ist.

Im Folgenden soll nun am Beispiel der GRUNDIG Fernsehentwicklung gezeigt werden, dass diese technische Innovation nicht plötzlich vom Himmel gefallen ist, sondern schon Jahrzehnte vorher Entwicklungsarbeiten geleistet wurden.

 

Geometrie des räumlichen Sehens

Bevor wir versuchen den Entwicklungsfortgang von 3D bei GRUNDIG zu schildern betrachten wir zum besseren Verständnis zunächst die geometrische Basis des räumlichen Sehens.

Weil die beiden Augen horizontal um den Augenabstand (bei Erwachsenen ca. 60 bis 70 mm) voneinander getrennt sind, sehen wir dieselbe visuelle Szene von zwei unterschiedlichen Ausgangspunkten und damit aus zwei unterschiedlichen Perspektiven.

4 Abb02

Abb. 2: Die Geometrie des räumlichen Sehens. Horizontaler Schnitt durch das rechte (AR) und linke Auge (AL) von oben gesehen.

 (Eigene Zeichnung nach Tyler C.W. 2004 Binocular Vision; in Ponco R. et.al. 2008 Stereopsis)

 

Abb.2 veranschaulicht dies anhand eines horizontalen Schnitts durch das rechte (AR) und linke Auge (AL), der von oben gesehen wird. Um den Pfeil scharf und dreidimensional zu sehen schwenken die Augenmuskeln die Augen in den jeweils entsprechenden Winkel (Konvergenz) und der Muskel der Augenlinse sorgt durch Einstellung der richtigen Brennweite (Akkommodation) für eine scharfe Abbildung. Wie wir sehen können sind die Abbildungen des Pfeiles auf der Netzhaut des rechten und des linken Auges unterschiedlich. Jedes technische 3D-Verfahren, das eine originalgetreue Wiedergabe ermöglichen will, muss dafür sorgen dass diese zwei unterschiedlichen Perspektiven dem jeweils richtigen Auge wieder angeboten werden. In der Abb. 3 sehen wir wie jetzt an der Stelle der beiden Netzhäute des rechten und des linken Auges die beiden Bildaufnahmesensoren der rechten und der linken Kamera. Auch die beiden Kameras müssen im Normalfall im Augenabstand voneinander montiert sein. Wenn dies aufgrund der Baugröße nicht möglich ist, wie das z.B. bei Professionellen Film- oder Fernsehkameras der Fall ist, wird dies mittels des optischen Strahlengangs  durch Spiegel und Prismen gewährleistet.

4 Abb03

Abb. 3: Horizontaler Schnitt durch rechte und linke Kamera (von oben gesehen). Bei der Aufnahme eines Stereobildes werden die beiden Augen durch die beiden Kameras ersetzt.

(Eigene Zeichnung nach Tyler C.W. 2004 Binocular Vision; in Ponco R. et.al. 2008 Stereopsis)

 

Entwicklungsanstoß aus der Grundlagenforschung (Kernforschungszentum Karlsruhe)

Bei GRUNDIG kam der Anstoß im Januar 1989 durch das damalige Kernforschungszentrum Karlsruhe Abteilung Steuerungssysteme und Kommunikation (heute Forschungszentrum Karlsruhe). Dort wurde das weltweit erste 100 Hz Serienfernsehgerät, der GRUNDIG  Monolith 70-390/7, als Basis für einen kostengünstigen 3D-Monitor angedacht. Man wollte damit ein mit Greifarmen ausgestattetes fernsteuerbares Fahrzeug mit einer Stereokamera ausstatten damit die bedienende Person die Aktionen auch räumlich beurteilen kann. Heute würde man dies als Rescue-Roboter bezeichnen. Als Einsatzgebiete waren Situationen gedacht die für Menschen mit sehr großen Gefahren verbunden gewesen wären (z.B. radioaktive Strahlung, giftige Gase, Einsturzgefahr usw.).

 

Shutterbrillentechnik (LCD-Lichtventil)

Seit Anfang der 80er Jahre waren Liquid Crystal Shutters schnell genug um als Lichtventil für die 3D-Film- und 3D-Video-Technik eingesetzt werden zu können. Bei diesem Verfahren werden sequentiell hintereinander das Bild für das linke- und das rechte Auge gezeigt (siehe Abb.4).

4 Abb04

Abb. 4: Das Shutterbrillenverfahren. Die Brille lässt für das linke und das rechte Auge nur das zugehörige Kamerabild passieren.

 

Die Shutterbrille wird mit einem drahtlosen Synchronsignal angesteuert und die eingebaute Steuerelektronik sorgt dafür, dass dann jeweils das richtige Auge freie Sicht bekommt.

Bei dem damals üblichen PAL/CCIR Standard beträgt die Halbbildfrequenz 50 Hz, es werden also 50 Halbbilder in der Sekunde auf dem Bildschirm gezeigt. Würde man nun jeweils aufeinanderfolgend ein linkes und ein rechtes Bild auf dem Bildschirm darstellen, so würde die Wechselfrequenz nur 25 Hz betragen. Es würde ein starker Rechts/Links-Flickereffekt entstehen der das System Auge/Gehirn zu stark belastet. Deswegen ermöglichte erst eine weitere technische Innovation in der Fernsehgerätetechnik, die sog. 100 Hz Technik, neben der Shutterbrille die Entwicklung eines kostenmäßig akzeptablen 3D TV-Systems.

Hintergrund für die Entwicklung der 100 Hz Technik war das Großflächenflimmern bei Bildröhren. Dabei zeigen große helle Bilder oder Bildteile ein deutliches Flimmern. Die Ursache dafür lag in der zu niedrigen Bildwechselfrequenz. Physiologische Untersuchungen erbrachten, dass bei Bildröhren Bildwechselfrequenzen von mindestens 70 Hz für eine flimmerfreie Bildwiedergabe erforderlich waren. Dies galt für Bildschirmarbeitsplätze mit Bildröhrenmonitoren in der EDV-Technik als Richtlinie. Hier sei kurz die Bemerkung eingeschoben, dass die  Anwendung von höheren Bildfrequenzen wie 100 Hz oder 200 Hz bei heutigen LCD-Flachbildgeräten eine andere augenphysiologische Ursache hat (siehe Anhang Literatur Maul, K. Die raffinierten Tricks der Bildverbesserer ).

Der Grundig Monolith 70-390/7, der ab Juli 1987 in limitierter Auflage produziert wurde, war nun als erstes Serien-Farbfernsehgerät mit 100Hz-Technik ausgestattet.

Um schnellstmöglich ein großflächenflimmerbefreites Gerät fertigen zu können, wurde auf die Verwendung von kundenspezifischen Schaltkreisen verzichtet. Deshalb mussten als Speicherschaltkreise digitale CCD-Speicher (317 kBit) verwandt werden, da diese einen wesentlich geringeren Steueraufwand für die mit Standard-Logik-Schaltkreisen aufgebaute Speichersteuerung erforderten. Dieser digitale CCD-Speicher (SAA 9001 von Valvo) besaß 

eine serielle Struktur. Dies bedeutete bei Verwendung in einem Bildfrequenzwandler  (Scan Rate Converter) zur Halbbildverdopplung, dass zwei Halbbildspeicher benötigt wurden. Der eine wurde mit dem jeweils aktuellen „Sender“-Halbbild beschrieben, während der Inhalt des Anderen, der das vorherige Halbbild enthielt, zweimal auf dem Bildschirm dargestellt wurde.

Bei 100 Halbbildwechseln in der Sekunde war selbst bei großen Helligkeitswerten kein Großflächenflimmern mehr erkennbar. Die Abb. 5 zeigt dieses Gerät mit den beiden aufgeklappten Platinen des mit Feature Box bezeichneten Moduls, das Bildspeicher und Speichersteuerung enthält. Wie zu sehen ist war diese Einheit mit fast 100 einzelnen Standard IC’s aufgebaut.

4 Abb05

Abb. 5: Erstes 100 Hz TV-Seriengerät Grundig M70-390/7 Text mit aufgeklappten Platinen der Feature Box  (Bildspeicher, Steuerschaltung, AD- und DA-Converter). Das Kernforschungszentrum Karlsruhe erweiterte das Gerät um eine weitere Feature Box um 3D-Betrieb zu ermöglichen.

(Maul, K.; Müller, G. 1987 TV-Bild ohne Flimmern Funkschau Heft 14, 1987, Franzis Verlag)

Das Kernforschungszentrum Karlsruhe rüstete nun einen Grundig M70-390/7 mit einer weiteren Feature Box aus und erhielt so einen Prototyp eines 3D-Monitors für die Wiedergabe von räumlichen Bildern nach dem Shutterbrillenprinzip.  Über diesen Prototyp hinaus entfaltete das Kernforschungszentrum Karlsruhe keine weiteren Aktivitäten bezüglich des Grundig100Hz-TV- Gerätes. Wahrscheinlich war die Zeit noch nicht reif für „Rescue-Roboter“ mit 3D-Bildübertragung zur Fernhandhabung.  

Der Grundig M70-390/7  (Digi I)wurde damals mit einer limitierten Auflage von ca. 3000 Stück gefertigt.

 

Entwicklungszusammenarbeit mit der Fa. Zeiss Oberkochen (Medizintechnik)

Um die Baugröße und die Anzahl der Schaltkreise zu verkleinern wurde schon 1988 die zweite Generation von Grundig 100 Hz Fernsehgeräten (Digi II) entwickelt und in den 

Fertigungsprozess überführt. Mit der inzwischen erfolgten Markteinführung von sogenannten Dual Port DRAM-Speichern erforderte nun die Halbbildverdopplung im Gegensatz zur ersten Grundig 100Hz-Generation nur mehr einen Halbbildspeicher. Um den hohen Datenstrom, den ein digitalisiertes Videosignal liefert mit den damaligen DRAM-Zugriffszeiten speichern zu können musste auf eine breite Parallelisierung  der Daten gesetzt werden. Es kamen neun DPRAM’s  mit jeweils 64k x4 also 256 kbit  zum Einsatz. Die Halbbildspeicherkapazität betrug damit ca. 2,3 Megabit. Die Speichersteuerung und das Ein- und Ausgangsinterface zu den Dualport-DRAM’s sowie die komplette Multistandard Farbdecodierung und Ablenkungsansteuerung wurde nun auf Basis digitaler Signalverarbeitung mit Large Scale Integration ICs realisiert, die bei Valvo (Philips Halbleiter) und Siemens Halbleiter  entwickelt unter dem Support der Grundig Fernsehentwicklung  mit ihrem spezifischen TV-Geräte und System-Wissen.

Aber erst mit der dritten Generation 100 Hz-Geräte (Digi III) wurden wieder 3D-Aktivitäten gestartet. Diese Geräte, die 1990 in Serienproduktion gingen, verfügten jetzt zusätzlich zur Halbbildverdopplung eine erweiterte digitale Signalverarbeitung zur Rauschunterdrückung und Reduzierung des Farbübersprechens des PAL-Standards (Crosscolor) sowie Eingänge zur separaten Y/C Verarbeitung für die nun erhältlichen S-VHS Videorecorder oder Camcorder.

Das Elektroniklabor des  Geschäftsbereiches Medizinisch-Optische Geräte von Zeiss in Oberkochen hatte eine Erweiterung für das Grundig 100 Hz-Gerät M70-100 IDTV entwickelt um dieses nachträglich tauglich für 3D-Wiedergabe nach dem Shutterbrillenprinzip zu machen. Dabei wurde ein weiterer Halbbildspeicher sowie eine kleine Steuereinheit in das Seriengerät eingebaut. In der Patentschrift DE 41 34 033 C1 „Vorrichtung zur Darstellung von dreidimensionalen Bildern“ vom 15.10.91ist explizit auf das Grundig  Farbfernsehgerät 100 IDTV als Basis hingewiesen (Abb. 5a).

 

4 Abb04a

Abb. 5a: Auszug aus der deutschen Patentschrift DE 41 34 033 C1; Anmeldetag 15.10.91; Patentinhaber Fa. Carl Zeiss;  „Vorrichtung zur Darstellung von dreidimensionalen Bildern“; Hinweis auf die Grundig Farbfernsehgeräteserie M…-100 IDTV.

 

Im Informationsblatt Med aktuell der Firma Zeiss Ausgabe Nr.: 28/91über neue med-opt. Geräte heißt es dazu: „Neu: Räumliches Fernsehen in der Mikrochirurgie mit dem 3D-Videosystem von Carl Zeiss. Anlässlich der MEDICA ’91, die vom 20. -23. November 1991 in Düsseldorf stattfindet, werden die Messebesucher am Zeiss Stand eine hochinteressante Neuigkeit bestaunen (und bestellen) dürfen: Während der Ausstellung wird das System am Operationsmikroskop OPMI CS-I gezeigt, es lässt sich jedoch an alle Zeiss Operationsmikroskope, Untersuchungsmikroskope  und Spaltlampen anschließen. Anwendungen in der Endoskopie werden ebenfalls möglich sein. Das Kernstück des Systems bildet ein Fernsehgerät, welches alle signalverarbeitenden Komponenten enthält.“

Und in den VDI Nachrichten Nr.34 vom 21. August 1992 war die Meldung zu lesen: „Videosysteme für die Fertigung: Räumliche Fernsehbilder für den Einsatz in der Industrie,  z.B. in Verbindung mit Endoskopen oder fernsteuerbaren Manipulatoren, bietet Carl Zeiss Oberkochen, seit diesem Sommer an. Entwickelt wurde das neue System ursprünglich für die Medizin. Das neue 3D-Videosystem zeichne sich durch seinen kompakten Aufbau und seine einfache Bedienung aus, heben die Zeiss-Experten hervor. Zwei handelsübliche TV-Kameras sind an ein Fernsehgerät angeschlossen, welches das Kernstück des Systems bildet. Hier ist die Elektronik für die 3D-Bildaufzeichnung und  –wiedergabe eingebaut.“

Im August 1993 erhielt der Verfasser von Fa. Zeiss die Mitteilung, dass das auf 3D-Wiedergabe erweiterte Grundig 100 Hz-Gerät M70-100 IDTV ein großer Erfolg sei. Gemessen natürlich an den in der Medizintechnik üblichen kleinen Stückzahlen.

 

Entwicklungszusammenarbeit mit der Fa. Wolf Endoskope (Medizintechnik)

Im Juni 1992 fand ein Gespräch zwischen der Grundig Fernsehentwicklung und der Forschung und Entwicklung der Fa. Richard Wolf Endoskope statt. Fa. Wolf war an uns herangetreten ob wir einen 3D-Monitor nach dem Shutterbrillensystem auf Basis unserer 100 Hz-TV-Seriengeräte für sie entwickeln und fertigen könnten. Als Einsatzgebiet war dort auch die Medizintechnik und speziell die minimal invasive Chirurgie angedacht.

Das von Fa. Zeiss gewählte Verfahren mit der Nachrüstung nur eines weiteren Halbbildspeichers in die digitale Signalverarbeitung des Grundig Gerätes mit dann nur einem A/D Konverter sowie nur einem Farbdecoder  hatte den gravierenden Nachteil, dass vertikale Auflösung sowie Bewegungsauflösung verloren ging. Fa. Wolf wollte für ihre Kunden aber die beste mögliche Performance des Stereobildes.

Deswegen machte der Verfasser den Vorschlag die von Fa. Wolf gewünschte Stereobildsequenz AR AL BR BL mittels zweier kompletter Feature-Boxen zu realisieren.

Das Verfahren sei anhand der originalen Entwurfsskizze des Autors aus dem Jahre 1992 erläutert (Abb.6).

4 Abb06

Abb. 6: Prinzipschaltbild für einen Grundig 3D-Monitor basierend auf den Seriengeräten der 4. Generation 100 Hz wie z.B. M70-781 IDTV

(originale Handentwurfszeichnung des Autors von 1992)

 

Wir sehen auf der linken Seite die Eingänge der rechten und die linken Kamera. Die beiden Kameras sind mittels einer Synchronleitung (Gen Lock) miteinander verkoppelt und liefern 

jeweils ein FBAS-Signal. Die drei digitalen Signalverarbeitungsblöcke,  Analog/Digital Konverter (ADC) mit Digitalem Farbdecoder (DMSD), Halbbildspeicher und Digital/Analog Konverter DAC) stehen für die komplette digitale Signalverarbeitung, der sogenannten Featurebox, der Grundig 4. Generation (DigiIV) 100Hz Geräte wie z.B. dem M70-781 IDTV.

Einer der wichtigen Neuerungen bei dieser Serie war die Implementierung eines neuen

Bildspeicher IC’s der Fa. Siemens Halbleiter. Es waren nun nur mehr drei SDA 9251 mit je 212k x 4bit Speicherkapazität anstatt der neun DPRAM’s mit je 256 kbit erforderlich um den Halbbildspeicher mit ca. 2,5 MBit zu bilden. Erreicht wurde dies durch die Implementierung von einem Schreibport und zwei unabhängigen Leseports in den Speicher IC.     

Wie schon erwähnt wurde aus Gründen der Performance diese komplette Featurebox noch einmal in das Gerät eingebaut. Dies hatte auch den Vorteil, dass Prüftechnik und Service beim 3D-Gerät mit nur einem Standardmodul kostengünstiger zu erreichen waren.  

 Am Ausgang  des Blocks ADC Digitaler Farbdecoder stand das decodierte Farbsignal als Luminanz (Helligkeit) sowie die beiden Farbdiffernzsignale U und V in  digitaler paralleler Form zur Verfügung. Im Halbbildspeicher wurde dann das jeweilige eingelesene Kamerahalbbild (50 Hz entsprechend 20 msec) mit doppelter Geschwindigkeit ausgelesen, sodass die Dauer halbiert wurde (100 Hz entsprechend 10 msec). Diese quasi in der Norm gewandelten digitalen 100 Hz Y, U, V Signale wurden dann im Block D/A Konverter (DAC) in analoge 100 Hz Y, U, V Signale gewandelt. Ein dreipoliger elektronischer Umschalter wählt nun, in der Prinzipskizze (Abb 6) nur einpolig gezeichnet, das für die Sequenz der 100 Hz Wiedergabe erforderliche Halbbild in der Reihenfolge AR AL BR BL aus dem D/A Ausgangssignal Rechts und dem D/A Ausgangssignal Links aus (Abb. 6 B Zeitdiagramm).

Wie aus dem Zeitdiagramm auch zu ersehen ist, konnte das Auslesen des 100 Hz  Halbbildes A und Halbbildes B jeweils erst 10 msec nach dem Beginn des Einlesens des 50 Hz Halbbildes A und Halbbildes B erfolgen. Dies war prinzipiell bedingt, da andernfalls sich noch Teile des vorhergehenden Halbbildes im Speicher befänden und fälschlicher Weise ausgelesen würden. Die Sequenz am Ausgang des Umschalters wurde an den Schaltkreis für  die Bildröhrenansteuerung weitergeleitet, der mit seiner Matrix die 100 Hz  R,G,B Signale generiert und die RGB-Endstufen ansteuert, die die Bildröhrenkathoden mit Signal versorgen. Der Block Vollbilderkennung und Displaysteuerung konnte in der praktischen Realisierung entfallen, denn die Signale zur  Steuerung des Displayumschalters und der Shutterbrille konnten aus vorhandenen Signalen der Feature Box gewonnen werden.

Kurz zum praktischen Aufbau. Wie schon erwähnt wurde ja ein normales Grundig Serien

100 Hz Fernsehgerät M70-781 IDTV so nachgerüstet, dass ein M70-781 IDTV 3D zur räumlichen Bildwiedergabe entstand. Dazu wurde die Steckbare Geräte Feature Box entfernt und eine Adapterplatine eingesteckt auf der zwei Feature Boxen für die Stereowiedergabe gesteckt werden konnten (Abb. 7). Weiterhin wurde die originale steckbare Buchsenplatte gegen eine neue für 3D entworfene getauscht. Diese Anschlussplatte enthielt die Anschlüsse für die rechte und linke Kamera (BNC und Hosiden Anschlussbuchsen) und die Anschlussbuchse für die Shuttersteuerung (SH). Für die VCR Aufnahme der Stereokameras und Wiedergabe der aufgenommenen Stereosignale waren ebenfalls Buchsen vorgesehen. Auch die Audiosignale wurden natürlich berücksichtigt. Abb. 8 zeigt die Anordnung der Anschlussbuchsen. Für ihr Gesamtkonzept benutzte Fa. Wolf Shutterbrillen und Infrarot-Sender von Stereo Graphics. Der Sender wurde an die Shuttersteuerung (SH) angesteckt).

Am 17.08.1993 erhielt die Grundig Fernsehentwicklung das VDE und CB Test Certificate des VDE Prüfinstituts für das Vorseriengerät. Die Serienfertigung hätte beginnen können. Leider konnte  Fa. Wolf im Gegensatz zu Zeiss das 3D-System nicht im Markt etablieren, sodass keine Serienfertigung erfolgte. 

 

 4 Abb07

Abb. 7: MechanischerAufbau des M70-781 IDTV 3D; Mittels Adapterplatinen konnten die für die räumliche Wiedergabe benötigten zwei Feature Boxen in   das unveränderte Chassis gesteckt werden.

(Aus der Umbauanleitung für die Grundig Gerätefertigung)

4 Abb08

Abb. 8: Mechanischer Aufbau der Platte für die externen Anschüsse (Buchsenplatte des M70-781 IDTV 3D;

(Aus der Umbauanleitung für die Grundig Gerätefertigung)

 

Entwicklungszusammenarbeit mit der Otto-von-Guericke-Universität Magdeburg

Im April 1995 nahm Dr.-Ing. Wunderlich vom Institut für Strömungstechnik und Thermodynamik Kontakt mit dem Autor auf. Einer der Tätigkeitsfelder des Instituts war die Untersuchung von Strömungsverhältnissen in Pumpen. So kann z.B. in Kreiselpumpen durch Flüssigkeits-Gas-Gemische bei zunehmender Pumpenleistung die Bildung einer Gasglocke zum Aussetzen der Pumpleistung führen. Diese Forschungsrichtung hatte ihren Hintergrund schon zu DDR Zeiten in der Unterstützung der Pumpenentwicklung für die sowjetische Erdölförderung. Um die Strömungsverhältnisse innerhalb der Pumpe zu untersuchen wurden durchsichtige „Fenster“ in die Pumpengehäuse eingebaut und durch diese Stereofotoaufnahmen, natürlich noch mit Film, gemacht. Anschließend wurden diese mittels zweier Diaprojektoren mit Polfiltern auf einen geeigneten Projektionsschirm projiziert und vom auswertenden Betrachter, der ebenfalls eine Polfilterbrille (Polfilter 3D-Technik siehe K. Maul „Quo vadis 3D“)  trug, mit Hilfe einer Traversiereinrichtung ausgemessen. Anschließend erfolgt mit Hilfe der bekannten Lage der im Objekt angebrachten Fixpunkte eine Umrechnung der Messwerte auf die Tiefenlage der gemessenen Bildpunkte.

Herr Dr. Wunderlich wollte nun den Nachteil einer zeitaufwendigen und mit Kosten verbundenen Bearbeitung des Filmmaterials durch den Einsatz von 3D-Videotechnik überwinden. Er hatte aber durch Messungen festgestellt, dass mit einer Anordnung, wie von Fa. Zeiss Oberkochen (siehe Beschreibung Seite 5) in das Grundig M70-100 IDTV 100 Hz-Seriengerät eingebaut,  die linken und rechten Bilder nicht aus gleichen Bewegungsphasen stammen. In der Strömungstechnik ist es aber wichtig, dass auch schnelle Bewegungsabläufe dreidimensional mit 50 Stereobildern  pro Sekunde dargestellt werden können. Wobei das linke und rechte Bild eines Stereobildes jeweils aus der gleichen Bewegungsphase stammen muss.

Die obigen Probleme waren aber mit dem Grundig Serien 100 Hz Fernsehgerät M70-781 IDTV 3D gelöst, das wir für Fa. Wolf Endoskope entwickelt hatten. Deswegen stellte ich Herrn Dr. Wunderlich eines dieser Pilotseriengeräte für seine Untersuchungen zur Verfügung. Seine Untersuchungen bestätigten, dass mit diesem Gerät Bewegungsabläufe optimal dargestellt werden konnten.

Aus dieser Zusammenarbeit mit Herrn Dr. Wunderlich entstand unser gemeinsames Deutsches und Europäisches Patent „Verfahren und Anordnung zur dreidimensionalen Videobildauswertung“ (EP 0 777 104 A2). Das Deckblatt dieses Patents ist in Abb. 9 gezeigt und enthält mit Fig.1 die Prinzipskizze der Erfindung. Anhand dieser soll nun die Funktion des Systems kurz beschrieben werden.

Mit 1 ist das auszumessende Objekt bezeichnet. Zwei mit 2 bezeichnete Videokameras liefern den rechten und den linken Bildauszug. Sie sind so aufgestellt, dass sich ihre optischen Achsen hinter dem Objekt schneiden. (Dies entspräche zum Beispiel einer Einstellung der beiden  Kameras auf das Pfeilende in der Abb. 3 zur Geometrie des räumlichen Sehens.)  Die beiden Kameras sind mittels ihrer Kamerasteuergeräte 3 synchronisiert und speisen ihre Signale in das Grundig 100 Hz Fernsehgerät M70-781 IDTV 3D, mit 5 bezeichnet, ein. 4 stellt die beiden Feature Boxen des Gerätes dar, die wie schon beschrieben jeweils getrennte Videosignalverarbeitungsschaltungen und Bildspeicher enthalten. Das virtuelle 3D-Bild ist mit 6 bezeichnet und wird bedingt durch die beschriebene Anordnung der Kameras vor dem Fernsehgerät erzeugt. Nur auf diese Weise ist eine Auswertung oder Vermessung des räumlichen Bildes des TV-Gerätes möglich. Die Infrarot-Shutterbrillensteuerung 7 sorgt für die Steuerung der Shutterbrille 8, sodass der Beobachter 9 mit dem linken Auge das Bild der 

linken Kamera und mit dem rechten Auge das Bild der rechten Kamera sieht. Die Travesiereinrichtung 10 dient zum Ausmessen des virtuellen 3D-Bildes. Mit dieser kann ein Lichtleiterkabel, dessen um 90° gebogene Spitze zum Beobachter zeigt, in den drei räumlichen Koordinaten verschoben werden und die jeweiligen Werte auf Skalen abgelesen werden. Anschließend erfolgt, wie schon erwähnt, mit Hilfe der Fixpunkte eine Umrechnung der Messwerte auf die Tiefenlage der gemessenen Punkte.

12 stellt eine Aufzeichnungseinrichtung dar, die entweder durch zwei synchronisierte Videorecorder oder durch einen Videorecorder mit zwei Videosignalspuren gebildet wird. Die Verwendung von Videoaufzeichnung ermöglicht zeitlich sehr lange Aufnahmen zu speichern und diese zu einem späteren Zeitpunkt auszuwerten.

Die auszumessenden Stereobilder können entweder durch „einfrieren“ der originalen Kamerasignale zum interessierenden Zeitpunkt im Bildspeicher (digitales 3D-Standbild) oder durch Wiedergabe der Magnetbandaufzeichnung zu einem gewählten Zeitpunkt.

Fig. 2 und Fig. 3 des Patentes zeigen  Blockschaltbild und Zeitdiagramm der Erfindung. Dabei wurde die Entwurfshandzeichnung des Autors für das Grundig 100 Hz Fernsehgerät M70-781 IDTV 3D verwendet, das für Fa. Wolf Endoskope entwickelt wurde (vergleiche Abb.6). Die Funktionsbeschreibung dazu wurde schon auf Seite 9 angegeben.

Damit konnte Grundig quasi als „Spin Off“ auch einen sehr schönen Beitrag zur Erweiterung der Meßverfahren in der Strömungstechnik liefern.

 

4 Abb09

Abb. 9: Europäische Patentanmeldung EP 0 777 104 A2  Anmeldetag 27.11.1996 Verfahren und Anordnung zur dreidimensionalen Videobildauswertung

Erfinder: Konrad Maul und Dr. Bernd Wunderlich

 

 

4 Abb10

Abb.10: Europäische Patentanmeldung EP 0 777 104 A2  Anmeldetag 27.11.1996 Verfahren und Anordnung zur dreidimensionalen Videobildauswertung

Blockschaltbild und Zeitdiagramm nach der Entwurfshandzeichnung des Autors (siehe Abb.6)

 

Entwicklungszusammenarbeit mit Fa. SYSDRAI (Consumer 3D)

Im April1998 erhielt der Autor einen Anruf von Fa. SYSDRAI, die sich mit Datensystemen und Multimedia beschäftigten. Sie waren im Rahmen ihrer Marktuntersuchungen in den USA auf VHS-Kauf-Cassetten gestoßen, die in 3D produziert worden waren. Gedacht waren diese für die 3D-Wiedergabe mit einem Standard VHS-Videorecorder und einem Shutterbrillensystem, das zusammen mit einem normalen Fernsehgerät betrieben werden konnte. Voraussetzung dazu war, dass inzwischen auch bei Computerspielen die 3D-Technik Einzug gehalten hatte, sodass preiswerte Shutterbrillen, die mittels Kabel an einen Computer angeschlossen werden konnten oder sogar über eine Infrarotübertragung gesteuert wurden, nun verfügbar waren.

Mit diesen Brillen und einem kleinen Zusatzgerät, das ebenfalls an das Ausgangssignal (FBAS) des Videorekorders angeschlossen wurde, und die synchronisierten Wechselimpulse für die Brillensteuerung generierte, konnte nun die Wiedergabe dieser 3D-VHS-Kaufcassetten erfolgen.

Die Aufzeichnungstechnik machte sich das Zeilensprungverfahren zunutze bei dem ja bekanntlich zwei Halbbilder sequentiell übertragen werden. Anhand der Abb. 14 sei nun kurz das Prinzip der Aufzeichnung erläutert. Die beiden Halbbilder des Fernsehsignals werden wie üblich mit A und B bezeichnet. Die folgenden Ziffern 0, 1, 2 geben die zeitliche Reihenfolge der Vollbilder an. Die Indizes L und R geben an ob die Halbbilder von der linken oder rechten Kamera stammen. Wir sehen nun, dass mittels eines Umschalters die folgende Signalfolge gebildet werden kann: A1L, B1R, A2L, B2R usw.

Wie man sehen kann enthält jeweils ein Vollbild (Frame) ein Halbbild mit der Perspektive der linken und ein Halbbild mit der Perspektive der rechten Kamera. Damit kann passend in das zeitliche Raster des PAL/CCIR Systems ein 3D-Signal eingebaut werden, das von einem Standardvideoaufzeichnungsgerät aufgenommen und auf Video-Kauf-Cassetten vervielfältigt  werden kann. Auch senden ließe sich dieses Signal allerdings nicht rückwärtskompatibel zum Standard 2D Fernsehgerät.

Da das amerikanische NTSC-TV-System 60 Hz Vertikalfrequenz und damit 60 Halbbilder pro Sekunde darstellt ergaben sich  bei Stereobetrieb 30 Wechsel vom linken zum rechten Bild. Das sich ergebende Umschaltflimmern von 30 Hz ist aber für den Betrachter sehr störend. Wie wir Eingangs bei der Beschreibung des Shutterbrillen 3D-Systems gesehen haben würde beim damals üblichen PAL/CCIR-System die Umschaltsequenz nur 25 Hz betragen und wäre vollkommen inakzeptabel gewesen. Deswegen wurde bei Fa. Sysdrai die Überlegung angestellt, ob man nicht die inzwischen etablierte 100 Hz-Gerätetechnik für eine flimmerfreie Wiedergabe benutzen könnte und daraus resultierte die eingangs erwähnte Anfrage bei Grundig.

Bei Grundig war inzwischen seit 1997 die Serienproduktion der sechsten Generation (DIGI VI) der 100 Hz Fernsehgeräte angelaufen. Diese enthielten Weiterentwicklungen, die der 3D-Wiedergabe entgegen kamen.

Zum ersten wurde in diesen Geräten eine weitere Störung des Standard-TV-Systems (PAL/CCIR sowie SECAM), das sogenannte Zwischenzeilenflimmern beseitigt. Bei Einführung des elektronischen Fernsehens mit 625 Zeilen und 25 Vollbildern pro Sekunde nach dem zweiten Weltkrieg wurde festgelegt das Zeilensprungverfahren zu verwenden. Dabei werden zunächst die ungeraden Zeilen eines Vollbildes also Zeile 1, 3, 5, 7 usw. bis Zeile 625 übertragen und danach die geraden Zeilen dieses Vollbildes also 2, 4, 6, 8 und so fort bis Zeile 624. Ein Vorteil dabei ist, dass dadurch zwei Halbbilder entstehen (A und B) mit jeweils nur 20 msec Dauer und sich dadurch eine Bildfrequenz von 50 Hz ergibt und damit das Großflächenflimmern stark verringert werden konnte als wenn Vollbilder mit 25 Hz Bildfrequenz übertragen worden wären.  Ein Übertragen des kompletten 625 Zeilenvollbildes mit einer Vollbildfrequenz von 50 Hz hätte natürlich auch das Großflächenflimmern reduziert aber die doppelte Übertragungsbandbreite erfordert.

Da nun aber bei diesem Zeilensprungverfahren benachbarte Zeilen ja aus verschiedenen Halbbildern stammen tritt an horizontale Kanten des Fernsehbildes eine Flackererscheinung von 25 Hz auf. So springt z.B. bei einer Tennisübertragung die Kante der Grundlinie in diesem 25 Hz-Rhythmus. Um diese Störung zu beseitigen benötigte man einen Bildspeicher der beide Halbbilder, also alle 625 Zeilen eines Vollbildes abspeichern konnte.

Damit war es dann möglich das Vollbild nicht wie bisher nur in Halbbildwiederholung AABB, sondern auch in der Sequenz ABAB mit einer verdoppelten Zeilensprungsequenz wiederzugeben. Bezüglich der Synchronisation des Rasters spricht man von αβαβ anstatt wie bisher bei 100 Hz-Geräten mit nur einem Halbbildpeicher ααββ.

Damit konnte man bei Fernsehbildern mit keinem oder nur sehr geringem Bewegungsanteil das Zeilenflimmern komplett eliminieren.

Bei bewegten Objekten oder Kamerabewegungen (z.B. Schwenk) führte dieses einfache Verfahren aber zu Störungen an senkrechten Kanten (Auszahnen), weil ein Rücksprung in alte Bewegungsphasen erfolgte. Deswegen war ein Bewegungsdetektor erforderlich, der durch blockweisen Bildvergleich den Grad von Bewegungen im Fernsehbild feststellen konnte. Bei einer mittleren Bewegung wurden mittels einer Rechenvorschrift (Algorithmus) dann die Bildpunkte von benachbarten Zeilen so korrigiert, dass dies das Zwischenzeilenflimmern beseitigte.

Bei Grundig wurde ein Verfahren eingesetzt, dass auf dem Algorithmus von Prof. Dr. Schröder (Universität Dortmund) der für Grundig patentiert wurde, aufsetzte. Dabei wird das digitale Fernsehsignal in den vertikalen Höhen- und Tiefenanteil aufgespaltet und unterschiedlich prozessiert.

Wurde vom Bewegungsdetektor sehr starke Bewegung signalisiert ging das System automatisch in den Rückfallmodus AABB mit der Rastersequenz ααββ.

Bei Kinofilmen die ja mit 24 Bildern pro Sekunde gedreht werden und im Fernsehen mit 25 Vollbildern wiedergegeben werden sind die beiden Halbbilder A und B bezüglich der Bewegungsphase identisch. Also konnte man generell das Verfahren ABAB mit der Rastersequenz αβαβ ohne Umschaltung auf „Schröder Algorithmus“ oder Rückfallmodus verwenden. 

Firma Siemens Halbleiter setzte mit der Unterstützung der Grundig Fernsehentwicklung dieses Verfahren in einen digitalen CMOS-Signalprozessor um. Er wurde als Fieldmixer (SDA 9270) bezeichnet. Abb. 11 zeigt die Speicherplatte eines 100 Hz Seriengerätes der Serie DIGI VI z.B. M72-410 Reference. Es sind die sechs Speicherbausteine SDA 9251 mit je 212k x 4 Bit, die den Videovollbildspeicher mit rund 5 Megabit bilden, zu sehen. Links unten ist der Fieldmixer SDA 9270, oben rechts der Picture Prozessor SDA 9290 und oben links der Displayprozessor SDA 9280 angeordnet.

4 Abb11

Abb.11: Speicherplatte eines 100 Hz Seriengerätes der Serie DIGI VI z.B. M72-410 Reference. Es sind die sechs Speicherbausteine SDA 9251 mit je 212k x 4 Bit Speicherkapazität, die den Videovollbildspeicher mit rund 5 Megabit bilden. Links unten der Fieldmixer SDA 9270. Oben rechts der Picture Prozessor SDA 9290. Oben links der Displayprozessor SDA 9280.

 

Die zweite Weiterentwicklung der DIGI VI 100 Hz Geräteserie betraf die Erweiterung um einen VGA Eingang. Inzwischen hatte sich das Internet etabliert und ein großformatiges Fernsehgerät als Monitor für einen PC verwenden zu können stellte ein sehr gutes Gerätefeature dar. Da die Grundig 100 Hz-Geräte ja mit Zeilenablenkfrequenzen von 31,25 kHz liefen, die RGB-Endstufen für die 100 Hz Wiedergabe auf die doppelte Videobandbreite ausgelegt waren (10 MHz anstatt 5 MHz) und eine gleichstromgekoppelte Vertikalablenkung zum Einsatz kam war die Einführung eines VGA-Standard-Eingangs möglich. Dazu war ein VGA-Steckmodul entwickelt worden, das in jedes Gerät der DIGI VI Geräteserie nachgerüstet werden konnte. Abb. 12 zeigt die Standards die die Grundig Geräte dieser Serie beherrschten.

Schon zur Internationalen Funkausstellung 1997 hatte das Heinrich Herz Institut zwei Grundig M 95-410/9 Reference DIGI VI als 100 Hz-Monitore mit Shutterbrillen zur Präsentation ihrer 3D-Forschungen benutzt. Sie zeigten einen kompletten 3D-Signalweg am Beispiel von DVB-T Sender und DVB-T Empfänger. Dabei wurden für das rechte und linke Bildsignal jeweils ein MPEG 2 Datenstrom benutzt. Und damit natürlich zwei MPEG 2 Decoder auf der Empfängerseite. Die Bildqualität der übertragenen 3D-Testfilme war ausgezeichnet und der 3D-Effekt auf den großen 95 cm Bildschirmen überzeugend. Das empfängerseitige Blockschaltbild des Aufbaus zeigt Abb. 13.

4 Abb12

Abb.12: Auszug aus einer Grundig Mitteilung vom 05.09.1997 über die möglichen Eingangssignale beim Betrieb der Digi VI 100 Hz Geräteserie (z.B. M72-410 Reference) bei Nachrüstung mit einer VGA-Adapterplatte. Wie unter 4 zu sehen ist konnten diese Geräte als 100 Hz Monitor für 3D-TV Signale eingesetzt werden.

4 Abb13

Abb.13: Blockschaltbild der Empfängerseite des Messeaufbaus einer 3D-TV Übertragung mittels zwei MPEG 2 Datenströmen auf der Internationalen Funkausstellung 1999. Zur Darstellung wurde ein Grundig M95-410/9 Reference mit einer nachgerüsteter einer VGA-Adapterplatte benutzt.

(Eigene Zeichnung nach Unterlagen des HHI Berlin)

 

Weiterhin hatte Grundig eine sogenannte Internet-Box WB 1 in das Geräteprogramm aufgenommen. Dies war der erste Versuch ein kleines Zusatzgerät zu kreieren, das einen Internetzugang nun auch auf dem Wohnzimmerbildschirm ermöglichte. Angeschlossen wurde die WB 1 über ein EuroAV-Kabel (Scart RGB) oder im Fall eines Grundig 100 Hz DIGI VI Gerätes mit nachgerüsteter VGA-Adapterplatte über ein VGA-Kabel.

Da Internetseiten ja aus viel Text und Bildern bestehen würden bei der Wiedergabe auf dem Fernsehgerät, dessen Ablenkung  im Gegensatz zum PC-Monitor im Zeilensprungverfahren (Erklärung  siehe oben) arbeitet, horizontale Kanten stark im 25 Hz-Rhythmus flickern. Ausweg wäre natürlich, wie schon erwähnt das DIGI VI Gerät über die VGA-Schnittstelle anzuschließen. Da aber die VGA-Adapterplatte ein Nachrüstmodul war, konnte man nicht davon ausgehen, dass jeder Kunde der eine Internet-Box WB 1 erwarb auch noch das Gerät mit VGA nachrüsten lassen würde. Deswegen wurde in die Gerätesoftware für die AV-Stellungen eine Einstellmöglichkeit vorgesehen. Der Kunde konnte im Bildschirmenü dem benutzten Euro AV Anschluss (Scartbuchse) die gewünschte Betriebsart zuordnen. Für die Internet-Box galt ja dasselbe, wie für die Wiedergabe von Kinofilmen. Zwischen den Halbbildern A und B findet keine Bewegung von Objekten statt. Damit kann man wie schon erwähnt den Fieldmixer per Software so einstellen, dass für den Bildinhalt ABAB und für die Synchronisation des Fernsehrasters αβαβ benutzt wird. Damit flickern die horizontalen Kanten nicht mehr mit 25 Hz sondern mit 50 Hz und dies wird dann vom menschlichen Gesichtssinn nicht mehr als störend empfunden. Auch bei der Wiedergabe von Fotografien vom Foto-CD- oder DVD-Player war dann diese Einstellung von großem Vorteil für die Bildqualität. Im Menü wurde für diese Einstellung die Kurzbezeichnung Foto-CD / Web Box gewählt.

Diese Einstellmöglichkeit zusammen mit dem vorher erklärten Vollbildspeicher mit Fieldmixer war auch der Schlüssel dafür, dass jedes DIGI VI Seriengerät für die Wiedergabe von 3D im Shutterbrillensystem geeignet war.

Wie schon eingangs angeführt, kann man das Zeilensprungverfahren mit den beiden Halbbildern A und B dazu benutzen ein 3D-Signal einzufügen. Wie in Abb. 14 gezeigt ergibt das dann die Sequenz A1L, B1R, A2L, B2als Eingangssignal für das Grundig DIGI VI 100Hz-Gerät. Mit obiger Einstellung (Foto-CD / Web Box / 3D-TV) ergab sich dann nach der 100 Hz Konvertierung am Ausgang des Displayteils und damit auf der Bildröhre dargestellt die Sequenz    / A1L, B1R / A2L, B1/ A2L, B2R  /. Die Vollbilder sind jeweils durch die Schrägstriche zusammengefasst. Damit konnte ein flimmerfreies 3D-Bild mit dem normalen Serienstand der Grundig  DIGI VI 100 Hz Geräte dargestellt werden. Nachteil dieser einfachen Variante, wie schon eingangs erwähnt, war die geringere Bewegungsauflösung. Und zwar nicht nur wie bei der Wiedergabe von Kinofilmen eine Reduzierung auf 25 Bewegungsphasen pro Sekunde sondern auch noch zu einem Auszahnen von senkrechten Kanten bei schnellen Kameraschwenks oder schnellen Objektbewegungen, weil in vorhergehende Bewegungsphasen zurückgesprungen werden muss. Dies ist in obiger Sequenz am Vollbild / A2L, B1/ zu sehen, denn Halbbild B1R ist aus der vorhergehenden Bewegungsphase.

Die Abb. 15 zeigt das besprochene 3D-TV System wie es zum ersten Mal anlässlich der Internationalen Funkausstellung 1999 im Händlerzentrum des Grundig Standes unter Verwendung eines Seriengerätes DIGI VI M72-410 Reference der Fachpresse und Experten des Fachhandels vorgeführt wurde.

Die Fa. Sysdrai war von Grundig beauftragt worden mit ihrem 3D-TV-Kamerasystem einen 3D-Präsentationsfilm für die Messe zu erstellen. Dieses Demo-3D-Video wurde auf eine digitale DV-Cassette kopiert um beste Qualität zu erreichen. Auf der Messe wurde dann ein Grundig Digital-Camcorder nach dem DV Standard zur Wiedergabe des vorproduzierten DV-Bandes verwendet. Damit wurde eine noch bessere Bildqualität als mit einem analogen VHS-Videorecorder erreicht. Die Firma Sysdrai hatte auch das kleine zusätzliche Steuermodul entwickelt, das über eine Scartbuchse des Fernsehgerätes mit dem 3D-FBAS-Signal versorgt wurde. Aus diesem Signal extrahierte eine kleine elektronische Schaltung die 50 Hz Bildsynchronimpulse und die Vollbildkennung, die zur Infrarot Steuerung der Shutterbrillen benötigt wurden. Als Shutterbrillen wurden die serienmäßigen Brillen der Firma Elsa eingesetzt.

Die Vorführung hatte eine sehr gute Resonanz bei Fachautoren und Experten. Zur Hausmesse der Grundig Niederlassung in der Schweiz wurde die Präsentation im März des Jahres 2000 nochmals wiederholt.

Leider konnte weder die Firma Sysdrai noch Grundig bei Anbietern von bespielten Video-Cassetten Interesse an der Produktion von 3D-Material wecken.  

4 Abb14

Abb.14: Zeitdiagramm bei Verwendung eines 100 Hz Seriengerätes der Serie DIGI VI z.B. M72-410 Reference zur 3D-Wiedergabe. Das Ausgangssignal des Umschalters ist das Eingangssignal des Fernsehgerätes (3D FBAS-Signal) und kann entweder wie gezeichnet Live von einer Stereokamera, von einem Videorekorder oder als Sendersignal kommen.

4 Abb15

Abb.15: Anordnung 3D-TV Präsentation im Händlerzentrum des Grundig Standes unter Verwendung eines 100 Hz Seriengerätes der Serie DIGI VI M72-410 Reference. Als Programmquelle wurde der Grundig digitale Camcorder verwendet. In diesem wurde das vorproduzierte DV-Band eingelegt. Damit wurde eine noch bessere Bildqualität als mit einem analogen VHS-Videorecorder erreicht.

 

Entwicklungszusammenarbeit mit X3D Technologies und 3D-Image Processing

 Die Ära der LCD-Flachbildschirme wurde in der Grundig Fernsehentwicklung 2002/2003 mit dem Tharus 51 (LCD 51-9310), einem Gerät mit 20 Inch LCD Display, eingeleitet. Große Flachbildschirme, wie 42 Inch (also 107 cm Diagonale) ließen sich zu dieser Zeit nur mit Plasmadisplays realisieren.

Basis für das erste Grundig LCD-TV-Gerät war ein hochintegrierter Schaltkreis für die digitale Signalverarbeitung, der „Falconic“ von NXP (der früheren Philips Semiconductors). Dieser war für die Großflächenflimmer- und Zeilenflimmerbefreiung von 100 Hz Bildröhrenfernsehgeräten entwickelt worden. Der Ansatz war anders als beim vorher beschriebenen „Fieldmixer“ mit seinem Grundig-Algorithmus. Beim Falconic wurde grob gesprochen das Fernsehbild in Blöcke aufgeteilt und die jeweiligen Blöcke mit den Blöcken des vorhergehenden Bildes verglichen um so die Bewegung von einzelnen Blöcken zu ermitteln. Für diese bewegten Blöcke konnte dann der Bewegungsvektor, also seine Verschiebung in Pixeln und Zeilen ermittelt, werden. Damit wurde es dann möglich bei den zu berechnenden neuen Halbbildern bei der 100 Hz-Wiedergabe die bewegten Blöcke passend einzubauen (Bewegungsschätzung).

LCD-Flachdisplays benötigen eine progressive Ansteuerung, d.h. sie können nicht wie Bildröhren im Zeilensprungverfahren betrieben werden. Ein sogenannter „Deinterlacer“ muss aus den beiden Halbbildern A und B ein Vollbild errechnen mit dem das Display angesteuert werden kann. Da diese ersten kleinen LCD-TV-Displays nur eine Auflösung von 640 x 480 Pixeln (VGA-Standard) hatten wurde bei Grundig die Idee entwickelt diesen 100 Hz- Fernsehschaltkreis „Falconic“ als „Deinterlacer“ und „Scaler“ einzusetzen. Unter Skalierung versteht man die Umrechnung des 720  x 576 Pixel Bildinhaltes eines Pal/CCIR Vollbildes auf die Displaywerte, hier 640 x 480 Pixel. Damit entstand das erste LCD-TV-Gerät in Serie, das alle Funktionen eines richtigen „Highend“ 100 Hz-Röhrenfernsehgerätes auch besaß. Dieser Tharus 20 schnitt in den einschlägigen Testmagazinen hervorragend ab.

Die Entwicklungsarbeiten an den langsam verfügbar gewordenen größeren LCD-Displays, wie 23“, 26“ und 30“ wurden durch die Insolvenz der Grundig AG im Jahre 2003 unterbrochen. Der mörderische Preiskampf in der Unterhaltungselektronikbranche hatte den Fernsehbereich voll erfasst.

Der Grundig Unterhaltungselektronikbereich wurde 2004 gemeinschaftlich von BEKO (Koc) und Alba übernommen und eine neue Gesellschaft, die Grundig Intermedia AG gegründet. In Nürnberg konnte sich eine kleine, bewährte Entwicklungsabteilung unter der Leitung des Autors weiter mit der Entwicklung von „Highend“ LCD-TV-Geräten befassen.

Es entstand das Chassiskonzept G1 auf der Basis eines „Scalers“ der Firma Trident (inzwischen von Sigma Designs übernommen), das die nun üblichen LCD-Displays mit 1280 x 768 Pixeln (WXGA) ansteuern konnte. Als Bildschirmgrößen waren 26“ also 66 cm und 30“ also 76 cm damals verfügbar.

Anfang 2005 hatte die Firma 3D Image Processing bei Grundig Intermedia angefragt ob nicht Interesse bezüglich einer Zusammenarbeit an einem LCD-Fernseher mit brillenloser 3D-Wiedergabe bestünde. 3D Image Processing hatte sein 3D-RealTime Vision System unter anderem für einen namhaften Kunden der Fertigungsautomation entwickelt um damit z.B. Abstands- und Lagemessungen in automatisierte Fertigungsstraßen (Roboterhandhabung) durchführen zu können.

Und hauptsächlich natürlich  um der generell wachsenden Nachfrage der Industrie nach in Echtzeit erstellten präzisen visuellen 3D-Modellen, 3D-Filmen und 3D-TV Inhalten für Designentwicklungen, Marketingaufgaben und Werbung nachzukommen zu können.

Für diese Anwendungen, wenn wir z.B. an die Werbung denken, ist die Benutzung von Brillen ein großes Handicap. Nehmen wir den Fall ein Werbespot oder eine Produktvorstellung soll in Verkaufsräumen laufen und die Kunden müssten beim Vorbeischlendern erst dazu gebracht werden Brillen aufzusetzen, dann  wäre der Erfolg wahrscheinlich nicht besonders umwerfend. Springt ihnen aber beim flüchtigen Blick auf den Bildschirm ein räumliches Bild quasi entgegen sollte dies für Interesse sorgen. Bevor wir auf den spezifischen Algorithmus von 3D Image Processing eingehen zunächst eine kurze Funktionserklärung des brillenlosen 3D Verfahrens.

4 Abb16

Abb. 16: Prinzipdarstellung des brillenlosen Verfahrens für 2 Ansichten (Links und Rechts).

(Eigene Zeichnung nach Holliman N. (2005) 3D Display Systems; University of  Durham)

 

Ein Grundprinzip dazu wurde schon 1912 vom Schweizer Augenarzt Walter R. Hess als „Lentikular-Folien-Stereogramm“ patentiert.

Bei einer Anwendung dieser Technik auf 3D-TV-Geräte wird eine Linsenrasterfolie (Fresnellinsenfilterfolie) direkt auf dem Flachdisplay (LCD oder Plasma) aufgebracht. Die Ansteuerung des Displays erfolgt dann so, dass vertikale Streifen des linken und rechten Bildes aufeinander folgen (was allerdings die örtliche Auflösung in der horizontalen Richtung halbiert). Der Abstand zwischen den Augen sorgt dafür, dass das linke Auge nur die linken Pixel-Streifen und das rechte Auge nur die rechten Pixel-Streifen sieht und damit das dreidimensionale Bild vom Betrachter gesehen werden kann. Praktisch ergibt sich aber ein sehr kleiner Bereich (kleiner Sweet Spot) in dem das Bild korrekt stereoskopisch gesehen werden kann. Deswegen wurden Systeme entwickelt, die mit einer Kamera die Augen des Betrachters erfassen und Distanz und Augenabstand ermitteln und danach die Linsenrasterplatte mechanisch verschieben. Oder die vorgesetzte Linsenrasterplatte ist fest fixiert und die Links-Rechts Pixelmuster werden in der Graphikkarte eines PC oder Notebook mit der Kamerainformation nachgesteuert um so den 3D Eindruck bei Kopfbewegungen beibehalten zu können. Diese Systeme sind für die damals angedachten Anwendungen sowie für ein im Heimbereich verwendbares 3D-TV-Gerät nicht brauchbar. Deswegen wurde ein Verfahren entwickelt, das mehrere Ansichten benutzt und damit den Winkelbereich aus dem 3D gesehen werden kann entsprechend vergrößert (großer Sweet Spot).

In Abb. 17 ist so ein Verfahren mit 5 Ansichten dargestellt. Es sind nun nicht wie vorher vertikale Streifen mit abwechselnder linken und rechten Ansicht sondern es folgen vertikale Streifen aus jeweils 5 Perspektiven aufeinander. Aufgrund des optischen Strahlenganges (Fresnellinsenfilterfolie) und des Augenabstandes sieht der Beobachter jeweils nur zwei Ansichten, im dargestellten Beispiel V4 und V2. Bewegt der Zuschauer den Kopf nach links wechselt er zu den Ansichten V5 und V3. Bei einer Kopfbewegung nach rechts sind es dann die Ansichten V3 und V1. D.h. es kommt nicht wie im Fall, wenn nur die rechte und die Linke Ansicht benutzt wird, dass bei Kopfbewegung der Raumeindruck zerstört wird.

Macht man dies wie in der Abb. 17 nach dem Prinzip der ausschließlich vertikal orientierten Linsenrasterfolie, verringert sich die horizontale Auflösung (Anzahl der Bildpunkte) bei fünf Ansichten um den Faktor fünf, was zu einer sehr bescheidenen Bildqualität führen würde. Deswegen werden bei diesem autostereokopischen Verfahren mit mehreren Ansichten die jeweiligen Pixel der Ansichten  in einem Muster in der Horizontalen und in der Vertikalen verteilt. Die Linsenrasterfolie muss natürlich entsprechend angepasst werden. Mit dieser Anordnung kann man dann einen in horizontaler und vertikaler Richtung ausgewogenen Auflösungsverlust erreichen.

4 Abb17

Abb. 17: Prinzipdarstellung des brillenlosen Verfahrens für 5 Ansichten (Links und Rechts).

(Eigene Zeichnung nach Holliman N. (2005) 3D Display Systems; University of  Durham

 

Nun aber wieder zurück zur Grundig 3D-Historie. Damals Anfang 2004 war HDTV noch nicht in Deutschland eingeführt und die mit SXGA  bezeichnete Auflösung von 1280 x 768 Pixel war bei LCD-TV-Geräten üblich.

3D Image Processing hatte den mit COBAM (Coherence Based Modelling) bezeichneten Algorithmus entwickelt und sich diesen patentieren lassen. Dieser simuliert und reproduziert das menschliche räumliche Sehen und die damit verbundenen neuronalen Prozesse. Einfach gesprochen berechnet er aus dem linken und rechten Bild einer Stereokamera eine sogenannte Tiefenkarte (Depth Map). In Abb. 18 ist dies schematisch dargestellt. Die Tiefenkarte gibt nun die Entfernung eines Punktes (Pixel) vom Betrachtungsort an.  In der Abb. 18 sind diese Werte in Form von Grauwerten dargestellt. Weiß für die nahe gelegenen Punkte wie z.B. die Schnauze der Drachenfigur und ganz schwarz z.B. für den entfernt liegenden Hintergrund. Die dazwischen liegenden Grautöne entsprechen den jeweiligen Entfernungen. COBAM berechnet nun mittels Tiefenkarte und eines virtuellen 3D-Modells die für das jeweilige brillenlose 3D-LCD-TV-Display benötigten Ansichten. Es waren zwar Verfahren bekannt die Ansichten mittels entsprechend ausgestatteter PC´s zu berechnen, aber eben nicht in Echtzeit. Es brauchte für eine lange Stereosequenz mehrere Stunden Rechenzeit. Eine Lifewiedergabe war damit nicht möglich.

4 Abb18

Abb. 18: Prinzipdarstellung des brillenlosen Verfahrens nach dem COBAM Algorithmus von 3D-Image Processing.

(Eigene Zeichnung nach Vorlagen von 3D-Image Processing GmbH Kissing)

 

Grundig Intermedia nahm das Angebot zur Zusammenarbeit mit 3D Image Processing an. Hintergrund war auf der nächsten Funkausstellung die erste Lifeübertragung (Stereokamera zum Grundig 3D-LCD-TV Gerät) zu präsentieren. Und weitergehend eine limitierte Auflage dieser 3D-Tharus 30 zu fertigen um sie B2B Kunden für Marketing und Werbezwecke anzubieten bzw. auch selber für diese Anwendungen zu nutzen. Damit konnte Grundig aufzeigen, dass der alte technische Pioniergeist noch vorhanden war.

3D Image Processing hatte die Aufgabe übernommen ihren Algorithmus für acht Ansichten in einem Versuchsaufbau mit mehreren digitalen Signalprozessoren und damit realtimefähig umzusetzen. Nach gelungener Präsentation sollte einer der namhaften Halbleiterhersteller im Bereich Videosignalprozessing dafür gewonnen werden einen hochintegrierten Schaltkreis für diesen Algorithmus zu bauen.

Die Firma X3D Technologies, die Expertise in Gestaltung und Aufbringung der Fresnellinsenfolien für Flachdisplays hatte, übernahm die Aufbringung der Linsenrasterfolie für acht Ansichten.

Die Grundig Fernsehentwicklung selektierte vor dem Aufbringen der Folie für den 3D-Umbau Seriengeräte Tharus 30 mit minimaler Pixelfehlerrate des LCD-Displays und gleichmäßiger Leuchtdichte auf der ganzen Displayfläche. Ferner unterstützte die Grundig Fernsehentwicklung bei der konstruktiven Anpassung des Folienrahmens an den Displayrahmen des Panels.

Rechtzeitig zur Internationalen Funkausstellung 2005 konnte dann tatsächlich das ganze System zum ersten Mal der Öffentlichkeit präsentiert werden. Die 3D-TV-Kamera nahm das menschliche Table Soccer Spiel oder eine Zaubershow am Grundig Stand live auf. Es wurden in Echtzeit die 8 Ansichten mit dem „Black Betty“ genannten Hardwareaufbau von 3D Image Processing berechnet und auf die 3D-Tharus 30 mittels digitaler DVI Schnittstelle (Digital Video Interface) übertragen auf denen dann die Show ohne Brille räumlich betrachtet werden konnte (siehe Abb. 19 und Abb. 20).

Diese erste Livepräsentation kam bei Experten und Messebesuchern sehr gut an und hatte eine sehr gute Resonanz bei der Fachpresse.

4 Abb19

Abb. 19: Internationale Funkausstellung 2005. Die am Ausleger befestigte Stereo-TV-Kamera nimmt live das menschliche Table Soccer Spiel auf.

(Aufnahme 3D-Image Processing GmbH)

4 Abb20

Abb. 20: Internationale Funkausstellung 2005. Die 3D-TV-Kamera nahm die Zaubershow am Grundig Stand live auf. Es wurden in Echtzeit die 9 Ansichten berechnet und auf die 3D-Tharus 30 mittels digitaler DVI Schnittstelle übertragen auf denen dann die Show ohne Brille räumlich betrachtet werden konnte.     

(Aufnahme 3D-Image Processing GmbH)

 

Wie eingangs schon erwähnt wurde nur eine kleine limitierte Auflage dieser 3D Tharus 30 Geräte gefertigt.

Für eine Serienproduktion hätten damals für die folgenden Punkte schon Lösungen vorhanden sein müssen:

Schaltbarer Strahlteiler (Auflösung)

Durch das Vorsetzen der Fresnellinsenrasterfolie, die man ja nicht mehr vom 3D-TV Gerät entfernen kann, wurde die Auflösung auch bei der normalen nichträumlichen 2D-Wiedergabe reduziert. Das war natürlich für einen breiten Einsatz im Consumergerätemarkt nicht akzeptabel. Deswegen wurde an der Entwicklung elektrisch „abschaltbarer“ Filter gearbeitet.

Prinzipielle Verringerung der Auflösung

Wie wir gesehen haben beträgt bei 3D-Betrieb die Zahl der Pixel pro Ansicht bei z.B. acht Ansichten nur mehr ein Achtel der Panelpixelzahl. Kunden würden einen so starken Abfall der Auflösung nicht akzeptieren. Es musste also abgewartet werden bis man hochauflösende Panels mit akzeptablen Preisen für diese Applikation einsetzen können würde.

3D-Content nicht vorhanden

D. h. damals gab es keine im Consumer-Markt verfügbaren 3D Quellen und damit auch kein Programmangebot seitens optischen Speichermedien wie DVD. Das HDTV-Medium Bluray war damals noch in der Entwicklungsphase.

Fernsehübertragungsstandard

Die Codierung mittels zweier MPEG 2 Videodatenströme also einen für das rechte Kamerabild und einen für das linke Kamerabild, wie es das Heinrich Hertz Institut, wie schon erwähnt, anlässlich der Internationalen Funkausstellung 1997 gezeigt hatte, scheitert ja daran, dass die doppelte Datenrate benötigt würde und im Empfänger zwei MPEG 2 Decoder vorhanden sein müssten. 

In heutigen Realisationen werden acht, neun oder sogar 15 Ansichten eingesetzt.

Dies bedeutet aber nach wie vor bei einem HDTV-Bild mit 1920 x 1080 Bildpunkten und z.B. neun Ansichten eine Reduzierung auf 640 x 360 Bildpunkte (Pixel) und ist damit sogar etwas schlechter als Standard PAL Qualität. Um damit hochauflösendes Fernsehen (HDTV) in 3D realisieren zu können muss man Flachdisplays mit mehrfacher HDTV-Auflösung einsetzen. Es gibt zwar schon LC-Displays mit mehrfacher HDTV-Auflösung, die aber aufgrund der hohen Kosten bisher nur für sehr spezielle Anwendungen (z.B. Medizintechnik) eingesetzt werden konnten.

Zur Funkausstellung 2011 hatte die Firma Toshiba ihre ersten brillenlosen 3D-TV-Geräte vorgestellt. Diese Geräte benutzten ein Display mit der vierfachen HDTV Pixelzahl (3840 x 2160 Pixel also ca. 8 Megapixel) und basieren auf 9 Ansichten. Trotz des Panels mit der vierfachen HDTV Auflösung ergab sich bei 9 Ansichten nur mehr eine Auflösung von ca. 0,9 Megapixeln also weniger als die Hälfte der HDTV Pixelzahl.

Zusätzlich zur reduzierten Pixelzahl kam noch die prinzipiell geringere Tiefenwirkung dieses Prinzips, sowie der hohe Gerätepreis im Vergleich zu 3D-Geräten mit 3D-Brillen, sodass diese brillenlosen 3D-TV-Geräte nach ca. einem Jahr wieder vom Markt verschwunden sind.

Um bei zukünftigen brillenlosen 3D-TV-Geräten nicht in der Bildschärfe (Pixelzahl) abzufallen müsste das verwendete Display mindestens die 9 fache HDTV Auflösung besitzen.

Dass die Flachdisplayhersteller an solchen Panels arbeiten konnte man auf der Funkausstellung 2011 sehen. Sharp zeigte einen Vorgeschmack eines zukünftigen Super-Hi-Vision Systems mit 16-facher HDTV Auflösung.

Abschließend kann jedoch festgestellt werden dass dieses autostereoskopische Verfahren (basierend auf n-Ansichten) heute die einzige brillenlose 3D-Technik für den Heimbereich darstellt, die das Potential zur breiteren Umsetzung in der näheren Zukunft besitzt.

 

Ausblick

Wie wir gesehen haben hat sich die  Grundig Fernsehentwicklung frühzeitig mit der räumlichen Bildwiedergabe beschäftigt. Zunächst getrieben um fernbedienbare Handhabungsrobotern im Raum besser steuern zu können. Dann im Medizinischen Bereich um bei Untersuchungen und Operationen mit Endoskopen eine dreidimensionale Sicht zu haben. Und dann die erste Umsetzung, mittels bespielter analoger oder digitaler Videobänder, mit normalen 100 Hz Bildröhren TV-Serien-Geräten (Serie Digi VI) nur durch die Anwahl des 3D-Modes im Benutzermenü Filme stereoskopisch wiedergeben zu können . 2005 zeigte Grundig auf der Internationalen Funkausstellung dann die erste Live-3D-Übertragungsstrecke nach dem brillenlosen Verfahren (autostereoskopisch). D.h. Liveszenen wurden direkt auf die Grundig 3D THARUS 30 LCD-TV Geräte übertragen. Wie im vorrausgehenden schon explizit erklärt konnte damit noch nicht der Durchbruch in den Massenmarkt erreicht werden.

Nachdem der Koc-Konzern über Arcelik die Anteile von Alba übernommen hatte gehörte die Grundig Intermedia AG zu 100 Prozent zur Koc Firmengruppe.

Die neue Geschäftsführung beschloss im November 2008 die Grundig Fernsehentwicklung in Nürnberg zu schließen. Damit konnten die nach dem 3D-Kino-Boom (Avatar) 2009 einsetzenden 3D-TV Entwicklungsphasen nicht mehr von den erfahrenen deutschen Grundig-Entwicklungsingenieuren mit ihrer über viele Jahre erworbenen 3D-Kompetenz begleitet werden.

   

Literaturverzeichnis

Holliman, N.                  3D Display Systems, Department of Computer Science, University of Durham, Durham 2005

Howard, I.P.                  Seeing in Depth, Volume I Basic Mechanisms, University of Toronto Press, Toronto, 2002

Howard, I.P.                  Seeing in Depth, Volume II Depth Perception, University of Toronto Press, Toronto, 2002

Maul, K.; Müller, G.        TV-Bild ohne Flimmern, Weltweit erstes 100 Hz TV-Gerät in Serienproduktion, Funkschau Heft 14, 1987

Maul, K.                        Die raffinierten Tricks der Bildverbesserer, Poing: Media Publishing Home Vision Heft 7, 2008

Maul, K.                        „Das räumliche Sehen“ physiologische und geometrische Grundlagen zu 3D / Stereo Vision / Stereopsis,  https://www.m2counselling.de/3D.htm             

Maul, K.                       Quo vadis 3D? Übersicht der 3D-Verfahren und deren Vor- und Nachteile / Probleme beim derzeitigen technischen Stand der 3D-Verfahren

                                  http://www.m2counselling.de

Ponce, R.(et al.)           Stereopsis. Current Biology Volume 18 No 18, 2008

 

Autor

Dipl.-Ing. (FH) Konrad L. Maul, Certified Counsellor

Konrad L. Maul war 37 Jahre in der Fernsehentwicklung tätig, davon 30 Jahre in leitender Position. Von 1977 bis Anfang der 80er war er als Teamleiter Vorentwicklung und Digitale Signalverarbeitung auch mit der Entwicklung mikroprozessorgesteuerter Videospiele betraut. Als Gruppenleiter war er für das erste Grundig 100 Hertz-TV-Gerät verantwortlich. Von 2001 bis 2008 leitete er die Fernsehentwicklung der Grundig AG und in der Nachfolge der Grundig Intermedia AG. Heute arbeitet er als Berater für Einzelne, Gruppen und Organisationen in technischen, wirtschaftlichen und sozialen Handlungsfeldern.

https://www.m2counselling.de

Seeing Hearing Engineering - YouTube

M2Counselling - YouTube

  

URHEBERRECHT / COPYRIGHT

Alle Rechte vorbehalten, all rights reserved,

Konrad L. Maul, Dipl.-Ing. (FH)

D-90459 Nürnberg
 
Dieses Technik-Essay, sein Inhalt und die enthaltenen Ideen sind urheberrechtlich geschützt. Sie dürfen nur zu privaten, wissenschaftlichen und nichtgewerblichen Gebrauch zum Zweck der Information kopiert und ausgedruckt werden. Der Autor behält sich das Recht vor, diese Erlaubnis jederzeit zu widerrufen. Ohne vorherige schriftliche Genehmigung des Autors darf dieses Dokument nicht vervielfältigt, archiviert, oder auf einem Server gespeichert, in Webseiten und Newsgruppen einbezogen, in Online-Diensten benutzt oder auf einer CD-ROM gespeichert werden. Ich erlaube ausdrücklich und begrüße das Zitieren aus diesem Dokument.

 

 

Der Weg zur naturgetreuen Bildwiedergabe und die physiologischen Hintergründe

Displaytechniken und Verbesserungen der Bewegungs- und Schwarzwiedergabe (100Hz / 200Hz / Backlightscanning)

 

 

 

Das erste Grundig LCD-TV Gerät