TV Technik

burosch home tvtechnik

PAL - Die Geschichte des Farbfernsehens 

„Farbe ab", so lautete am 25. August 1967 in Berlin das Kommando zum Einschalten der Farbinformation in eine zunächst noch von Farbkameras in Schwarz-Weiß ausgestrahlte ARD-Sendung. Das deutsche Farbfernsehen hatte begonnen, 25 Jahre nach dem Start des bundesdeutschen Nachkriegsfernsehens in Schwarz-Weiß.

 

grundig monolith mit burosch fubk testbild

 


39 Jahre lang war bis dahin an der Entwicklung der Farbfernsehtechnik gearbeitet worden. Der Bogen hatte sich gespannt von den ersten, sehr bescheidenen Demonstrationen in Farbe des englischen „Bastlers" John Logie Baird und des amerikanischen Physikers H. E. Ives. Bei beiden wurden die Farbbilder noch in wenigen Zeilen abgetastet und geschrieben mit der von dem Deutschen Paul Nipkow 1884 erfundenen Spirallochscheibe.
Dem Auge, dem die Welt bunt erscheint, auch ihre Reproduktion in bunt anzubieten, das war der Trieb, der die schöpferische Phantasie der Wissenschaftler und Erfinder bei ihrer Forschungsarbeit beflügelt hat. Farbe in die Fotographie, in die Kinematographie und zuletzt auch in das Fernsehen zu bringen, war das realistische Ziel, ausgehend von der Erkenntnis, daß drei passend gewählte Grundfarben genügen, die ganze bunte Welt naturgetreu zu reproduzieren.
Dieser Leitlinie folgend haben diese drei Techniken in ihrer Entwicklung einen sehr ähnlichen Verlauf genommen, wobei eine auf der anderen aufbaute. So war jeweils das als schöpferisch anerkannte Neue die Folge einer Entwicklung, die mit der Ausdeutung der Natur der Farbe auf dem Boden der physikalischen Naturgesetze begonnen hatte.
Den Weg zum Farbfernsehen wies die Gabe des menschlichen Gehirns, das in der Lage ist, aus Analogien, Beziehungen und Querverbindungen - oft blitzartig überraschend - die innere Verwandtschaft zu einer auf einem anderen Gebiet schon gelösten Aufgabe aufzuzeigen.
So wurden immer wieder Fortschritte erreicht, die von der additiven Farbfotographie zur Farbkinematographie und von da zum Farbfernsehen führten. Es erschien mir reizvoll, den Weg dieser Entwicklung zu verfolgen und darzustellen, wie die nach und nach vertiefte Einsicht in die Beziehungen zwischen der Physik und den physiologischen Vorgängen bei der Farbbild „Wahrnehmung" es erlaubten, Farbfernseh-Übertragungssysteme zu entwickeln, die auch den bei der Einführung der Farbsendungen schon vorhandene große Zahl von Schwarz-Weiß-Empfängern Signale lieferten, die im kompatiblen Empfang beste Schwarz-Weiß-Bilder zeigten.
Der Prozeß der Farbfernsehübertragung von der bunten Szene bis zum bunten Bild auf der Farbbildröhre kann nur mit viel Mathematik exakt erklärt werden. Der Verfasser hat versucht, die technischen Entwicklungen bis zum heutigen Farbfernsehen, wie sie sich aus der Literatur und aus eigenen Arbeiten verfolgen lassen, so weit, wie es die komplizierte Materie ohne Mathematik ermöglicht, für den Nicht-Techniker zu beschreiben. In seinen wissenschaftlichen Aufsätzen und in seinen Vorlesungen ist er den mathematischen Weg gegangen; für Laien hat er 1962 die populäre Analogiedarstellung mit den Farbuhren eingeführt. In vielen Veröffentlichungen ist man ihm mit dieser Darstellung gefolgt.
Die Geschichte des Farbfernsehens ist älter als 20 Jahre; sie reicht bis in die Anfänge unseres Jahrhunderts zurück. Wir werden feststellen, wie unermüdlich die Physiker und Ingenieure gearbeitet haben, bis die Technik eines ersten einführbaren Farbfernsehens gelöst war. Es waren die USA, die 1953 zunächst wenig erfolgreich diesen Schritt in ein neues Medium wagten. Bis dahin beschreibt das erste Kapitel die Thematik, sozusagen als technische Voraussetzung und Vorbereitung für das Werden, die Durchsetzung und die Anwendung von PAL. Was ist Farbe? Die Physiker gaben die Antwort: Alles, was über unser Auge die Empfindung von Licht in Weiß oder in Farbe hervorruft, sind elektromagnetische Schwingungen.
Wird weißes Sonnenlicht oder das Licht einer Bogenlampe als Strahl durch ein Glasprisma geschickt, so wird dieser aufgespalten zu einem Strahlenfächer in den Farben des Regenbogens. Bei seinem Auftreffen auf einen weißen Schirm zeigt sich ein vielfarbiges Lichtband, von dem englischen Physiker und Mathematiker Isaac Newton 1642 - 1726 in seiner Veröffentlichung „Spektrum" genannt. Kontinuierlich von Rot bis Violett erstreckt sich dieses Band der „Spektralfarben".

 

b51.0.png

Das Licht der meisten Lichtquellen ist weiß, unbunt. Leitet man jedoch einen feinen Strahl durch ein Glasprisma, kommt es zu der bekannten Erscheinung des Regenbogens. Es entsteht eine Palette von Farben, Newtons „Spektrum".

 

b51.1.png

Titelblatt von Newtons Veröffentlichung „Opticks" London 1704

 

Zur Zeit von Newton wußte man noch nicht, daß es elektromagnetische Wellen sind, die, im Auge in Nervenerregungen umgewandelt und zum Gehirn geleitet, dort als „Farbe" ins Bewußtsein des Menschen treten. Der Sehbereich erstreckt sich von Violett, den kürzesten Wellenlängen dieser elektromagnetischen Strahlung, um etwa 400 Nanometer (ein nm = ein millionstel Millimeter) bis zu Rot, den längsten Wellen. Das ist gerade eine Oktave, die unser Auge wahrnehmen kann von dem riesigen Bereich der elektromagnetischen Wellen von etwa 60 Oktaven, von den kilometerlangen Radiowellen bis zur kosmischen Strahlung in billionstel Millimetern. In Analogie zu den Tonschwingungen hat man für jede Spektralfarbe, die nicht mehr weiter zerlegt werden kann, den Begriff „Farbton" eingeführt. Es gibt einen Minimalunterschied von zwei benachbarten Farbtönen, ohne den sie nicht mehr zu unterscheiden wären. Unter Berücksichtigung dieser Empfindungsschwelle könnte man das Spektrum in etwa 200 Farbtöne aufteilen und sie dann auch benennen. Von alters her, angelehnt an die Zahl sieben, die schon bei den Babyloniern ein Symbol war, hatte man den Regenbogen und danach später das Spektrum in sieben Farben eingeteilt: Rot, Orange, Gelb, Grün, Cyanblau, Indigo und Violett.
Newton hat uns gezeigt: Weißes Licht ist eine Summe von Spektraltönen, also auch Farbe. Wir nennen sie „unbunt" im Gegensatz zu den bunten Farben. Und eine weitere, eigentlich die wichtigste Entdeckung Newtons war: Die Summe aller Spektralfarben ergibt wiederum Weiß. Diese Addition gelang ihm mit Hilfe eines zweiten, in umgekehrter Richtung in das Spektrum eingefügten Prismas oder einer Sammellinse, womit das bunte Spektrum wieder zu Weiß zusammengezogen wurde.

 

b51.2.png

Beim Vereinigen aller Spektralfarben entsteht wieder weißes Licht.

 

b51.3.png

In dem großen Bereich der elektromagnetischen Wellen wird nur ein winziger Teil vom Menschen als Licht empfunden, in ihm sind alle Spektralfarben enthalten.

 

Kompliziert waren Newtons Versuchsaufbauten, wie eine Handskizze von ihm zeigt. Ein Jahrzehnt vor der lange zurückgehaltenen Veröffentlichung seiner „Opticks" hatte Newton schon an das Sekretariat der Royal Society geschrieben: „Die erstaunlichste, aber wundervollste Farbenzusammensetzung ist das Weiß. Zu seiner Herstellung gehören alle prismatischen Farben im richtigen Verhältnis."

Wir werden im folgenden noch sehen, daß sich auch schon aus drei passend gewählten Farbtönen Weiß ermischen läßt, sogar aus zwei sogenannten Komplementärfarben. Davon macht man bei der Schwarz-Weiß-Bildröhre Gebrauch. Es gibt nämlich keine unbunten Farbleuchtstoffe. Deshalb war es eine große Tat von A. Schleede, als er um 1932 erstmals gelb und blau aufleuchtende Teilchen, in feiner Verteilung und im geeigneten Verhältnis gemischt, zu einem weiß aufleuchtenden Bildschirm vereinigte. (Auch unsere weißen Leuchtstoffröhren arbeiten mit solchen Leuchtstoffmischungen).
Wir müssen dem Physiker glauben: Eine elektromagnetische Schwingung für Weiß gibt es nicht. Erst mehrere Wellen, von denen jede allein im Wahrnehmungsprozeß einen Farbton hervorruft, verschaffen uns die Empfindung Weiß, die erst im Gehirn existent wird. So ist unser Schwarz-Weiß-Fernsehen eigentlich auch ein Farbfernsehen, unbunt, die Bildelemente von Hell über Grau bis Dunkel variiert, und das, was wir als Farbfernsehen bezeichnen, ist eigentlich ein Buntfernsehen.
Schon 1888 hatte ein Franzose einen Fernseher mit einer Bildzerlegung durch Schwingspiegel vorgeschlagen. Als Erster überhaupt hatte Le Blanc auch an die Übertragung der Farbe gedacht. Das von jedem abgetasteten Bildpunkt kommende farbige Licht sollte durch ein Prisma zerlegt und jeder Farbwert des Spektrums über eine Selenzelle als fotoelektrischer Wandler und eine eigene Leitung zum Empfänger übertragen werden: zur Steuerung des Durchlasses entsprechender Spektralwerte am Empfänger. Genau nach Newton sollten sie durch eine Linse wieder zu einem Punkt, eben dem bunten Bildpunkt, vereinigt werden. Es war eine Idee, die schon an der geringen Blau-Empfindlichkeit der Selenzellen gescheitert wäre. 

 

b51.4.png

Handskizze von Newton, die eines seiner frühen Experimente erläutert: Er spaltete das Licht mit einem großen Prisma in ein Spektrum auf. Dann leitete er einfarbiges Licht durch das Loch eines Schirms durch ein zweites Prisma, wodurch er erkannte, daß keine neuen Farben erzeugt werden und sich die Farben wieder zu weiß vereinigen.

 

Der Vorschlag der Gebrüder Andersen aus Dänemark 21 Jahre später, im Jahre 1909, bedeutete eine Verbesserung. Sie benutzten schon eine Abtastung nach Nipkow und benötigten nur eine Signalverbindung zum Empfänger, indem sie die Farbwerte punktsequentiell auf eine sehr originelle Weise übertrugen. Wieder war der vom Abtaster kommende bunte Lichtstrahl über ein Prisma aufgefächert. Mit einer rotierenden Schlitzscheibe wurde das Spektrum abgetastet und so der Lichtstrahl, zeitlich nach Farbwerten gemessen, als elektrische Signale übertragen. Am Empfänger sollte eine Glasscheibe rotieren, auf der im Synchronlauf zum Geber, wo jeder Spalt das Bildpunktspektrum abtastete, ein analog dazu eingefärbtes buntes Spektrum hinter einer helligkeitsgesteuerten Lichtquelle hindurchlief. Das gesteuerte Licht - hier symbolisch die Steuerung durch einen Elektromagneten angedeutet - sollte ein Ebenbild des Geberspektrums erzeugen. Zu einem Punkt durch eine Linse zusammengefaßt sollte so der Helligkeits- und Farbwert des abtastenden Lichtpunktes reproduziert werden. Mit einem vereinfachten Spektrum aus drei Farben wäre so im Prinzip ein punktsequentielles System erstmalig vorgeschlagen worden, doch blieb der Vorschlag, bedingt durch den Stand der Technik jener Jahre, reine Utopie. 

Drei Farben genügen

Ohne den menschlichen Farbsehprozeß als Vorbild zu nehmen, hätte man weder die Farbfotographie noch das Farbfernsehen erfinden können. Unser Auge ist einerseits ein optisches Instrument und andererseits der Sitz eines biochemischen und komplex arbeitenden Apparates für biophysikalische Reaktionen. Der optische Teil wirkt wie ein Fotoapparat, der das Bild auf die Netzhaut, auch Retina genannt, abbildet. Dort befinden sich etwa sieben Millionen lichtempfindliche Rezeptoren, Stäbchen und Zäpfchen. Die Stäbchen können wir bei unserer Betrachtung vergessen, sie sind nur für das Dunkelsehen, grau in grau, notwendig. Uns interessieren nur die Zäpfchen, die für das Farbensehen verantwortlich sind.

Ein Jahrhundert, nachdem Isaac Newton gezeigt hatte, daß sich weißes Sonnenlicht mit Hilfe eines Prismas in verschieden farbige Komponenten zerlegen läßt, hielt der englische Physiker Thomas Young (1773-1829) im Jahre 1800 seinen inzwischen berühmt gewordenen Vortrag vor der Royal Society. Darin meinte er, es sei unmöglich, sich vorzustellen, daß es in der Netzhaut unseres Auges so viele Typen von Sehzellen gebe, wie wir Spektrallichter unterscheiden können. Vielmehr gehe man wohl nicht fehl in der Annahme, daß ihre Zahl begrenzt sei - etwa auf drei.

 

b51.5.png

Schon 1880 wollte Le Blanc die Auseinanderspreizung der Farben eines Bildpunktes durch ein Prisma für eine Farbfernsehabtastung ausnutzen.

 

Seine Theorie war ein genialer Ansatz: genial deshalb, weil sie die ungeheure Zahl von Farbtönen, die der Mensch unterscheiden kann, mit der Erregung von nur drei Sehelementen begründen wollte. Denn schon im vorigen Jahrhundert hatten französische Gobelin-Manufakturen mehr als 10.000 Farbwerte beschrieben, und heute schätzt man die Zahl der Farben, die der Mensch - bei Berücksichtigung aller Helligkeitsabstufungen auseinanderhalten kann, sogar auf Millionen.

 

b51.6.png

Der Vorschlag der Gebrüder Andersen für einen Farbfernseher von 1910 basierte ebenfalls auf der Farbzerlegung in einem Prisma.

 

Noch war seine Annahme eine Hypothese, wonach die Millionen von farblichtempfindlichen Rezeptorelementchen in der Retina, die Zäpfchen, aus nur drei verschiedenen Sorten bestehen. Auf sie, feinverteilt wie farbiges Konfetti, wird von der Augenlinse das betrachtete Bild verkleinert geworfen und sozusagen in Punkte auseinander dividiert zu Signalen umgewandelt, die dem Gehirn zur Wahrnehmung der Formen- und Farbwelt zugeführt werden. Jede der drei Sorten dieser Rezeptoren ist für den Empfang einer der drei Grundfarben abgestimmt. Young hatte vorausgesagt, daß die einen auf das Licht des roten Wellenlängenbereiches, andere auf solches des grünen und die dritte Art auf Licht des blauen Wellenbereiches ansprechen.

Hermann von Helmholtz (1821-1894), der große Berliner Gelehrte, hatte sich intensiv der Wahrnehmung von Licht und Farbe gewidmet und die Voraussagen von Young zur Young-Helmholtzschen Dreifarbentheorie ausgebaut. Seine Erfahrung hat bestätigt, daß alle Farben für die farbige Reproduktion der Natur und damit auch für das Farbfernsehen durch additive Mischung von nur drei Grundfarben erzeugt werden können.

 

 

b51.7.png

Der optische Teil des menschlichen Auges: ein Fotoapparat

 

Die Annahme der drei Sorten von Rezeptoren für den Empfang von Rot, Grün und Blau blieb aber Theorie, bis in den sechziger Jahren diese drei Primärfarbenempfänger im Auge in aufsehenerregenden Versuchen von zwei amerikanischen Forschergruppen meßtechnisch nachgewiesen werden konnten. Sie konnten an lebenden Wirbeltieren, denen ähnliche Farbseheigenschaften wie beim Menschen nachgewiesen waren, einzelne Sehzellen in der Netzhaut isolieren und ihre Farbempfindlichkeitskurve messen. George Wald, Haldan K. Hardline und Ragnar Granit wurden dafür mit dem Nobelpreis für Physiologie und Medizin des Jahres 1967 ausgezeichnet. 

 

 

b51.8.png

Die Zäpfchen der Netzhaut

 

Das nebenstehende Bild zeigt, die von Ragnar Granit aufgenommenen Kurven der relativen Farbempfindlichkeit der drei Sorten der Rezeptoren im Auge einer Katze. Solche Kurven werden wir bei der Besprechung der Farbaufspaltung im optischen Teil der Farbfernseh-Aufnahmekameras wiederfinden, echte Analogie zum Vorbild Menschenauge, in dem man allerdings mehr grüne als blaue und rote Sensoren findet. Deshalb kann der Mensch grüne Details feiner auflösen. Auch davon macht man beim Farbfernsehen gelegentlich Gebrauch.

 

b51.9.png

Die von Ragnar Granit aufgenommenen Kurven der relativen Farbempfindlichkeit der drei Sorten von Rezeptoren im Auge einer Katze

 

Ein Deutscher hat durch Messungen am Auge lebender Honigbienen eindeutig bestätigt, daß drei Sorten von Rezeptoren überall da vorhanden sind, wo bunt gesehen wird. Der Wissenschaftler H. Autrum von der Universität München hat Messungen veröffentlicht, die dies bestätigen. Mit Mikroelektroden von zehntausendstel Millimeter Spitzendurchmesser hatte er einzelne Sehzellen von lebenden Bienen angezapft und sie mit Spektrallichtern untersucht. Dabei fand er Sehelemente wie beim Menschen, nur ihre Empfindlichkeitsmaxima waren nach Ultraviolett hin verschoben. Rot ist für die Bienen schwarz. Die Messungen von Autrum sind eine glänzende Bestätigung der Dreikomponententheorie des Farbensehens von Young-Helmholtz. Uns weisen sie den Weg zur Farbfernsehaufnahme.

Eine zweite, für unser Farbfernsehen wichtige Eigenschaft des Sehprozesses: Werden Vorlagen von den drei Grundfarben nebeneinandergelegt, wird Rot dunkler als Grün und Blau noch dunkler gesehen. Gemessen zeigt die Hellempfindlichkeit für gleichen Energieeinfall über das Spektrum ein ausgesprochenes Maximum bei Grün. Diese Helligkeitskurve, für einen Normal-Beobachter genormt, wird bei der Kodierung von Farbfernseh-Signalen für die Übertragung berücksichtigt.

 

B51.12.png

 

Das Band der Spektralfarben enthält aber nicht alle in der Natur vorkommenden Farbtöne, ihm fehlen die Purpurfarbtöne, die durch Mischung der beiden Enden des Spektrums entstehen, in unserem Dreifarbensystem durch Mischung von Rot und Blau. Den mittleren Purpurfarbton, entstanden durch die gleichgewichtige Mischung von Rot und Blau, nennen wir nach amerikanischem Vorbild Magenta.

 

b51.11.png

Die Helligkeitskurve des menschlichen Auges: Die drei senkrechten Linien zeigen die Hellempfindlichkeitsgrade, die für die (dominierenden) Wellenlängen der Farblichtstrahlungen der drei Leuchtstoffe einer Farbfernseh-Bildröhre gelten.

 

Purpur war einst, als man Tuche noch nicht in jedem Purpurfarbton mit den synthetisch hergestellten Abkömmlingen der Anilinfarben einfärben konnte, die wertvollste Farbe. Heute ist es nicht mehr vorstellbar, daß einmal ein ganzes Volk seine Existenz auf einen Farbstoff gründete. Sogar sein Name „Phöniker", d.h. Rotfärber, ist davon abgeleitet. Jahrhundertelang waren sie im Alleinbesitz des Geheimnisses der Purpurfärberei mit einem Sud, der aus Purpurschnecken gewonnen wurde.
Rot, Grün und Blau sind so abgeglichen, daß sie voll übereinandergeschrieben - addiert - Weiß ergeben. Bildet man mit einem Lichtbildgerät eine runde Öffnung auf einen weißen Bildschirm ab, so erscheint das Bild, ein runder Fleck, hell und in der weißen Farbe der verwendeten Lichtquelle. Dem runden Fleck kann man eine beliebige andere Farbe geben, indem man vor das Objektiv ein Farbglas setzt. Es kann z.B. grün sein. Bildet man jetzt mit einem zweiten Bildwerfer auf den grünen etwa einen roten runden Fleck ab, so sieht man jetzt dort, wo sich die beiden Flecken überdecken, eine neue Farbe, eine gelbliche Farbe. Besitzen die Bildwerfer-Objektive je eine Irisblende, dann kann man das grüne und das rote Licht von Null bis zu dem gegebenen Höchstwert regeln und auf diese Weise nicht nur jenes Gelb, sondern alle „zwischen" dem Rot und dem Grün liegenden Tönungen erzeugen: von Grün allein über ein gelbliches Grün, ein ziemlich reines Gelb, ein Orange bis zum Rot allein.

 

b51.13.png

Das rote, grüne und blaue Licht dreier Projektoren wird auf der Leinwand teilweise zur Deckung gebracht, wodurch sich die Farben addieren.

 

b51.15.png

Rot + Grün = Gelb Rot und Blau = Purpur Grün + Blau = Cyan Rot + Grün + Blau = Weiß

 

Bei diesem Versuch addieren sich also zwei Farbeindrücke unmittelbar; deshalb spricht man bei dieser Technik von einer additiven Farbmischung („optische Farbmischung"). Mit drei Bildröhren in den Farbfernsehleuchtfarben (Rot = 700 nm, Grün = 546 nm, Blau = 436 nm) kann man diese Demonstration viel einfacher durch Reglung der jeweiligen Steuerspannung durchführen. Mit geeigneten Steuersignalen hat der Verfasser in seinen Vorträgen die additive Mischung demonstriert.

 

b51.17.png

Auch mit drei Farbbildröhren kann man durch Übereinanderprojektion die Farbmischung zeigen.

 

 

b51.16.png

Ein elektronisch gesteuertes Testbild auf einer Farbröhre zeigt die Farbmischung

 

b51.18.png

Eine kontinuierliche Reglung im Verlauf der Zeit einer Zeile läßt auf dem Schirm ein über die Bildbreite kontinuierlich verlaufendes Spektrum einschließlich der Purpurtöne entstehen.

 

Die Mischung der beiden Färbenden des Spektrums - bei unseren drei Farben von Rot und Blau - gibt die Anregung zur Darstellung eines geschlossenen Farbkreises. Inspiriert durch Paul Klee hat der Verfasser den Farbtonkreis für die Mischung der gesättigten Farben entworfen, so wie man durch eine Reglung der drei Projektoren oder der drei Farbröhren das ganze Farbtonspektrum durchlaufen kann.

Farbmetrik für Anfänger

Die Lehre von Maßbeziehungen der Farbwahrnehmungen untereinander ist von den am Farbfernsehen schöpferisch tätigen Ingenieuren zu beherrschen. Viele Bücher sind darüber geschrieben worden. Für die Geschichte der Farbfernsehtechnik genügt es, wenn wir uns eine stark vereinfachte Darstellung der Farbbeziehungen entwerfen, die eine elementare Beschreibung der Farbfernsehübertragungssysteme erlaubt. Wir bedienen uns dazu einer von Helmholtz eingeführten, dem Wahrnehmungsprozeß angepaßten Definition eines Farbortes, den wir in seiner dreifachen Bedeutung zusammengefaßt in der Sprache der deutschen Normung eine „Farbvalenz" nennen.
Sie setzt sich einmal aus der Leuchtdichte Y zusammen, die wir entsprechend unserer Empfindung als „Helligkeit" bezeichnen: der Vorgang, womit ein Schwarz-Weiß-Bild geschrieben wird. Dann haben wir noch die bunt machende „Farbart" F, sich zusammensetzend aus „Farbton" und „Farbsättigung".

 

b51.19.png

Farbpolygon, Ausgangspunkt der Farbartdarstellung bei NTSC und PAL



Die gesättigten Farbtöne haben wir bei den Spektralfarben kennengelernt. Die Begriffe Farbton und Farbsättigung lassen sich gut am Beispiel einer farbigen Tinte klar machen. Eine kräftige rote Tinte z. B. hat den Farbton Rot mit einer Farbsättigung von fast 100%. Wird diese Tinte in ein durchsichtiges Gefäß gefüllt und mit einer weißen Lichtquelle durchleuchtet, dann bleiben Farbton und Farbsättigung erhalten, auch bei beliebiger Veränderung der Helligkeit der Lichtquelle und damit entsprechender Veränderung der Leuchtdichte. Wird die Tinte mit klarem Wasser verdünnt, dann wird die Farbart mehr und mehr entsättigt, während der Farbton immer rot bleibt. Wenig gesättigte Farben heißen Pastellfarben (für den Farbton Rot ist Rosa eine Pastellfarbe). Erreicht in der Mischung das Wasser 100%, so wird die Flüssigkeit farblos, die Sättigung geht auf Null zurück. Unsere Lichtquelle erscheint nicht mehr angefärbt, ihr Leuchteindruck kann nur noch als mehr oder weniger hell empfunden werden. Sie kann lediglich, wie wir sagen, die „unbunten Farben" darstellen.
Von der Darstellung der Farbvalenz in R, G und B müssen wir auf Helligkeit und Farbart kommen. Das der Helligkeit zugeordnete Leuchtdichtesignal brauchen wir für die Übertragung der Schwarz-Weiß-Information und die Farbart für die Bunt-Information. Nur am Anfang, vor der Kamera, und am Ende, auf dem Bildrohr, haben wir dann wieder R, G, B.
Nehmen wir als Einheit für die maximale Helligkeit in Weiß die Größe 1 an, entsteht dieses Weiß aus der Summe der Rothelligkeit mit 30%, hinzu kommen die Grünhelligkeit mit 59% und die Blauhelligkeit mit 11% - entnommen aus der Augenempfindlichkeitskurve.

Weiß = YR + YG + YB = 0,30 + 0,59 + 0,11 = 1

Für die drei Mischfarben, Magenta, Gelb und Cyan kommt dann jeweils die Summe der Helligkeit von zwei Primärfarben zusammen. So ergibt sich, nach fallenden Helligkeiten sortiert, das folgende Bild, ergänzt durch eine Farbbalkenfolge, die man als Testsignal in jedem einer Fernsehsendung vorausgehenden Testbild findet.

 

b51.21.png

Zieht man von dem Farbpolygon in den Eckwerten die zugehörige Helligkeit ab, bleibt ein Farbtonpolygon übrig.

 

b51.22.png

Helligkeitswerte Y: für Weiß, die Eckfarben des Farbpolygons und das nach Helligkeitsstufen geordnete Farbbalkensignal

 

b51.23.png

Das Farbbalkensignal

 

b51.24.png

Die Farbsättigung für den Farbton Rot

 

Der zu jedem Farbwert des Farbpolygons gehörende Helligkeitsbetrag wird davon abgezogen, und es bleibt die Farbart ohne Leuchtdichte Y übrig, die sich in der Farbartebene als Farbtonpolygon darstellt. Das kann durch Annäherung an einen "Farbartkreis" geschehen, wobei die Farbart zum Mittelpunkt hin immer mehr entsättigt wird. Die Farbart F kann durch einen Zeiger, wie bei einer Uhr, erklärt werden: Die Zeigerstellung zeigt den Farbton und doe Zeigerlänge den Grad der Farbsättigung an. 

 

b51.25.png

Die Farbart- „Uhr" zeigt mit einem Farbartzeiger in seiner Winkelstellung 

 

Farbfernsehen sequentiell - Farbfernsehen mit dem Farbfolgesystem

Eine Eigenart unseres Wahrnehmungsprozesses, die Nachdauer einer durch einen Lichtreiz hervorgerufenen momentanen Empfindung, ermöglicht erst das Fernsehen. Der sich über die Zeilen bewegende Lichtpunkt leuchtet nach langer Dunkelpause, in der er den Rest der Bildfläche absolviert wieder neu kurzzeitig an der gleichen Stelle auf. Wenn er periodisch oft genug wiederkehrt bewirkt er das „Leuchten" des ganzen Bildes.

Um 1750 schon hatte der Chevalier Patrice d´Arcy (1725-1779) diese Seheigenschaft entdeckt, indem er ein Stück glühende Kohle, an einer Schnur befestigt, im Kreise herumschleuderte. Bei großer Umdrehungsgeschwindigkeit der Kohle, so etwa ab 10 Umdrehungen in der Sekunde, schloß sich, im dunklen Raum beobachtet, das Bild des Leucht- „Punktes" zu einem schwach leuchtenden Kreis. Ohne diese Nachbildwirkung, hervorgerufen durch die Trägheit des Auges, wäre unser Fernsehen nicht möglich. Das Auseinanderziehen von Farbsektoren als Folge dieser Nachbildwirkung bei schneller Rotation eines Farbkreisels und damit ihre Überlagerung und additive Mischung hatte schon Maxwell erkannt. Er studierte damit die additiven Farbmischgesetze.

Zeitlich auseinander gespreizt können auch die drei Farbauszüge in Rot, Grün und Blau eines Farbbildes, auf ähnliche Art die Nachwirkung zur Mischung ausnutzend, zu einem bunten Bild in natürlichen Farben vereinigt werden. Ende des vergangenen Jahrhunderts haben zuerst die Gebrüder Lumiére auf dieser Basis ein Gerät mit einer Papierbilderfolge gebaut. Man erinnere sich dazu an die Blätternbildapparate für die Wiedergabe "lebender Bilder", Mutosko genannt, die noch bis in die 30er Jahre in Lokalen, auf Bahnhöfen und Rummelplätzen aufgestellt waren. 

 

b51.26.png

Die Schnur des Farbkreiseis „führte" zum Elektromotor: Nach Lösen der Flügelmutter können die Farbsektoren verändert werden. Ein Schwarzsektor erlaubt, die Vergleichshelligkeit einzustellen.

 

b51.27.png

Mischungsbeispiel: Rot und Blau werden zu Purpur gemischt.

 

Bildkarten aus dickem Karton waren radial an einer Walze so befestigt, daß sie bei deren schneller Drehung durch eine Außenkurbel nacheinander an einer Leiste abschnellten und in schneller Folge die Bilder für den Betrachter freigaben.

 

b51.28.png

Mutoskop in geschlossenem und geöffnetem Zustand

 

Beim Lumiére-Farbbild-Mutoskop waren jeweils drei aufeinanderfolgende Karten mit einfarbigen Farbauszügen in Rot, Grün und Blau gedruckt. Bei der schnellen Drehung ergab sich für den Betrachter ein buntes Bild.

 

b51.29.png

Mit drei farbigen Karten in der Folge mischte Lumiere ein Buntbild auf der Basis des Mutoskops.

 

Mit einem von dem Berliner Hermann Issensee 1897 angemeldeten Deutschen Reichspatent für eine farbige Kinematographie ging es weiter. Doch Issensee mußte bei seinen ersten Vorführungen schon erkennen, daß man für eine farbflimmerfreie Projektion mindestens 120 Bilder in der Sekunde benötigte. Beim CBS-Farbfernsehverfahren der 40er Jahre ging man dann sogar auf 144 hoch. Issensee hatte ein Tor aufgestoßen. Viele Konstrukteure bemühten sich nach ihm um die sequentielle Farbkinematographie, erfolglos, und nur ein Verfahren hatte einen kommerziellen Erfolg: „Kinemacolor".

George Albert Smith und Charles Urban hatten darauf verzichtet, alle Farben naturgetreu wiederzugeben und arbeiteten mit einer Zweifarben-Sektorblende mit einem Filter in Rotorange und einem in Blaugrün. Zwischen 1908 und 1925 wurden solche Farbfilme erfolgreich in der ganzen Welt vorgeführt, - auch in Berlin. Man freute sich an den Farben, auch wenn sie nicht ganz natürlich waren. Ein Welterfolg wurde der 1911 aufgenommene Film „The Durbar of Delhi", die Krönung des britischen Königs Georg V. zum König von Indien.

 

b51.30.png

 

Man arbeitete mit 32 Teilbildern in der Sekunde statt der damals beim Schwarzweißfilm üblichen 16/Sek. und kam so zu einem erträglichen Filmverbrauch. 1912 soll der Londoner Bankier Rothschild 12 Millionen Mark für die Patentrechte geboten haben. Doch 1915 wurde das Britische Patent von Smith für nichtig erklärt: Der Zweifarbenprozeß war nicht mehr neu, der Franzose Louis Ducon du Hauron (1837-1920) hatte 1895 dieses Zweifarbenverfahren schon für die Farbfotographie angegeben. Kinemacolor verschwand. Immerhin wurde es Vorbild für ein deutsches Farbfernsehverfahren. So, wie man einmal den Schwarzweißfilm durch das Bildfolgesystem zur Aufzeichnung von bildsequentiell einzufärbenden Farbbildern für die Farbkinematographie brauchbar machte, so nutzte man Jahrzehnte später das Signal eines Schwarz-Weiß-Fernsehsenders zur bildsequentiellen Übertragung von Farbfernsehbildern.

 

 

b51.31.png

Das Patent, in dem erstmals die sequentielle Mischung dreier Kinobilder vorgeschlagen wurde. Es war ein Farbfolgesystem mit drei schnell hintereinander abgetasteten und geschriebenen Bildern in R, G und B nach dem Vorbild der Farbkinematographie von Issensee.

 

Am 7. Juli 1928 meldete die Londoner „Morning Post": „Großer Schritt vorwärts: Mr. Baird's Triumph: Man konnte auf dem Empfänger ein Bild sehen, ungefähr halb so groß wie eine durchschnittliche Zigarettenschachtel, aber die Einzelheiten waren einwandfrei zu erkennen. Als der als Modell sitzende Mensch seinen Mund öffnete, konnte man deutlich seine Zähne erkennen, genauso wie seine Augenlider, das Weiße in seinen Augen sowie andere kleine Details in seinem Gesicht. Er hatte dunkles Haar, dunkle Augen und war vor einem dunklen Hintergrund in seinen natürlichen Farben zu sehen. Er nahm ein tiefrotes Tuch und wickelte es sich um den Kopf, blinzelte und steckte die Zunge heraus. Das Rot des Tuches stach besonders hervor im Kontrast zu seinem rosigen Gesicht, während seine Zunge von hellerem Rosa war."

In einem anderen Bericht über diese Vorführung wird die Technik beschrieben. Wir erinnern uns dazu an den wegen seiner Fernsehvorführungen berühmt gewordenen britischen Fernsehpionier John Logie Baird (1888 - 1945). Mit der Spirallochscheibe von Paul Nipkow (DRP 30105 vom 6. Januar 1884) zeigte Baird fernsehmäßig am 2. Oktober 1925 das erste lebende Bild eines Kopfes.

 

 

b51.32.png

Monochromfernseher um 1928: Nipkowscheiben mit 30-Zeilen-Abtastung
oben: Empfänger mit Neonflächenglimmlampe
unten: Abtastung mit Lichtstrahl

 

Dazu hatte er Nipkows „Generalidee" für den Abtaster auf einen abtastenden Lichtstrahl umgestellt (Flying spot), eine Erfindung, die für die Bildtelegraphie 1904 von dem deutschen Wissenschaftler Arthur Korn (1870 - 1945) benutzt wurde. Der die abgetastete Szene treffende Lichtstrahl wurde entsprechend dem Bildinhalt diffus mehr oder weniger zurückgestrahlt und von Fotozellen in elektrische Signale umgesetzt. Der Stand der Schwarz-Weiß-Fernsehtechnik war bei Baird 1928 eine 30-Zeilen-Übertragung - allerdings wendete er senkrechte Zeilen an.

Für die Farbfernseh-Demonstrationen hatte er am Geber und Empfänger eine Nipkowscheibe in drei Lochspiralen R, G, B von je 120° auf den Umfang aufgeteilt. Durch Abdecken des Bereiches R mit roten Farbfiltern, G mit grünen und B mit blauen wird jeweils nur die entsprechende Farbe durchgelassen. Bei der Abtastung bedeutet dies, daß bei einer Umdrehung das Bild einmal mit einem roten, dann einem grünen und zuletzt einem blauen Strahl abgetastet wird.

 

 

b51.33.png

Drei Lochspiralen, jeweils mit Rot-, Grün- und Blaufiltern versehen, erlauben die sequentielle Lichtstrahlabtastung in Farbe.

 

Beim Empfänger konnte Baird nicht nur mit der üblichen, für einfarbige Bildwiedergabe eingesetzten rötlich schimmernden Neon- Glimmlampe arbeiten - sie eignete sich aber nur für das Rotbild. Nach Durchlaufen der 120°-Spirale für das Rotbild wurde sie abgeschaltet und über einen auf der Drehachse mitlaufenden Kollektor auf eine Quecksilber / Helium-Lampe umgeschaltet, von der die Grün- und Blaukomponenten geliefert wurden. Die Filter waren so abgeglichen, daß von allen dreien das Licht sich voll wirksam zu Weiß ergänzte. So hatte Baird das erste - auf der Trägheit des Wahrnehmungsprozesses basierende - trisequentielle Farbfernsehbild, das erste Farbfernsehbild überhaupt, demonstriert.

 

b51.34.png

Der Baird-Empfänger mit der trisequentiellen Wiedergabe hat zwei über einen Kommutator umgeschaltete Lichtquellen

 

Professor Fritz Schröter, der nach London gereist war, um sich die Vorführung anzusehen, erinnerte sich: „Es war mit den wenigen Zeilen kaum brauchbar aufgelöst, aber es war relativ natürlich bunt." Ein Verbesserungsvorschlag aus dem Jahre 1930 stammt von E. Andersen. Er wollte synchron und laufende Spiegelräder, gekuppelt mit dreiteiligen Farbsektorscheiben, verwenden. Jeder vollen Umdrehung des Spiegelrades entsprach ein ganzes einfarbiges Bild, das von Umlauf zu Umlauf zyklisch in den drei Farben wechselte. Für jede Farbe sollte eine darauf abgestimmte Fotozelle eingeschaltet werden, während empfängerseitig eine Kerrzelle das helligkeitsgesteuerte weiße Licht der Bogenlampe lieferte, das alle drei Farben enthält.

1935 nahm die Forschungsanstalt der Deutschen Reichspost (RPF) unter Postrat Dr. Preßler die Entwicklung eines Farbfernsehverfahrens auf. Für die Wiedergabe hatte man schon eine Bildröhre mit einem Leuchtschirm, so weiß, wie man ihn damals machen konnte. Für den Geber mußte man den Umweg über einen spezial aufgenommenen Film wählen. Auf der Funkausstellung 1938 in Berlin führte man vor. Man arbeitete nach dem bisequentiellen Verfahren, dem von Smith und Urban um 1902 entwickelten Kinemacolor-Zweifarbenfilm, mit Rot/Orange und Grün/Blau. Aber in einer Weise hatte man die Aufnahme der beiden Teilbilder, die nacheinander wiedergegeben werden sollten, gegenüber dem Ur-„Kinema-Color" verbessert. Um bei schnell bewegten Objekten die Farbsäume zu vermeiden, nahm man die zwei Teilbilder auf den Film über ein Strahlenteilsystem gleichzeitig auf.

Preßler erzählte von damals: „Als auf der Funkausstellung in Berlin im Jahre 1938 das farbige Zwischenfilmverfahren mit zwei Grundfarben und rotierendem Farbfilter in einem Fernseh-Projektionsempfänger der Öffentlichkeit vorgeführt wurde, trat bei der Eröffnung der gefürchtete Vorführeffekt auf, indem ein kleiner Gleichrichter im Empfänger zur unrechten Zeit ausfiel, so daß erst nach der feierlichen Eröffnung das kleine Farbfernsehteam die Genugtuung fand, das erste farbige Fernsehbild vorführen zu können, wenn auch noch unvollkommen als Zweifarbenbild mit 2 x 90 Zeilen und 25 Rastern pro Sekunde.
Schamhaft verschwiegen wurde einer der ersten Vorversuche mit umlaufenden Farbfiltern, zu dem sich das kleine Team durch eine ausländische Patentschrift verleiten ließ. In dieser Patentschrift war eine Farbfilterscheibe mit drei farbigen Sektoren dargestellt, die vor einem Schwarzweiß-Fernsehbild umlief. Die Herstellung einer solchen Filterscheibe aus Celluloid-Filtern war einfach und billig. Jedoch der Versuch mit dieser Farbsektorenscheibe dauerte nur wenige Minuten, dann wurde diese Scheibe wortlos beiseite gelegt, und niemand erfuhr jemals von diesem peinlichen Mißgriff für den Fernsehtechniker deshalb peinlich, weil die elementare Überlegung unterlassen worden war, daß — anders als beim Filmprojektor — der zeilenweise Aufbau des Fernsehbildes eine spiralförmig begrenzte Fläche auf der kontinuierlich umlaufenden Filterscheibe erfordert hätte anstatt der Sektoren)." 

 

b51.35.png

Andersen schlug diesen trisequentiellen Farbfernseher mit Spiegelrädern und Kerr-Optik vor

 

Die Formgebung der in die rotierende Blende eingelassenen Farbfilter war zunächst eines der schwierigsten Probleme, da das Fernsehbild - im Gegensatz zum Filmbild - nach dem Bildwechsel nicht gleich als Ganzes steht, sondern zeilenförmig nacheinander aufgebaut wird. Stolz können Preßler und seine Mitarbeiter sein, denn die von ihnen für ein trisequentielles Verfahren entwickelte Filterscheibe wurde auch für das spätere CBS-Verfahren übernommen. 

 

b51.36.png

oben: Der Filmabtaster für das Zweifarbensystem der Deutschen Reichspost 1938
unten: Die Zweifarbenwiedergabe über die Filterblende in Projektion

 

In seinem Bericht fährt Preßler fort: „Natürlich war dieses Zweifarbenbild unbefriedigend, nicht nur hinsichtlich der grundsätzlich beschränkten Farbenmannigfaltigkeit, der geringen Auflösung und des Farbenflimmerns. Es führte zu der Erkenntnis, daß nur ein elektronisches Farbfernsehsystem für die Zukunft aussichtsreich sein konnte. Immerhin wurden mit diesem unvollkommenen System gewisse Erkenntnisse gewonnen, die für das Farbfernsehen von Bedeutung sind wie Farbverschmelzungsfrequenzen, Flimmerfrequenzen, Farbzeilenwandern, Farbe und Helligkeit des Umfeldes und ähnliches." Der Zweite Weltkrieg unterbrach die deutsche Farbfernseh-Entwicklung. Nachdem in Deutschland erstmals ein sequentielles Farbfernsehen vorgeführt worden war, und damit die Grenzen eines solchen Verfahrens deutlich wurden, blieb ohne Resonanz, was uns die Amerikaner 1951 in Berlin vorführten.

Berlin, Montag, 13. August 1951: Amerikanische Fernseh-Premiere in Berlin. Im Rahmen des Marshall-Planes hatten die zwei amerikanischen Fernsehgesellschaften RCA (Radio-Corporation of America) und CBS (Columbia Broadcasting System) 40 Tonnen Geräte im Wert von 500.000 Dollar und 36 Techniker nach Berlin gesandt, um amerikanisches Fernsehen zu demonstrieren. Präsident Truman hatte dazu an die Berliner eine Grußbotschaft gerichtet:„Die Herzen der freien Welt fühlen mit Ihnen. Das Wunder des Fernsehens wäre jedoch sinnlos, wenn es uns nicht hilft, einander besser zu verstehen, und es uns ermöglicht, um eine bessere Welt zu ringen." Das Schwarz-Weiß-Fernsehen der RCA, auf hundert in Berlin verteilte Fernsehempfänger ausgestrahlt, wurde vom Verfasser an anderer Stelle beschrieben. Das Farbfernsehen der CBS, unterstützt durch die britische Firma Pye im britischen Pavillon auf dem Ausstellungsgelände am Funkturm, gehört jedoch hierher, in die Geschichte der Farbfernsehtechnik.

Bei der Farbfernseh-Premiere im britischen Pavillon am 14. August 1951, am Tag nach der Schwarz-Weiß-Premiere der RCA, war er anwesend. Von einer 8-Meter-Rundbühne wurde auf eine „Fernsehstraße" im dunklen Nebenraum übertragen. Vor den elektronischen Kameras mit dem davorgesetzten Farbfilter-Rad traten bekannte Berliner Künstler auf. Stark und sehr bunt hatte man sie geschminkt. Das jeweils halbstündige Programm war mit „Obst und Gemüse" betitelt. Edith Schollwer, Maria Behling, Ingeborg Gravenhorst, Heinz Hann und Heinz Riethmüller wirkten mit. Die Bilder waren farbig, doch noch weit entfernt von dem Farbfernsehen, wie wir es uns vorstellten. Bei schnellen Bewegungen sah man farbige Säume an den Konturen. Bei CBS geschieht die „Umschaltung" im optischen Bereich. Ähnlich, wie wir es bei Preßler und Baird schon gehabt haben. Glücklicherweise blieb diese Vorführung auf die „Insel" Berlin beschränkt. Eine größere Farbfernseh-Propaganda hätte die Vorbereitungen für das in Deutschland neu einzuführende Schwarz-Weiß-Fernsehen stören können. So blieb es beim Erlebnis für die Berliner.
Was man in Berlin zeigte, war ein Farbfernsehen, wie es in den USA, lizenziert von der amerikanischen Fernmelde-Aufsichtsbehörde FCC (Federal Communications Commission) ab 25. Juni 1951 als einziges kommerziell ausgestrahlt werden durfte. Die CBS hatte sich die Genehmigung dazu verschafft und sendete in New York ab Juni 1951 an allen Werktagen von 14.00 bis 17.00 Uhr ein Farbprogramm. Schon weniger als vier Monate später mußten diese Sendungen wegen des Korea-Krieges eingestellt werden. So bekamen wir in Berlin dieses Farbfernsehen schon in der Zeit zu sehen, als es noch in New York als erstes Farbfernseh-Programm der Welt ausgestrahlt wurde.
Konzipiert - nicht erfunden, denn im Prinzip war es ein alter Hut und propagiert wurde das CBS-System in den 40er Jahren von dem amerikanischen, aus Ungarn stammenden Ingenieur Peter Goldmark. Das Grundprinzip des trisequentiellen Verfahrens besteht darin, drei Fernsehbilder in Schwarz-Weiß, die die drei Farbauszüge Rot, Grün und Blau enthalten, in Serie zu übertragen. Bei CBS geschieht die „Umschaltung" im optischen Bereich. Ähnlich, wie wir es bei Preßler und Baird schon gehabt haben.

 

 

b51.37.png

 

 

b51.38.png

Das CBS-System mit Farbfilterscheiben

 

 

b51.39.png

Grundprinzip der trisequentiellen Farbfernsehübertragung

 

Bei den Kameras können als rotierende Filterscheiben solche mit kleinem Durchmesser verwendet werden, denn der einzufärbende Lichtweg hat nur den Durchmesser der Optik. Das führte bei der ersten CBS-Kamera zu einer verblüffenden Ähnlichkeit mit der Zwei-Farben-Kinemacolor-Kamera von 1910. Bei der Berliner Kamera benutzte man ein Trommelfilter, das von einem seitlich angeflanschten Motor getrieben wurde. Die Empfänger dagegen brauchten auch bei kleiner Bildgröße riesige Scheibendurchmesser, die verkleidet, große Gehäuse erforderten.

 

b51.40.png

Wie sich die Bilder gleichen!
links: Farbfilmaufnahmekamera für das Kinemacolor-Zweifarbenverfahren, 1910
rechts: elektronische CBS-Aufnahmekamera, 1940

 
Eines der Hauptnachteile des CBS-Systems: Es war nicht kompatibel. Es sei noch einmal an die Bedingung der Kompatibilität erinnert, die bei der Entwicklung des NTSC-Systems im Vordergrund stand. Sie bedeutete und bedeutet auch bei uns heute noch, daß jede Farbfernseh-Sendung von einem normalen Schwarz-Weiß-Empfänger aufgenommen wird, als wäre es eine für ihn bestimmte Schwarz-Weiß-Sendung. 

Statt der 60 Rasterwechsel im amerikanischen 525-Zeilen-Fernsehen mußte man zur Reduktion von Flickererscheinungen auf 140 hochgehen. Die dafür notwendige Frequenzbandbreite, allein schon ohne die erhöhte Bildwechselzahl dreifach, konnte keinem Sender zugemutet werden, so daß man sie auf 60 Prozent, der für die 140 Rasterwechsel erforderlichen einschränkte und den damit verbundenen Auflösungsverlust in Kauf nahm. Ein anderer Nachteil war die geringe Bildhelligkeit. Die Filter nahmen bis zu 86 Prozent der Bildröhrenleuchtdichte weg.

 

b51.41.png

CBS-Aufnahmekamera, wie sie 1951 in Berlin benutzt wurde


Noch ein weiterer Nachteil fiel in Berlin auf: Um den damals unvermeidlichen Netzbrumm, der beim 50-Hz-Lichtnetz unangenehm störend in Vertikalrichtung als Dunkel-Hell-Störung über das Bild gewandert wäre, zu verringern, hatte man das ganze Wechselstromnetz synchron zu den 144 Bildwechseln umgeformt.

 

b51.42.png

Enorm groß ist das Frequenzband für das trisequentielle Verfahren - im Vergleich zu s/w

 

Hell-Störung über das Bild gewandert wäre, zu verringern, hatte man das ganze Wechselstromnetz synchron zu den 144 Bildwechseln umgeformt. Wie die CBS die amerikanische Fernmeldebehörde IFCC dazu brachte, im Oktober 1950 mit 5 zu 2 Stimmen für das CBS-System eine ausschließliche Sendegenehmigung zu erteilen, wunderte die Fachleute in der ganzen Welt.

Denn jetzt begann ein Farbfernsehkrieg, ähnlich dem, der später in Europa stattfand. In beiden exponierte sich ein General, in Amerika war es „General" David Sarnoff (1891 - 1971). Er, wegen seiner Verdienste um das amerikanische Nachrichtenwesen im Krieg zum Brigade-General befördert - kurz „der General" genannt-, war Präsident einer um die 250 Millionen Dollar reichen Nachrichtenfirma, der RCA. David Sarnoff, der sich gerne „Vater des amerikanischen Schwarz-Weiß-Fernsehens" nennen ließ, schäumte vor Wut über die Entscheidung der FCC und steckte zunächst einmal 150 Millionen Dollar in die Entwicklung eines vollelektronischen Farbfernsehsystems. Doch seine Demonstrationen fielen meist ab gegen die von Goldmark, denn er mußte drei Farbbildröhren, leuchtend in den Farben Rot, Grün und Blau, in einem Spiegelsystem für das Auge in ihren Bildern zur Deckung bringen. Das gelang selten. Auch waren die Empfänger riesige Kisten. Man brauchte eine Farbröhre, die alle drei Farben wiedergeben konnte, und die ließ Sarnoff mit allen ihm zur Verfügung stehenden Mitteln entwickeln. Von 10.000-Dollar-Prämien sprach man, die er für jede gute Idee eines Mitarbeiters ausgesetzt haben soll. Für die Normung des Schwarz-Weiß-Fernsehens in Amerika hatte man damals ein Komitee gegründet, das „National-Television-System-Committee" abgekürzt NTSC. Dieses ließ man für das Farbfernsehen neu aufleben. Über hundert der besten Physiker und Ingenieure Amerikas wirkten mit, und am 23. Dezember 1953 wurde der dabei herausgekommene NTSC-Standard von der FCC für Amerika als verbindlich erklärt. Es war eine geniale Lösung, deren Grundlagen in allen später als Verbesserung vorgeschlagenen Systemen - wie SECAM und PAL - verwertet wurden.

Die RCA hatte dazu auch die Farbbildröhre. Es war die sogenannte Lochmaskenröhre, wie sie verbessert im Prinzip verwendet wurde, wenn auch aus den Löchern Schlitze geworden sind. Peter Goldmark, der sich selbst in seiner Lebensbeschreibung „Maverick Inventor" - vorsichtig übersetzt, einen Einzelgänger - genannt hat, löste den amerikanischen Farbfernsehkrieg aus. Ohne ihn wäre es bestimmt nicht zu dem intensiven Einsatz amerikanischer Wissenschaftler und Ingenieure gekommen, die das NTSC-System geschaffen haben. David Sarnoff, der General, sein großer Gegner, ließ sich als Sieger feiern. Er hatte erreicht, was er sich vorgenommen hatte.

 

 

b51.43.png

CBS-Farbfernsehstudio in den USA

 

Das Bildsequenzverfahren war für die Heimempfänger gestorben. Für sie existierte ab der zweiten Hälfte der 50er Jahre nur noch die Farbbildröhre und für die Übertragung das NTSC-System. Da wurde für eine Sonderanwendung das Farbfolgeverfahren zur Einfärbung einer Schwarz-Weiß-Großprojektion noch einmal attraktiv. Das von dem Schweizer Professor Fritz Fischer (1898-1947) erfundene und nach seinem frühen Tod von seinem ehemaligen Mitarbeiter Edgar Gretener zur Fertigungsreife entwickelte Fernseh-Großprojektionsgerät - damals noch bei vielen Fernseh-Großveranstaltungen eingesetzt - arbeitet als Single in Schwarz-Weiß. Es projiziert auf eine Kinoleinwand wie ein Kinoprojektor. So war es naheliegend, den Lichtstrom bildsequentiell mit einer rotierenden Filterscheibe einzufärben, - genau so, wie es einmal Issensee um die Jahrhundertwende bei der Kinoprojektion gemacht hatte. Die Bildwechselzahl konnte man so hoch wählen, daß kein Flimmern bemerkbar wurde, denn eine Beschränkung ausschließlich auf eine Kabel- oder Sender- Richtfunkverbindung zwischen den Kameras und dem Projektor erlaubte das notwendige große Übertragungsfrequenzband.

Der Schweizer Farbenhersteller CIBA finanzierte das Farb-„Eidophor"-Projekt. Er setzte solche Anlagen ein, um in verschiedenen Städten Europas und den USA das Färben mit seinen Farben fernsehmäßig und „live" vorzuführen. Unter Verwendung einer Spezial-Projektionswand konnte man die Bilder wie im Kino auf 15 bis 20 Quadratmetern Fläche zeigen. Er hatte einige dieser Vorführungen gesehen und war begeistert von der Farbwiedergabe. 

 

 

b51.44.png

 

b51.45.png

Eidophor-Großprojektor nach der trisequentiellen Methode. Das Filterrad ist herausgeklappt

 

Farbfernsehen simultan - Alle drei Farbauszüge gleichzeitig

Als man das Farbfernsehen zum ersten Mal sequentiell verwirklichte, war die simultane Gewinnung und Übertragung der drei Farbauszüge R, G und B schon längst vorgeführt worden. Nur das Fehlen einer Farbbildröhre hatte den Umweg über die vor einer Schwarz-Weiß-Bildröhre rotierenden Farbfilterscheiben veranlaßt. Das Grundprinzip einer simultanen Dreikanal-Übertragung sei im folgenden Bild in moderner Darstellung mit elektronischen Kameras und farbigen Bildröhren veranschaulicht.
Das erste Farbfernseh-Patent mit simultaner Dreikanalübertragung war Otto von Bronk (1872-1951), angemeldet worden mit DRP 155528 vom 12. Juni 1902: „Es werden synchron kommutierte Punktzeilen von Selenzellen im Sender und von Glimmzellen im Empfänger in Verbindung mit rotierenden Vielkantspiegeln für die zweite Koordinate benutzt. Zum Zwecke des farbigen Fernsehens passieren die durch halbdurchlässige Spiegel in drei Bündel aufgeteilten Strahlen, Dreiergruppen von Rot-, Grün- und Blaufiltern, denen entsprechende Dreiergruppen von Sendezellen bzw. weißleuchtenden Empfangszellen zugeordnet sind. Der Vorschlag ließ u.a. das völlige Fehlen der Blauempfindlichkeit des Selens außer acht." 

 

b51.46.png

Eidophor-Projektor in Funktion

 

 

b51.47.png

Prinzipielle Übertragung der drei Farbauszüge simultan

 

Schon 1929 wurde die erste simultane Übertragung und Übertragung der drei elektrisehen Farbfernsehsignale vorgeführt und am Empfänger ein buntes Bild durch Addition der drei Farbteilbilder gezeigt.

 

b51.48.png

Erstes Farbfernseh-Patent mit simultaner Dreikanalübertragung

 

Es müssen sensationelle Vorführungen gewesen sein, als Herbert Eugene Ives (1882-1953) und seine Mitarbeiter im Laboratorium der Bell-Gesellschaft in New York brillantes Farbfernsehen - live - in der Bildgröße einer Briefmarke zeigten. Noch war es eine Apparatur mit rotierender Nipkowscheibe im Abtaster und im Empfänger. Immerhin, im Vergleich zu Baird im Jahre vorher mit seinen ca. 30 Zeilen waren es bei Ives schon 50 Zeilen bei 18 Bildwechseln in der Sekunde. Der über drei Leitungen angeschlossene Empfänger stand in einem Nebenraum. 

 

b51.49.png

Für die Farbempfangsapparatur von Ives 1929 werden hinter der Nipkowscheibe die drei Farblichtquellen über teildurchlässige Spiegel gemischt. Die Neon- Glimmlampe mit Rotfilter liefert das rote, die Argon-Lampe mit Blaufilter das blaue und die Argon-Lampe mit Grünfilter das grüne Licht.

 

Stolz schrieb man über die Vorführungen am 16. Juli 1929: „Old Glory, Wassermelone, Rosen und ein hübsches Mädchen, vorgeführt in leuchtenden Farben bei der ersten Farbfernsehdemonstration in den Bell Telephone Laboratories. Die Wissenschaftler der Bell Telephone Laboratories, 463 West Street, New York City, feierten den 4. Juli mit patriotischen Vorführungen der ,Old Glory', dem Sternenbanner, das in seinen schönen Farben rot, weiß und blau in der ersten Farbfernsehdemonstration flatterte. Vorführungen dieser letzten Errungenschaft der Bell Laboratories fanden mehrmals täglich während der Ferienwoche für Gruppen von Wissenschaftlern und anderen geladenen Gästen statt. Die Demonstrationen waren nicht auf das Sternenbanner beschränkt, das hübsche Mädchen am Übertragungsgerät schwenkte nicht nur die amerikanische Nationalflagge, sondern später mit derselben Energie den Union Jack. Dann nahm sie ein Stück Wassermelone, und es war fehlerfrei zu erkennen, was sie aß. Das rote Fruchtfleisch der Melone, die schwarzen Kerne und die grüne Schale wurden naturgetreu gezeigt, genauso wie die natürlichen Farben ihrer Haut, Augen, ihres Haars, ihrer schicken Kappe und reizenden Kleidung. Als nächstes nahm sie einen Geranientopf, um zu zeigen, wie das Fernsehen Blumen wiedergibt: rote Blüten und zitternde Blätter, als der Blumentopf hin und her bewegt wurde. Dann wurde ein großer farbiger Ball gezeigt, eine Ananas, ein Rosenstrauß und zum Schluß erhob sich die junge Frau von ihrem Stuhl vor dem Übertragungsgerät, lächelte freundlich, verbeugte sich und ging, nur einen grellen, kurzen Lichtschein zurücklassend, um zu zeigen, wo sie gesessen hatte."

Die drei Farbauszüge am Empfänger wurden in einer Spiegeleinrichtung für einen Beobachter zur Deckung gebracht, wie sie ähnlich heute noch für die Auseinanderspreizung der drei Farbbildauszüge in den Farbfernseh-Aufnahmekameras verwendet wird. Schon 1862 hatte Ducos du Hauron ähnliche Betrachter für die Dreifarbenfotographie vorgeschlagen: „Patent erteilt an Herrn Ducos du Hauron für eine Kamera photographischen Apparat, bestimmt, gleichzeitig drei Bilder von ein- und demselben Gegenstände aufzunehmen.
Die von dem Gegenstand kommenden und photographisch zu verwerfenden Lichtstrahlen werden von einem unbelegten Glase mit parallelen Flächen mit 45 Grad Neigung oder annähernd so empfangen, diese Lichtstrahlen werden teilweise gegen die erste Linse reflektiert. Jedoch der größte Teil der Lichtstrahlen geht durch dieses erste Glas und fällt auf ein zweites, unbelegtes Glas mit parallelen Flächen mit 45 Grad, und diese Lichtstrahlen, vom gleichen Gegenstand kommend, werden hier weiter gespalten, und ein Teil wird hier gegen eine zweite Linse reflektiert. Der Rest der Strahlen geht durch dieses zweite Glas und wird von einer dritten Linse direkt empfangen!

 

b51.50.png

Gestell mit den 24 Fotozellen der Ives-Lichtpunktabtast-Apparatur. Der abtastende weiße Lichtstrahl kommt durch das Loch in der Mitte

 

H. E. Ives hatte die Spiegelkombination wohl von seinem Vater Frederic Eugene Ives (1856 - 1937) übernommen, der in den 90er Jahren mit seinen Kromoskop und Heliokromoskop genannten Geräten weltbekannt geworden war. Damals, als man noch nicht die dichroitischen Spiegel hatte, war die Reflexion der in einer Doppelfunktion - Reflexion und Durchlaß - eingesetzten Glasplatten noch gering. So kam nur wenig Licht ins Auge, besonders, nachdem auch die mit Edelgasen leuchtenden Lichtquellen nach ihren Filtern eine sehr geringe Farbausbeute hatten. Dazu kam die von Schwarz-Weiß bekannte Eigenschaft der Nipkowscheibe, von der ganzen leuchtenden Fläche jeweils nur so viel Licht durchzulassen, wie es das vorbeieilende Loch, den Bildpunkt definierend, zuließ.

Die Spiegelanordnung, für die es kein Deckungsproblem der Teilbilder gab, da sie lediglich da war, um die Bildfläche mit allen drei Teilfarben auszuleuchten, hatte einen so schlechten Wirkungsgrad, daß die drei Lichtquellen von ihren Verstärkern mit großer Energie gesteuert werden mußten. Eine mußte sogar mit Wasser gekühlt werden. Und das alles für ein briefmarkengroßes Farbbild. Auch beim Geber gab es kein Deckungsproblem für die drei Farbauszüge, denn ein weißer Lichtstrahl tastete die Person ab, wie bei Schwarz-Weiß. Dort geschah die Gewinnung der drei Farbsignale R, G und B durch drei Fotozellengruppen mit entsprechend vorgeschalteten Farbfiltern. Sie waren in einem die abgetastete Person halbrund umschließenden Gestell angeordnet. Da für eine weiße Fläche R, G und B als gleich große Signale herauskommen mußten, waren mit Rücksicht auf die damals noch sehr unterschiedliche Farbempfindlichkeit der Fotozellen je zwei blaue, acht grüne und vierzehn rote Fotozellen zusammengeschaltet. Die ganze Anlage mit dem bunt gekleideten Girl - leider nicht als Buntfoto erhalten - ist nachstehend abgebildet.

Ein Jahr später (1930) hat Ives dann den ersten Farbfilmabtaster der Welt vorgeführt. Für die Filmabtastung benutzte er schon eine Lochscheibe mit konzentrisch angeordneten Löchern und am Empfänger noch die Anordnung der Personenabtastung von 1929 mit Nipkowscheibe. Auch hier gab es auf der Geberseite durch die Leuchtpunktabtastung kein „Deckungsproblem" für die drei Teilbilder. Darum hat sich, jetzt mit einer Bildröhre für die Lichtpunktabtastung, dieses Prinzip für die Farbfilm- und Farbdia-Abtastung von den 50er Jahren bis heute erhalten. Einen Farbabtaster für farbige Papiervorlagen nach dem Prinzip der weißen Leuchtpunktabtastung zeigt das folgende Bild. Die weiße Abtaströhre schreibt das Lichtpunktraster, das mit der Optik auf der Vorlage abgebildet wird. Der Lichtpunkt wird entsprechend dem Remissionsvermögen der Vorlage farbig reflektiert und trifft die drei farbselektiven Fotozellen, die - nach Verstärkung - die drei Farbwertsignale Rot, Grün und Blau liefern. 

Bei Telefunken hatte man in den 30er Jahren mit der Methode der Leuchtpunktabtastung schon Personen in Schwarz-Weiß aufgenommen. Als 1938 die „Videotelefon'-Strecke Berlin-Leipzig, verlängert auf Berlin-München, durch Oberpostrat Flanze eröffnet wurde, konnte man den Redner nicht aus der engen Sprechzelle die Eröffnung vornehmen lassen. Eine elektronische Fernsehkamera hatte man in München nicht zur Verfügung, deshalb improvisierte der Verfasser mit einer Projektions-Bildröhre mit nachleuchtarmem Schirm und zwei großen Fotozellen eine Lichtpunktabtastung des Redners für die feierliche Eröffnung in München am 17. Juli 1938 in der Norm des Fernseh-Telefons: Schwarz-Weiß, 180 Zeilen, 25 Bildwechsel. Aus Berlin kam ein Bild des dortigen Redners, aufgenommen von einer elektronischen Telefunken-Kamera. So konnte die Presse in Berlin das Bild des Redners in München und dort das Bild des Redners aus Berlin auf Großprojektionsbildern sehen. 

 

 b51.51.png

Die Geberseite der Ives-Apparatur für Farbfernsehen von 1929. Das Licht einer Bogenlampe wird durch die Löcher der Nipkowscheibe auf die Person geworfen. Der bunt reflektierte Anteil fällt über die drei Sorten Filter in die 24 Fotozellen

 

 

b51.53.png

Schema eines Lichtpunktabtasters für farbige Papiervorlagen ohne Farbdeckungsprobleme

 

Nach der Methode von Ives hätte man damals mit drei Fotozellengruppen schon Farbe machen können. Und genau nach dieser Methode, für Farbe abgewandelt, hatte die amerikanische Allen DuMont Inc. in den 50er Jahren ihr „Vitascan'-Fernsehstudio mit Lichtstrahlabtastung eingerichtet. Der Lichtstrahl wurde von einer weiß leuchtenden Hochleistungs-Kathodenstrahlröhre, die beweglich in einer Art Kamera eingebaut war, auf die Szene geworfen. Wie einst bei Ives lieferten drei Sorten Fotozellen die drei Signale R, G und B. Der Fortschritt der Fotozellenentwicklung seit Ives erlaubte es, mit vier Fotozellen - je eine für Blau und Grün und zwei parallel geschaltete für Rot, jede mit eingebautem Elektronenvervielfacher - die drei gleich großen Spannungen bei Weiß zu erhalten. Solche vier Fotozellen waren je in einer scheinwerferartigen Einheit zusammengefaßt. Sie wurden wie Scheinwerfer im Studio aufgehängt. Für eine drei Meter breite Studioszene waren acht solche „Pic up"-Einheiten aufgehängt. 

 

b51.54.png

Farbfernsehempfänger nach dem Strahlteilsystem

 

Das war eine Verlegenheitslösung in der Zeit, als das Deckungsproblem bei der Einjustierung von drei nach der Bildspreizmethode arbeitenden Aufnahmeröhren noch schwierig war. Heute wird diese Farbdeckung elektronisch automatisiert. Vorbild für die Auseinanderspreizung der drei Farbauszüge war der ältere Ives. Sein Gerät von 1896 könnte Vorbild für die Farbfernsekameras gewesen sein. Heute benutzt man dichroitische Spiegel in den Strahlenteilern, die so hergestellt werden können, daß ein gewünschter Farbbereich zu fast 100% durchgelassen und der restliche Farbbereich zu 100% reflektiert wird.

 

b51.55.png

„Vitascan'-Femsehstudio mit Lichtstrahlabtastung

 

b51.57.png

Farbzerlegender Mehrschichten-Spiegel (dichroitischer Spiegel). Er reflektiert zu fast 100 % Grün und Blau und läßt Rot völlig durch

 

b51.58.png

Innenansicht des Farbfernsehempfängers nach dem Strahlteilsystem

 

Die Farbbildröhren: Technologische Wunder

Die schwierigste Aufgabe, vor der die Ingenieure standen, die auf das Ziel eines vollelektronischen Farbfernsehens hinarbeiteten, war die Entwicklung einer Farbbildröhre. Sie sollte in den drei Primärfarben gleichzeitig leuchten können, jeder Farbauszug für sich gesteuert. Als die Lösung dieser Aufgabe noch nicht abzusehen war, schaltete sich der englische Fernsehpionier J. L. Baird noch einmal ein.

Aufgenommen hatte Baird ein sequentielles Zweifarbensystem mit den Farbauszügen Blau/Grün und Orange/Rot, wie es Preßler 1938 auf der Funkausstellung in Berlin mit rotierenden Filterscheiben am Geber und Empfänger vorgeführt hatte. Am Empfänger hatte Baird eine spezielle Bildröhre, auf der nacheinander zwei übereinander angeordnete Bilder geschrieben wurden, das eine in der einen, das andere in der zweiten Leuchtfarbe. Durch eine Optik wurden beide Bilder auf einem Projektionsschirm zur Deckung gebracht. Die rotierende Filterscheibe wurde dadurch am Empfänger eingespart.

 

b51.59.png

 

b51.60.png

J. L. Bairds sequentielle Zweifarbenübertragung: Zwei Farbfelder werden auf einer Röhre optisch zur Deckung gebracht


Bei Kriegsbeginn im September 1939 hatte man in England das Fernsehen eingestellt; Baird, der notorische Bastler, arbeitete aber in seiner Garage am Farbfernsehen weiter in der Hoffnung, nach dem Krieg ein Comeback zu erleben. So machte er mit Farbfernseh-Demonstrationen von sich Propaganda und sorgte dafür, daß in England trotz Krieg der Wunschtraum nach einer Farbfernseh-Zukunft aufrecht erhalten blieb. Aus diesen Versuchen heraus realisierte Baird die erste Farbbildröhre der Welt, bei der schon zwei Farben gleichzeitig leuchten konnten. Im Prinzip waren zwei Bildröhren an einem dünnen, durchsichtigen, gemeinsamen Bildschirm sozusagen zusammengeflanscht. Auf der beidseitig mit Leuchtstoffversehenen Glas- oder Glimmerscheibe wurde auf der Vorderseite die eine Farbe geschrieben, während in der Durchsicht additiv die gleichzeitig auf der anderen Seite geschriebene zu sehen war.

 

b51.61.png

Bairds Patent für eine Zweifarbenröhre vom 25.7.1942

 

Drei Farben gleichzeitig auf einem Schirm

Die Grundidee kam von einem Fotografen. Der geniale Ducos du Hauron (1837-1920), dem wir so zahlreiche bedeutende Leistungen auf dem Gebiete der Fotographie verdanken, schrieb 1868: „Kleine Pünktchen oder Strichelchen in den drei Primärfarben Rot, Grün und Blau werden auf einer Platte so eng nebeneinandergesetzt, daß sie alle gleichzeitig zu einer Mischfarbe Weiß verschmelzen. Sind die Elemente aller drei Farben gleich hell, bedecken sie gleiche Teile der Fläche; ist eine Farbe weniger hell, so werden davon mehr Elemente genommen, und sie werden größer."

Eine klare Anweisung, ein Farbraster über die ganze Platte in Form sich wiederholender kleiner Filterelemente in den drei Grundfarben herzustellen, das sowohl für die Aufnahme als auch für die Wiedergabe zu benutzen ist. Wie man bunte Bilder aus winzigen, ineinander verschachtelten Farbelementchen herstellen kann, das haben uns gekonnt die Maler gezeigt, die man auf Grund ihrer Malweise „Pointillisten" genannt hat. Der bedeutendste war Georges Seurat (1859-1891), der auf Grund von Überlegungen über die optische Farbmischung auf die Idee kam, kleinste Farbpunkte von unterschiedlicher Farbe so eng nebeneinander zu setzen, daß sie sich aus dem normalen Abstand, aus dem man ein Bild betrachtet, dem Auge als einheitliche Farbmischung ergeben.

Deutlicher gesagt: Gerade aus dem scheinbaren Mangel des Auges, sehr feine, nebeneinanderliegende Farbpünktchen getrennt in ihren Eigenfarben auffassen zu können, beruht seine Eigenschaft, sie als additive Mischfarbe zu erkennen. Seurat und seine Freunde - der bekannteste wurde Paul Signac (1863-1935) - benutzten nur wenige Farbelemente, die sie als Pünktchen nebeneinander setzten. Seurats bedeutendstes Bild „Ein Sonntagnachmittag auf der Insel Grande Jatte", das er - 206 x 306 cm groß - nimmermüde von 1884 bis 1886 Pünktchen neben Pünktchen setzend malte, können wir in Europa nicht mehr bewundern. Es hängt in Chicago, und wir müssen uns auf Reproduktionen beschränken.

 

b51.62.png

George Seurat „Ein Sonntag Nachmiitag auf der Grande Jatte", Ausschnitt

 

Betrachten wir ein solches Bild aus der Nähe, dann zeigt sich jedes Detail aufgelöst in einen Schwarm wirbelnder Punkte, weil jede Mischfarbe so betrachtet in Einzelpunkte auseinanderdividiert wird, sagte man auch Divisionismus zu dieser Technik. Wir wollen sie im Gegensatz zu der Bildspreizmethode, nach der wir die drei Einzelbilder bei der Fernsehaufnahme trennen, die Punktspreizmethode nennen.

Daß drei Farbelemente für die Kombination eines bunten Bildes genügen, hat übrigens der polnische Edison Jan Sczepanik auf andere Weise gezeigt. Um die Jahrhundertwende hatte er eine Fabrik in Krefeld inspiriert, mit nur drei Sorten von Fäden, Rot, Grün und Blau, durch gesteuerte Veränderung der Webdichte Bilder in der Vielfalt der bunten Farben zu weben.

Zu den weiteren Erfindungen, die den Weg zur späteren Farbbildröhre aufzeigen, gehört das Verfahren der Gebrüder Lumiere, die um die Jahrhundertwende mit ihren „Autochrome"-Dia platten Farbdias von unvergleichlicher Qualität schufen, über der fotographischen Emulsion wareine Schicht von winzigen Punktelementen aus Kartoffelstärke aufgebracht, die wie farbiges Konfetti gleichmäßig in den Farben Rot, Grün und Blau eingefärbt waren und als Mikrofilter dienten, die diese drei Farben zur Schwarz-Weiß-Emulsion durchließen. Ein Farbbild in einem normalen Fotoapparat aufgenommen, im Umkehrprozeß das Schwarz-Weiß-Bild zu einem Positiv umgekehrt und die Platte als Dia projiziert, ergaben sich Bilder von unübertrefflicher Schönheit. Nur mit der Lupe konnte man die Zusammensetzung aus feinen R-, G-, B-Bildpunkten erkennen. Bis Ende der 20er Jahre blieb es die Methode, mit der auch Amateure Farbbilder auf den „Kornrasterplatten" aufnehmen konnten, die damals auch Agfa und Kodak herstellten.

 

b51.63.png

Punktraster der Autochrome-Foto- graphie in extremer Vergrößerung


Ohne daß er ein Verfahren zur getrennten Steuerung von jeder der drei Farben angab, meldete Manfred von Ardenne am 19. Juni 1931 das Englische Patent 388 623 für eine Bildröhre an: Drei in mikroskopisch schmalen Streifen eng nebeneinanderliegende Leuchtstoffe in den drei Primärfarben, so dimensioniert, daß sie sich mit einem Elektronenstrahl abgetastet zu weißem Licht ergänzen - das war Ardennes Grundidee.

 

 b51.64.png

Autochrome-Punktraster- Farbfotographie der Gebrüder Lumiöre, 1906

 

Die Lochmaskenröhre

Die Farbbildröhre, mit der - serienmäßig hergestellt - das Heimfarbfernsehen begann, hatte ihr Vorbild in der Farbfotographie. Raphael E. Liesegang hatte 1896 das Lochricht-Rasterverfahren angegeben. Die farbigen Lichter durch Elektronenstrahlen zu ersetzen, war der Grundgedanke für die Lochmaskenröhre. 

 

b51.65.png

Vorschlag Liesegangs, in drei Farben durch ein Lochraster auf eine s/w-Platte zu fotographieren und durch dieselbe Anordnung ein Farbbild zu reproduzieren

 

Der Ursprungsgedanke für die dann so erfolgreichen Schattenmasken-Farbbildröhren stammt von dem Physiker Werner Flechsig (1900 - 1970), den er während seiner Tätigkeit bei der Berliner Firma Fernseh-GmbH am 12. Juli 1938 als Deutsches Reichspatent Nr. 736 575 angab. Alle unsere heutigen Farbbildröhren sind Schattenmaskenröhren und basieren in ihrem Prinzip auf seiner Erfindung. Doch ihre Realisierung mußte er anderen überlassen. Einen Nutzen von seiner frühen Erfindung hatte er nicht.

Zur Bildschrift hat die Schwarz-Weiß-Bildröhre einen Elektronenstrahl, dessen Erzeugungssystem auch Elektronenkanone genannt wurde, weil es wie ein Maschinengewehr mit einer schnellen Schußfolge, allerdings mit Elektronen, schießt. Drei solche Kanonen brauchte man, für die jedes „Durchschuß"-Loch wie das Astloch der kleinen Geschichte von den drei Jungen wirkt, die durch solch ein Astloch in ein Damenbad schauten. „Ich sehe eine in einem grünen Badeanzug", sagte der in der Mitte, „Und ich eine in Rot", kam es von dem links, während der von rechts durch das Loch schauende Junge eine in Blau sah. Genauso wirkt die Lochmaskenröhre. Jeder Strahl trifft durch jedes Loch den im Abstand dahinter liegenden Leuchtpunkt in der ihm zugeordneten Farbe. So lassen sich die drei Farbauszüge getrennt steuern. Alle gleich stark bieten dem Auge Weiß.

 

b51.66.png

Das Patent von Goldsmith vom 19.7.1947 mit der Idee für die Lochmasken-Farbbildröhre

 

A. N. Goldsmith hatte diese Farbröhre am 19. Juli 1947 zum Patent angemeldet (USA Pat. 2630542). Harold B. Law (RCA David Sarnoff-Forschungszentrum, Princeton, New Jersey, USA) gelang im Jahre 1949 das erste Modell einer solchen Röhre. Die Lochrasterplatte und der Leuchtschirm waren als flaches „Sandwich" hinter dem Fenster eines Glaskolbens von 23 cm Durchmesser montiert, der ein Bild von nur 7,6 qcm ergab.

Law erfand 1951 das „Photographische Verfahren zur Aufbringung elektronenstrahlempfindlicher Mosaikschirme" das nach heftigem Patentstreit nach 17 Jahren als USA-Pat. 340 60 68 erteilt wurde. Die erste produzierte Lochmaskenröhre der RCA war ebenfalls mit einem innen aufgehängten „Sandwich" von 30 cm Diagonale ausgerüstet. Groß war der Bildschirm der ersten Röhre noch nicht und wie die stolze Werbung der RCA zeigt: Man konnte sie in einer Hand halten. Als der Präsident der RCA, David Sarnoff, am 29. März 1950 in Washington erstmals die neue Farbfernseh-Bildröhre vorstellte, leitete er seinen Vortrag mit den Worten ein:

 

b51.69.png

 

Die erste von der RCA fabrizierte Farbbildröhre:
1. Die Leuchtpunkte auf dem flachen Leuchtschirm.
2. Die Lochmaske.
3. Mumetall-Abschirmung.
4. Mumetall-Halsabschirmung.
5. Einstellmagnete für die Strahllage.
6. Ablenkspule
8. Glas.
9. Rot-, Blau- und Grünkanone.
10. Hochspannungsanschluß.
11. Konvergenzelektrode.
12. Plastikisolation.

 

 

b51.70.png

 

,,Im Vergleich zu den großen Erfindungen im Bereich von Radio und Fernsehen der letzten 50 Jahre wird diese Farbbildröhre in die Annalen des Fernsehens als revolutionäre und epochemachende Entwicklung eingehen. Wenn Historiker gegen Ende des 20. Jahrhunderts die wichtigsten wissenschaftlichen Entdeckungen auflisten, wird diese Röhre in der Reihe der größten Erfindungen dieses Jahrhunderts stehen. Sie ist der Schlüssel zum Farbfernsehen und damit eine herausragende Leistung unserer Zeit." Fünf Typen hatte man entwickelt, bis die fabrizierbare „Sandwich-Röhre" fertig war. Berühmte Physiker hatten zusammengearbeitet, so daß die RCA Anfang der 50er Jahre das erste Farbfernseh-Bild nach dem NTSC-System präsentieren konnte.

Der endgültige Durchbruch für die Farbröhre kam 1953, als von der RCA-Konkurrenz, CBS-Hydron, von Fyler und seinen Mitarbeitern eine Röhre gezeigt wurde, bei der die Blechmaske - im konstanten Abstand der gekrümmten Glasfront folgend - gebogen und die Leuchtpunkte direkt auf der Innenseite der Glasfront aufgebracht waren. Die Weiterentwicklung führte zur Lochmaskenröhre, dem Röhrentyp, mit dem auch das deutsche Nachkriegsfernsehen am 25. August 1967 farbig wurde.

Waren die Glaskolben der ersten Schwarz-Weiß-Viereckröhren der Welt, 1939 von Dr. Bartels bei Telefunken erfunden, aus Weichglas in dem Osram-Glaswerk in Weißwasser in der Lausitz aus einem Stück geblasen, so mußte man für die Herstellung der Viereck-Farbbildröhren eine ganz neue Technik entwickeln. Sie kam aus den USA. Die Glaseinzelteile wurden aus Hartglas gepreßt und zum kompletten Glaskolben zusammengelötet, nachdem die Leuchtelemente auf die Glasfront aufgebracht und die Blechlochmaske eingebracht war. - Ein technologisches Wunderwerk! - Die Bildflächen wurden immer größer, eine „Jumbo-Bildöhre" von 1987 hat 95 cm Diagonale, zentnerschwer ist der damit ausgerüstete Empfänger. Von den runden Löchern der Maske warman schon vor Jahren abgegangen. Liesegang und seine Mitstreiter hatten die Löcher seines Farbfotoverfahrens durch Schlitze ersetzt. Auf seinem Projektionsschirm erschien das Farbraster in senkrechten R-G-B-Linien.

 

b51.71.png

Prinzip der Lochmasken Farbbildröhre

 

Während er die Rasterlinien auf einer Glasplatte über die ganze Fläche durchziehen konnte, ging dies bei der Metallmaske nicht. Sie wäre in Streifen zerfallen. So näherte man sich den langen Schlitzen durch optimal verteilte Langlöcher. Der große Vorteil dieser Schattenmaskenröhre mit den Langlochschlitzen ist die „Inline'-Anordnung der drei Kanonen, die das Problem der Deckungsgleichheit der drei Farbauszüge (Konvergenz) wesentlich vereinfacht. Millionen von Farbbildröhren werden heute so gefertigt - mit einer Ausnahme: das „Trinitron" von Sony.

 

b51.72.png

Lochmaskenröhre der 60er Jahre

 

B51.73.png

Von der Lochmaskenröhre mit dem Delta-System (Dreieck) der Kanonen zur Schlitzmaskenröhre mit dem „lnline"-Kanonensystem

 

Elektronenlinsen statt der Schlitze einer Schattenmaskenröhre

Noch einmal lernte man von der Farbkinematographie, und zwar von der Methode, die beim 16-mm-Amateurfilm in Schwarz- Weiß bis Mitte der dreißiger Jahre benutzt wurde. Die nur wenig Licht durchlassenden Schlitze des Spaltrasters von Liesegang durch feine Zylinderlinsen zu ersetzen, die auf der Oberschicht des Films eingeprägt waren, war die Generalidee. Sie kam 1908 von Rodolphe Berthon, einem Franzosen (E. R 392987, 1909). Mit zusätzlichen Ideen von A. Keller-Dorian kam sie als Kodacolor und Agfacolor auf den Markt. Ganz besonders nahm sich die Firma Siemens zusammen mit der Filmfirma Perutz dieser Farbkinematographie an. Die Siemens-Vorführungen auf der Weltausstellung in Paris 1937 in einem Kinosaal des Deutschen Pavillons, in dessen Foyer der Verfasser 375-Zeilen-Fernsehen des Panoramas vom Dach vorführte, waren Sensationen dieser Ausstellung. Die Zylinderlinsen hatten einen Krümmungsradius von nur 32/1000 mm und waren nur 4/1000 mm tief eingedrückt im mikroskopischen Abstand. 

 

b51.74.png

Schlitzmaskenröhre (Trinitronprinzipl)


Der Gedanke, dieses Verfahren auf Elektronenlinsen anstelle der Schlitzmaske zu übertragen, stammt von dem Nobelpreisträger E. O. Lawrence aus Berkeley, USA, der zuerst eine Einstrahlröhre, „Chromatron" genannt, erfunden hatte - wir werden sie noch beschreiben -, die aber nur kurzzeitig in Japan hergestellt wurde. Als „Trinitron" mauserte sich seine Dreistrahlröhre zur besten Farbbildröhre der Welt.
Die Dreistrahlröhren mit Gittermaske wurden in einer größeren Zahl von Versuchsmodellen 1953/54 von der General Electric Company hergestellt. Sie ist eine Nachbeschleunigungsröhre mit vergrößerter Ablenkempfindlichkeit. Vordem Schirm, der wie bei nachfolgend beschriebenen Röhren parallele Phosphorstreifen in senkrechter Richtung hat, liegt ein Gitter aus parallel gespannten Drähten. Dieses Gitter wirkt infolge der angelegten Nachbeschleunigungsspannung wie ein System von parallelen Zylinderlinsen, und zwar derart, daß, von jeder Elektronenkanone aus gesehen, genau hinter jedem Draht sein vergrößerter Schatten liegt. Wieder werden im Röhrenhals drei Elektronenkanonen, nebeneinander in einer horizontalen Ebene angeordnet, auf die Schirmmitte ausgerichtet. Bei geeigneter Wahl der Abstände und des Phosphor-Linienrasters wird bei konstanter Beschleunigungsspannung jeder Strahl nur einen der drei Farbstreifen treffen können,- jeder Kanone kann also eine Farbe zugeordnet werden. Die Zylinderlinsenwirkung verkleinert den Strahl in senkrechter Richtung zu den Drähten außerordentlich, während sie ihn parallel dazu fast unbeeinflußt läßt. Es entsteht ein ovaler Leuchtfleck, in der Abtastrichtung zusammengezogen.

 

b51.75.png

Leuchtelemente der Lochmasken- und der Schlitzmaskenröhre
rechts eine Schirmbild-Mikrofotographiel

 

Entscheidende Schwierigkeiten traten bei den Drahtmaskenröhren (und auch bei dem im nächsten Abschnitt beschriebenen Chromatron) bei der Herstellung der Phosphorraster nach der optischen Kopiermethode auf. Die gegen die Drahtdurchmesser verbreiterten Schatten sind nur elektronenoptisch und nicht lichtoptisch vorhanden, waren doch die Drähte so dünn, daß sie mit bloßem Auge nicht gesehen wurden. General Electric scheiterte an den Fertigungsschwierigkeiten und ging zur Lochmaskenröhre über. Die Gitterröhre wäre heute ein historisches Museumsstück, hätte die japanische Firma Sony sie nicht nach unsäglichen Schwierigkeiten zur Fertigungsreife gebracht.
Masaru Ibuka, mit Akio Morita Gründer der Firma Sony, hatte vor einer Reise in die USA, wo er von den Patenteigentümern der Chromatron-Röhren, der Paramounth, die Nachbaurechte erwerben wollte. Da für die Dreistrahlröhre der General Electric diese der befreundeten Firma Telefunken einen Entwicklungsauftrag für die Elektronenkanonen gegeben hatte, war dort das erste „Inline"-System der Welt entstanden. 
Sony verwirklichte das Einstrahl-Chromatron und brachte ab September 1964 19-Zoll-Empfänger auf den japanischen Markt. Die Geräte funktionierten schlecht, eine große Zahl mußte zurückgenommen werden. Aus der Not heraus schaffte man, was keinem gelungen war: die Fertigungseinrichtung für eine Röhre, die mit einem neuartigen Elektronensystem ausgestattet war, das alle drei Kanonen (Inline) in einem System vereinigt und der Röhre den Namen „Trinitron" gab. Heute wird diese Röhre weltweit als beste anerkannt, wenn man auch, weil sie schwierig zu fabrizieren ist, ihre Herstellung dieser einen Firma überließ. Nebenstehende Bildschirmaufnahmen sind als historische Rarität zu betrachten - im Jahr 1968.

 

 b51.76.png

Mikroaufnahme des Bildschirms der Trinitronröhre, 1968

 

b51.77.png

NTSC-Bildausschnitt der Trinitronröhre

 

Die Einstrahl-Bildröhre von E. D. Lawrence

Von einem Linienschalter wird der Strahl in so schneller Folge nacheinander auf die drei Phosphorlinien geschaltet, daß der einheitliche Eindruck einer Mischfarbe entsteht. Der Schalter wird mit Farbträgerfrequenz oder einer daraus abgeleiteten höheren Schaltfrequenz betrieben. Es wird also beim amerikanischen und japanischen 525-Zeilen- NTSC-System mindestens 4,43 • 10/6 mal in der Sekunde der Farbzyklus durchlaufen, das bedeutet mindestens 13,29 • 10/6 farbige Punkte in der Sekunde.

Der schwierige Abgleich der drei Kanonen für deckungsgleiche Farbauszüge (Konvergenz) läßt sich bei einer Röhre mit nur einem Strahl vermeiden: er wird von dem Elektronenlinsengitter von Punkt zu Punkt auf die drei senkrechten Farbleuchtstoffe umgeschaltet. Obwohl diese Röhre heute keine Chance mehr hat, aber - wie erwähnt - bei Sony immerhin in etwa 30.000 Exemplaren gebaut wurde, soll sie doch als interessante Erfindung kurz beschrieben werden:
Das Gitter wird so ausgebildet, daß die Drähte abwechselnd an zwei Sammelanschlüssen liegen. Dann kann, zusätzlich zu der bei der vorigen Röhre benutzten Beschleunigungs- und Nachbeschleunigungsspannung, zwischen diesen beiden isoliert ineinander greifenden „Kämmen" noch eine Spannung angelegt werden. Von je zwei Drähten wird dann eine Art „Ablenkplattenpaar" gebildet. Die durchfallenden Strahlen werden zusätzlich zur Seite gelenkt, oder - mit anderen Worten - die Schatten hinter den Drähten verschieben sich parallel zum Gitter: bei der einen Polarität der angelegten Spannung nach oben, bei der umgekehrten nach unten. Ein einziger Elektronenstrahl kann so abwechselnd auf rote, grüne und blaue Streifen gelenkt werden. Wird eine geeignete Sinusspannung zwischen die Drahtkämme gelegt, so wird in jeder Periode z.B. von Blau auf Rot, von Rot wieder auf Blau und von da nach Grün geschaltet. Eine Farbe entsprechend dem Nulldurchgang kommt also zweimal in einem Zyklus vor.

 

b51.78.png

Schaltgitterröhre, auch Einstrahl-Chromatron genannt

 

Die „Black-Matrix" und die neue „Maximal-Flach"- oder „Flat-Square"-Röhre. Hunderte von Physikern, Ingenieuren, Glastechnikern und Chemikern haben unermüdlich an der Verbesserung der Farbbildröhre gearbeitet, bis sie zu dem technischen Wunder geworden ist. Hier nur zwei Hinweise auf Vervollkommnungen, die auch dem Endverbraucher ins Auge fiel. Um die Treffsicherheit der Elektronenstrahlen zu sichern, mußte man zwischen den Leuchtelementen etwas Platz lassen. Durch Aufhellungen gab das dem Bildschirm einen hellen Hintergrund, der Bildkontrast war herabgesetzt. Bei den neuesten Farbröhren - und das gilt für die Schlitzmaskenröhren wie auch für das Trinitron - werden die Zwischenräume schwarz ausgefüllt. „Black-Matrix": Ein neues Dreifachelektronensystem hat die drei alten Einzelsysteme abgelöst.

 

b51.79.png

Black-Matrix-System der neuen Rechteckröhre im Vergleich zum klassischen Schlitzmaskensystem ohne Schwarzumrandung der Leuchtelemente

 

Der Bildschirm näherte sich dem totalen Rechteck und der mehr und mehr flachen Front der Bildröhre. Den wirklichen flachen Bildschirm ohne Tiefe, den man an die Wand hängen kann, dieser flache Bildschirm ist noch nicht für das Heim erfunden. Wer ihn heute schon haben will, der muß es machen wie ein Kollege in den USA in seinem Holzhaus: Ein passendes Loch in die Wand sägen und die Kiste in den Nebenraum - in diesem Fall in einen Schrank - ragen lassen. Bei aller Vollkommenheit der farbigen Bildwiedergabe, den Ingenieuren bleiben noch viele Jahre interessanter Arbeit! Zum Abschluß dieser Anmerkungen über Farbbildröhren sei noch einmal betont: Alle vier Rasterverfahren der Farbfotographie sind in Farbbildröhren umgesetzt worden.

 

 b51.80.png

Die neue „Flat-Square"- Vollrechteckröhre hat im Vergleich zum klassischen System der Deltaröhre mit drei einzelnen Elektronenkanonen ein kompaktes Inline-System.

 

Das Auge als Vorbild für die neuesten Bildaufnehmer

Als 1969 das Buch „Die Fernsehstory" veröffentlicht wurde, habe ich die Fernsehbildaufnahme-Röhren in ihrer historischen Entwicklung in einem Bild zusammengestellt. Die Bilderreihe endet mit dem Vidikon. Der Höhepunkt der technologischen Entwicklung war aber das Bildwandler-Orthikon, das Super-Orthikon. Eine komplizierte, ungeheuer empfindliche Aufnahmeröhre. Man glaubte in den 50er Jahren, nur mit dieser Röhre Farbfernseh-Kameras bauen zu können. Es entstanden Farbkameras mit beachtlichen Ausmaßen.
Als man 1953 in Amerika das Farbfernsehstudio der RCA besichtigen wollte und dazu eine gute Stunde vor Beginn der „Live'-Sendung sich dort meldete, um eingehend die technischen Vorbereitungen zu studieren, fand er das ganze technische Personal vor den Fernsehempfängern (Schwarz-Weiß) bei einem Baseballspiel. Es wurde ihm gesagt: „Unsere Orthikonkameras brauchen mehr als eine Stunde Aufwärmzeit, ehe wir die Farbdeckung einigermaßen stabil bleibend einstellen können." Das in den Abmessungen viel kleiner ausfallende Vidicon war für eine Farbfernsehanwendung nicht geeignet, es war damals eigentlich nur für Überwachungskameras ausreichend. Doch auf dem Fernsehsymposium 1957 in Paris präsentierte die Firma Philips ein Vidicon mit einer neuartigen Schicht aus Blei-Oxyd.
Damit hatte die Forschung von Philips eine Entwicklung eingeleitet, die die ganze Farbfernsehaufnahmetechnik revolutionierte. Das Blei-Oxyd als amorphes Halbleitermaterial gab der Röhre den von Blei- „Plumbum" - abgeleiteten Namen „Plumbicon". Alle 1967 bei der Eröffnung des Deutschen Farbfernsehens in der Bundesrepublik im Betrieb eingesetzten Kameras hatten diese Plumbicon-Röhren. In der ganzen Welt versuchte man mit anderen Materialien, für anders optimierte Eigenschaften, diesen „Vidicontyp" nachzubauen. Chalnicon, Ledicon, Saticon und Newikon sind einige dieser hervorragenden Aufnahmeröhren für Farbfernsehkameras.

 

b51.81.png

 

NTSC - das kompatible Farbfernsehsystem der USA

Der Mißerfolg des CBS-Farbfernsehens war unter anderem darauf zurückzuführen, daß die in den USA schon betriebenen Millionen von Schwarz-Weiß-Fernsehempfänger diese Farbsendungen nicht sehen konnten, auch nicht in Schwarz-Weiß. So hätten über Werbung finanzierte Sendungen ihr Publikum nicht erreichen können. Die Werbegesellschaften bestanden eisern darauf, daß die im Farbempfänger bunte Bilder hervorrufenden Sendungen so ausgelegt werden sollten, daß sie ohne Schärfeverlust in den Schwarz-Weiß-Empfängern gesehen wurden. Darüber hinaus sollten die Schwarz-Weiß-Sendungen in den Farbempfängern so gesehen werden, als wären diese nur für Schwarz-Weiß gebaut worden. Der ersten Bedingung gab man die Bezeichnung „Kompatibilität", die zweite wurde „Rekompatibilität" genannt.
Erkenntnisse, gewonnen beim Studium des menschlichen Seh-Wahrnehmungsvorganges, wurden zur Grundlage der Erforschung des Farbfernsehsystems, das im „National Television System Committee" (NTSC) entwickelt wurde. Hier hatten sich die Wissenschaftler aller namhaften Electronic-Firmen der USA nach dem Desaster mit dem CBS-System zusammengefunden.

 

 

b51.82.png

Superorthikon, Aufnahmeröhre der ersten Farbkameras

 

Zum Sehen geboren, zum Schauen bestellt

All das, was der Mensch bunt empfindet, hat Zum Sehen geboren, er als Farbe zu deuten gelernt. Zwar ist ihm zum Schauen bestellt! von Kind an die Fähigkeit des farbigen Sehens angeboren, doch nur erlebend kann erlernt werden, was mit Hilfe des menschlichen Geistes erst zu dem führt, was Goethe mit Schauen bezeichnet. „Zum Sehen geboren, zum Schauen bestellt", heißt es im Faust. Zwei Sehweisen, einmal Sehen als das naive, zweckgebundene Kennenlernen der Umwelt zur Sicherung des Daseins, auch dem Tier gegeben, und dann Schauen - eine höhere Art von Sehen. Schauen, das denkende Umschauen und phantasievolle Vergleichen des Erfaßten mit Gewesenem.

„Erfahren, schauen, beobachten, betrachten, verknüpfen, entdecken, erfinden!" so zählt es uns Goethe auf. Goethe, der einen großen Teil seines Lebens mit dem Studium der Farb-Wahrnehmungen verbracht hat. Sehen ist uns angeboren; wie das Erfassen gelernt wird, sehen wir am Kind. Das Bild auf seiner Netzhaut ist nicht anders als das auf der Netzhaut eines Erwachsenen. Und doch will es den Mond greifen. Und solange es noch nicht gelernt hat, das zu zeichnen, was es sieht, bringt es meist mehr in seine Zeichnungen, als es sehen kann, nämlich alles, was es von dem Objekt der Darstellung weiß.

 

b51.83.png

Ein Kind malt nicht nur, was es sieht, sondern was es weiß

 

Ein anderes Beispiel bieten die sogenannten naiven Maler. Sie malen so, wie jeder Anfänger malt, der die Farben so weit überbetont, wie er sie in seinem Gedächtnis verstärkt als Erinnerung registriert hat. Aber auch in vielen Wohnungen kann man immer wieder feststellen, daß am Farbfernsehempfänger ein unnatürlich starker Farbkontrast, eine überbetonte Farbsättigung eingestellt ist. Amerikaner sind in dieser Beziehung fast irreparabel verdorben.

 

 

b51.84.png

Der menschliche Seh- und Wahrnehmungsapparat 

 

Das Schema des menschlichen Auges soll uns klar machen, wie der Sehprozeß abläuft. Am Eingang befindet sich die Augenoptik, mit der die wahrzuneh mende Szene als Lichtbild auf einer lichtempfindlichen Schicht, der Netzhaut, abgebildet wird. Innerhalb dieser, der Retina, erfolgt die Wandlung des Lichtbildes in Reize und darüber hinaus noch eine Umwandlung dieser Reize in Signale, die über Nerven zum Gehirn geleitet werden. Diesen Teil des Sehvorganges könnte man physikalisch nachbilden - unsere Fernsehaufnahme-Kamera ist eine solche Art von Nachbildung. Im Gehirn, in dem die Signale gewertet werden, geht der eigentliche Wahrnehmungsprozeß vor sich. Dort werden sozusagen - mit Goethe gesprochen - „die sinnlich-sittlichen Wertungen" vorgenommen. Für diese Wertungen ist ein Lernvorgang notwendig, der nach und nach Erfahrungen im Gehirn speichert. Es wirkt zum Teil alseine Artvon Computer, der sich beim Lernvorgang selbsttätig programmiert. Augenblicklich eingehende Informationen vergleicht es mit gespeicherten und bildet daraus ein Urteil, eben die Wahrnehmung.

Dieser Glaube, daß richtige Wahrnehmung von Bildern - vor allem von perspektivischen Bildern, zu denen ja auch die meisten Fotographien gehören - zu den grundlegenden Fähigkeiten des Menschen zählt, wird durch kulturvergleichende Studien an Primitiven erschüttert. Sie legen nahe, daß auch die korrekte Aufnahme dieser visuellen Information gelernt werden muß und keineswegs jedem Menschen in die Wiege mitgegeben wird. Offensichtlich muß der Mensch ebenso lernen, Bilder richtig zu interpretieren, wie er auf der anderen Seite lernen muß, seine Umwelt zu sehen. Beide Prozesse laufen normalerweise unbemerkt ab. Beobachtungen an operierten Blindgeborenen zeigen jedoch, daß die Wahrnehmungseindrücke zunächst eher geeignet sind, ein in diesem Punkt ungeschultes Zentralnervensystem zu überfordern.
Blinde, die ihre Sehkraft zurückgewonnen haben, beweisen diese Speicherung. Sie berichten über eine Fülle verwirrender, betäubender Färb- und Lichtreize, die sie zunächst kaum ordnen und mit ihrem noch auf den Tastsinn durch die im Gehirn gespeicherten Vergleichsinformationen abgestellten Weltbild in Übereinstimmung bringen konnten.
Ein Beispiel für diese teilweise „Reproduktionsblindheit", solange noch nicht Vergleichserfahrungen gespeichert sind, findet sich in einem Testbild aus der Zeitschrift „New Scientist". Damit untersuchte ein Psychologe Wilde, die nie vorher eine Abbildung gesehen hatten. Diese vermochten, wenn man ihnen erstmalig das folgende Bild zeigte, nur die linke, flächig ausgebreitete Zeichnung als Abbild eines Elefanten zu deuten, genau wie unsere Kleinstkinder. 

 

b51.85.png

 

Fehler im optischen Apparat unseres Auges werden, wenn sie über längere Zeit konstant vorhanden sind, nicht wahrgenommen. Das beweisen zwei ziemlich radikale Experimente. Die erste Art von Experimenten wurde von amerikanischen Wissenschaftlern durchgeführt. Für längere Zeit ohne Unterbrechung bekamen Versuchspersonen eine Spiegeleinrichtung vor die Augen gesetzt, die ihnen die Sehwelt auf den Kopf stellte. Nach Tagen der Anpassung an diese geänderte Sehwelt stellte sich der Wahrnehmungsapparat im Gehirn der Testpersonen auf die neue Situation um. über ihren inzwischen umprogrammierten Computer empfanden sie das wahrgenommene Bild als aufrecht stehend. Wurde die Spiegeleinrichtung dann wieder entfernt, so sahen sie, obwohl dem Auge wieder das normale Bild angeboten wurde, noch langedie Umweltauf den Kopf gestellt. Wieder mußte sich der Computer im Gehirn umprogrammieren.

Mit anderen Versuchen, die Wissenschaftler der Universität Innsbruck durchführten, konnte gezeigt werden, daß ein solcher Lernvorgang auch der Farbwahrnehmung zugrunde liegt. Aber auch viele ständig vorhandene Fehler unseres Sehapparates fallen beim erlernten Wahrnehmungsprozeß heraus. Die an den Augen montierten Prismensysteme, mit denen man bei Versuchspersonen senkrechte Kanten mit farbigen Säumen versah, sind ein Beispiel dafür, denn nach wochenlanger ununterbrochener Beobachtung der veränderten Sehwelt fand eine Umprogrammierung des Wahrnehmungsprozesses statt: Die Säume verschwanden, diese Welt wurde als die richtige ohne farbige Konturen empfunden. Die Entfernung der Prismen brachte dann diese neue Sehwelt in Unordnung, es wurden nicht vorhandene farbige Säume gesehen, bis wieder nach einiger Zeit der Umprogrammierung normal registriert wurde. Lernvorgänge spielen also bei der Bildwahrnehmung eine Rolle. Später werden wir sehen, wie gewisse Mängel des Sehprozesses für die Signalkodierung beim Farbfernsehen genutzt werden können.

Die Einkanal-Farbfernsehübertragung

Für das unbunte Bild war nur die Graureihe mit dem Maximalwert Weiß und Pfeil und dem Minimalwert Schwarz und Dunkel zu übertragen. Von der Welt derunbunten Zeichnungen hat Max Liebermann einmal gesagt: „Zeichnen ist Weglassen'' und Alfred Kerr bemerkte dazu: „ ... aber gerade das, was noch dazukommt, das macht die Seele des Bildes aus." Aber wie sollte man das alles, was im Signal für das unbunte Bild weggelassen wurde, noch hinzufügen in den Kanal, der ursprünglich optimal für das, was wir einmal Zeichnen nennen wollen, dimensioniert war? Drei gleichwertige Informationen für Rot, Grün und Blau, wie man sie für ein Farbbild brauchte, waren in dem Kanal nicht mehr unterzubringen.

Man führe sich vor Augen, wie Kinder kolorieren. Mit Buntstiften, nicht einmal angespitzt, machen sie Schwarz-Weiß-Zeichnungen sehr naturgetreu bunt, ohne daß von der Schärfe des Bildes allzuviel verlorengeht. Diese Schärfe wird im wesentlichen von der Schwarz-Weiß-Zeichnung bestimmt. So haben schon unsere Vorfahren in der Steinzeit angefangen, bunte Bilder zu malen. In den Steinzeithöhlen finden wir ihre Bilder. Mit scharfem Kohlestrich wurde ein Tier gezeichnet und dann grob die Farbe darüber gewischt. Eine Nachbildung eines solchen Bildes aus der Höhle von Altamira in Spanien befindet sich im Niedersächsischen Landesmuseum in Hannover. An diesem Bild kann man die Methode der steinzeitlichen Kolorierung gut studieren.

 

b51.86.png

Steinzeitbild aus der Höhle von Altamira: eine scharf gezogene Umrandung und flächig darüber gewischte Farbe

 

So grob soll unser Farbfernsehbild natürlich nicht koloriert werden. Wissenschaftliche Experimente klärten die Frage, wie weit man mit der Frequenzbandbreite eines kolorieren den Signales heruntergehen kann, d.h., wieviel man es unscharfer machen darf als das breitbandige, scharf zeichnende Schwarz-Weiß-Signal. Bei einer Herabsetzung der Frequenzbandbreite des kolorierenden Signals auf etwa ein Fünftel des scharf zeichnenden Helligkeitssignals konnten die meisten Testpersonen noch keinen Unterschied feststellen gegenüber einem kolorierenden Signal von voller Frequenzbandbreite. Das heißt aber: Wird - wie in der Gerbernorm üblich - das Schwarz-Weiß-Videosignal mit 5 MHz Bandbreite übertragen, genügt für die Übertragung der kolorierenden Farbart eine Bandbreite von nur 1 MHz, man kann sogar bei nicht allzugroßen Ansprüchen auf die Hälfte herab gehen. Eine farbmetrische Darstellung der Farbvalenz kann durch einen Farbzylinder erfolgen. Die Farbart, gezeichnet als Kreisfläche, sitzt auf der Helligkeit (Leuchtdichte) und wird je nach deren Intensität auf und ab geschoben. Alle Farben eines bestimmten Farbtons, dessen Sättigung durch die Zeigerlänge be- stimmtwird, liegen dann in Abhängigkeit von der Helligkeit auf der schraffiert gezeichneten Schnittfläche: Die Farbart „reitet" sozusagen auf der Helligkeit.

 

 

b51.87.png

Ein Farbzylinder symbolisiert die Farbartuhr, die auf der Leuchtdichte Y „reitet".

 

Dieses Ersatzbild gibt eine Anregung, wie ein schmalbandiges Farbartsignal auf dem Helligkeitssignal reitend übertragen werden kann. Dazu wird eine Wechselspannung, der Farbträger so mit dem Farbartzeiger F moduliert, daß der Winkel seine Phasenlage und seine Länge die Größe dieser Wechselspannung bestimmt. Ein Ersatzbild für das Grundprinzip von NTSC - und für alle kompatiblen Farbfernseh-Übertragungssysteme, wie auch PAL und SECAM - zeigt das folgende Schema. Aus den breitbandigen R-, G- und B-Signalen wird in einem Coder das breitbandige 5-MHz-Leuchtdichtesignal Y gemacht und darauf überlagert das schmalbandige Farbartsignal (Bandbreite ca. 1 MHz). Am Empfangsort werden daraus in einem Decoder wieder die drei breitbandigen R-, G-, B- Signale für die Bildröhre „ermischt", in denen die kolorierenden Informationen so „grob" enthalten sind, wie es die Dame mit Hut zeigt.

 

b51.88.png

Die Einkanal-Farbfernsehübertragung im Ersatzbild

 

Für das Studium der Übertragungsfehler bei NTSC genügt es, den Übertragungsvorgang mit Farbtonkreisen zu verfolgen. Denn nur die Verfälschungen der Farbtöne sind störend sichtbar, und um sie zu veranschaulichen, genügt es, wenn man sich auf einen Farbtonkreis für voll gesättigte Farben beschränkt und auf die Variation derFarbzeigerlängefür unterschiedliche Farbsättigung verzichtet. Das symbolisch als Analogie für den wirklichen elektronischen Übertragungsprozeß gewählte „Zifferblatt" einer „Farbuhr" soll, dem Vorgang der Decodierung nachgeahmt, durch ein Kennsignal am Anfang jeder Zeile so genau wie möglich auf „normal" eingestellt sein. Dieses Kennsignal ist ein kurzer unmodulierter Farbträgerstoß, amerikanisch mit „Burst" bezeichnet. Wird er fehlerhaft übertragen, muß durch einen Farbtonregelknopf am Empfänger die Wunschfarbe eingestellt werden. Da am Empfangsort der Beobachter nicht weiß, wie die gesendete Farbe wirklich aussehen soll, muß er oftmals probieren, bis er die richtige Einstellung findet - wenn überhaupt! Oftmals ist sogar während einer Sendung eine Nachstellung notwendig.
Trotz dieser ersten Erfahrungen wurde, weil man nichts besseres erarbeitet hatte, dieses NTSC offiziell am 17. Dezember 1953 als einziges Verfahren für die USA zugelassen. Japan und Kanada folgten, zu früh, um die Verbesserungen durch PAL oder SECAM noch berücksichtigen zu können.

 

b51.89.png

 

Diese Bildserie zeigt vergrößerte Ausschnitte aus einem 625-Zeilen-Farbfernsehbild und illustriert die Unterschiede in der Zeichnungsschärfe der beiden Signalarten für die Leuchtdichte und die Farbart im kompatiblen Übertragungsverfahren. Links ist das mit der vollen Frequenzbandbreite übertragene scharfgezeichnete Bild zu sehen aus den Leuchtdichtesignalen. In der Mitte die Farbart allein, die mit kleinerer Frequenzbandbreite übertragen wird und damit unscharfere Zeichnung aufweist. Rechts ist das farbige Bild gezeigt, wie es auf dem Schirm der Farbbildröhre im Empfänger erscheint.

 

 

b51.90.png

Das Fernsehsignal als Farbbalken über eine Zeile geschrieben. Daraus ist auch der Burst zu ersehen.

 

Diese Verbesserungen, denen ein besonderer Teil dieser Dokumentation gewidmet sein wird, sollten dann, als man sich in Europa für ein europäisches Farbfernsehsystem entscheiden mußte, einen Farbfernsehkrieg auslösen, ähnlich dem, der in den USA durch das Ringen um CBS und NTSC vorausgegangen war. Blieb er dort auf lokale Verhältnisse beschränkt, erweiterten sich die europäischen Konflikte zur weltweiten Auseinandersetzung. 

 

Die Farbfotographie lernt von der Farbfernsehelektronik

Bei der Eröffnungsansprache der Deutschen Funkausstellung 1970, „Ein Blick ins nächste Jahrtausend" mit „Prognosen für die audiovisuelle Zukunft" wurde folgende Sätze gebraucht: „Der Filmamateur wird zum Fernsehamateur, der seine Aufnahmen mit einer winzigen Fernsehkamera mit eingebautem Speicher macht... Es wird der Speicher vielleicht das Ausmaß eines Fünfmark stücks haben, das wie eine Münze in den audiovisuellen Abspielautomaten einzuwerfen ist."  Die erste Voraussage, damals noch Utopie, ist eingetroffen, die elektronische Fernsehkamera ist dabei, die Filmkamera restlos abzulösen. Als Speicher geht man derzeit bis auf eine kleine Kassette mit einem 8-mm-Magnetband herab.

 

b51.91.png

 Magnetscheibe; Speicher einer elektronischen Standbildkamera, Originalgröße

 

Auch der Speicher, symbolisch in der Größe eines Fünfmarkstücks vorausgesagt, ist zur Realität geworden, im Durchmesser zwar etwas größer, dafür aber viel dünner. Wenn er auch heute noch keine bewegten Bilder speichern kann, hat er immerhin eine Kapazität von 50 elektronisch aufgenommenen Standbildern. Die Frage der Aufzeichnung von bewegten Bildern, aufgenommen von der elektronischen Kamera, war in soweit einfach zu lösen, als ein Fernsehsignal aufgezeichnet und als solches für die Wiedergabe auf einem Farbempfänger für die Abspielung geliefert werden mußte. Die Aufgabe einer elektronischen Standbildkamera ist es, Papierbilder in Farbe zu liefern. Der Gedanke, zuerst von „Texas Instruments" 1972 ausgesprochen, wurde 1982 von der Firma Sony zu einer sensationellen Lösung geführt. In der MAVIGRAPH genannten Kamera konnten vollelektronisch bis zu 50 Standbilder - wie in einer normalen Filmfotokamera - auf einer dünnen, mit magnetischem Material beschichteten Scheibe, analog zu meinem „Fünfmarkstück", gespeichert und bei Bedarf zunächst als Fernsehsignal wieder abgenommen werden. Die Magnetscheiben waren in einer schnell auswechselbaren flachen Kassette mit den Maßen 60 x 54 x 3 mm enthalten. Sony gelang es, 20 Weltfirmen dazu zu bringen, sich für ihre Eigenentwicklungen zu einer einheitlichen Norm zu verpflichten, so daß die neu herausgekommenen Kameras von Canon und Olympus - wie seit Jahrzehnten der Kleinbildfilm - mit austauschbaren Kassetten arbeiten.

 

b51.92.png

Die Mavigraph-Kassette mit der Magnetscheibe, Originalgröße

 

Diese Kameras sind auf dem Weg zu Preisvorstellungen, die sich bald nicht mehr von denen der klassischen Fotokameras bei gleichen optischen Eigenschaften unterscheiden werden. Ganz anders sieht es jedoch mit den dazugehörigen Papierbilddruckern aus.

Sicher: Man kann seine Bilder in einem Fachgeschäft kopieren lassen, doch das Ziel wird das Sofortbild im Heim sein. Für den Farbdruck muß zuerst das Signal von R, G, B in Gelb, Magenta und Cyan gewandelt werden, denn beim Dreifarbendruck arbeitet man mit dem subtraktiven Dreifarbenverfahren, mit dem auch unser heutiger Farbfilm arbeitet. Das sei kurz erläutert: Die Bezeichnung „subtraktives Verfahren" leitet sich davon ab, daß das Licht in hintereinanderliegenden Filtern (Farbstoffschichten) gefiltert wird, wobei die letzte Schicht nur von dem Lichtanteil erreicht wird, den die vorhergehenden nicht absorbiert, also nicht abgezogen haben.

 

b51.93.png

 

Die Standbildkamera der zweiten Generation: CANON RC-701. Der hochauflösende CCD-Bild-träger mit RGB-Streifenfilter hat 780 horizontale „Pixels" und somit schon beachtliche Auflösung. Die Kassette entspricht der von Sony eingeführten Weltnorm.

 

Die Bezeichnung „subtraktives Verfahren" leitet sich davon ab, daß das Licht in hintereinanderliegenden Filtern (Farbstoffschichten) gefiltert wird, wobei die letzte Schicht nur von dem Lichtanteil erreicht wird, den die vorhergehenden nicht absorbiert, also nicht abgezogen haben. Von dem Grad der Absorption der einzelnen drei Filter werden die Farben Rot, Grün und Blau für das Bild geregelt.

Beim Dreifarbendruck werden drei Farbauszüge übereinander gedruckt, das Farbbild entsteht durch Mischung der drei Farben Gelb, Purpur (Magenta) und Blaugrün (Cyanblau). Es ist ein vielverbreiteter Irrtum, wonach hier nicht auch die Primärfarben Rot, Grün und Blau für das Auge dargestellt werden. Für den farbigen Druck unserer in R, G und B aufgenommenen Fernsehbilder müssen sie in die Druckfarben Ge, Mg und Cy umgewandelt werden, d.h. sie werden in diesem subtraktiv genannten Prozeß „eingeregelt". Der subtraktive Prozeß: Nach ihm, drei Farbschichten hintereinander geschaltet, das heißt als Emulsionen übereinander gegossen, arbeiten all unsere heutigen Farbfilme. Dazu etwas Geschichte: Zwar war es wieder einmal Ducos du Hauron, der das Verfahren zuerst vorgeschlagen hatte (1897). Aber die erste Verwirklichung zum Dreischichtenfarbfilm stammt von zwei „Bastlern". Ich möchte diese deshalb heraussteilen, weil nämlich der eine, Leopold Godovsky, mit mir zusammen den Kulturpreis 1973 der Deutschen Gesellschaft für Fotographie erhalten hatte, ein Anlaß für mich, in einem Festvortrag die hier dargestellte Entwicklung der Farbfernseh-Displays aus den für die Farbfotographie gemachten Erfindungen heraus erstmalig darzustellen.

Godovsky und sein Freund Leopold Mannes hatten erkannt, daß man Filme nicht nach einem sogenannten „Mehrfachlinsensystem" in Parallelaufzeichnungstechnik hersteilen sollte, sondern in einem Mehrschichtenfilm, sozusagen in einer chemischen Variante lösen müsse. 1935 kam der subtraktive Film auf den Markt und beherrscht ihn heute noch.

 

b51.94.png

Der Dreifarben-Wachsdrucker von Sony

 

Additiv wird jedoch unsere elektronische Magnetbildaufzeichnung bleiben, zum Druck wird man sie jedoch in die Subtraktionstechnik verwandeln. Der Dreifarben-Papierdruck: Dazu hatte Sony den MAVIGRAPH Printer entwickelt. In 5 Minuten wird über einen Heizprozeß ein Bild von einem NTSC- oder RGB-Signal in einer Größe von 120 x 160 mm mit 4 Punkten pro mm gedruckt. Von den Weiterentwicklungen sei noch ein Printer der Firma Hitachi genannt,der in einer Sonderausführung sogar ein HDTV, ein Hochzeilenfernsehbild, drucken kann. Dem farbigen Druck von Standbildern, einem laufenden Fernsehprogramm entnommen

 

b51.95.png

Ein Bild von der Kassette, mit dem Wachsdrucker von Sony gedruckt

 

b51.96.png

 

b51.97.png

 

b51.98.png

 

Das Farbdrucksystem Hitachi: Die Videosignale Rot, Grün und Blau aus einem Farbdecoder oder dem R, G, B- Ausgang eines Farbempfängers werden in ihre Komplementärsignale Cyan, Magenta und Gelb gewandelt. Das Farbpapier ist in drei Teile geteilt, zu denen je eine Tinte in den genannten Farben gehört, und es wird in Bildsequenz bedruckt. Das elektrische Signal heizt jeweils proportional seiner Größe den Aufzeichnungskopf, so daß ein äquivalenter Farbanteil auf dem Papier deponiert wird. In der Folge Gelb, Magenta und Cyan werden vom Speicher gesteuert die Farben übereinander gelagert. Das geschieht so exakt, daß man Hochzeilenbilder drucken kann.

 

PAL, MAC und HDTV

Überspringen wir erst einmal PAL. Seine Erfindung und weltweite Durchsetzung war zu einem so beherrschenden Lebensabschnitt geworden. Dann fragen wir: Wird das angekündigte neue Farbfernsehsystem MAC dieses erfolgreich eingeführte PAL-System in absehbarer Zeit ablösen? Und die vorweg gegebene Antwort des Erfinders beider Systeme heißt „NEIN". 
Ob sich die ungeheueren Mittel, die das Bundesforschungsministerium in die Entwicklung eines europäischen Hochzeilenfernsehens investiert, je amortisieren, ist fraglich, denn in Japan ist es realisiert, und der Zug zum weltweiten europäisch inspirierten Fernsehen ist abgefahren. PAL wird für die terrestrischen Verbindungen, drahtlos und über Kabel die nächsten 10 Jahre wegen seiner Kompatibilität bestehen bleiben. Kompatible Verbesserungen - in Grenzen - sind möglich. Diskutierfähige Ansätze sind vorhanden. Als der „Schuldige" an PAL möchten wir unsere Meinung hier zurückhalten und einen Kollegen zitieren - Norbert Mayer, der eigene deutsche Farbfernsehsysteme vorgeschlagen hat und somit als kompetent bezeichnet werden darf: „Man kommt bei diesen Betrachtungen nicht an dem Gedanken vorbei, daß hier die Bundesrepublik Deutschland möglicherweise einen beachtlichen Vermögenswert im Interesse eines europäischen Standards geopfert hat. Vor der Einführung des PAL-Verfahrens und auch noch heute konnte und kann man über die Bewertung der Eigenschaften des PAL-Verfahrens durchaus unterschiedlicher Meinung sein. Keinen Meinungsunterschied gibt es jedoch darüber, daß das PAL-Verfahren im Vergleich mit NTSC und SECAM das stabilste Verfahren ist. Wer die vorliegende Arbeit, mit zahlreichen Direktoren aus Südamerika, Afrika und Asien über das PAL-Verfahren diskutiert und die Herren beraten durfte, konnte ganz unmittelbar erleben, daß das PAL-Verfahren der ganzen Welt in einer großen Breite als ein sehr solides Stück ,Made in Germany' zum Bewußtsein kam. Dieses Bewußtsein stellt einen ganz wesentlichen deutschen ,Vermögenswert' dar, der mit Sicherheit seine Zinsen einbringt, wenn mit anderen Ländern vielfältige Handelsgeschäfte abgewickelt werden. Darin liegt der ganz große Wert von PAL und rechtfertigt all die Auszeichnungen, die sein Entwickler und Kämpfer Prof. Walter Bruch erhalten hat. Während man im ,Vereinigten Königreich' mit Sicherheit MAC unter den oben angeführten Aspekten in so ungewöhnlicher Weise in den Vordergrund brachte, scheint man in der BRD zu opferwillig zu sein. Während des ,MAC-Kongresses' Januar 1983 war in Diskussion und schriftlich zum Ausdruck gebracht worden, 

- daß in der Bundesrepublik Deutschland und auch in anderen Ländern die vorhandenen Studios aus Kostengründen für lange Jahre nicht auf MAC umgestellt werden können,
- daß in vielen Ländern die Kabelverbindungen für C-MAC, das eine größere Bandbreite verlangt als PAL, zu schmalbandig sind,
- und daß die Industrie nur einen niedrigen Kenntnisstand hat und vielerlei Bedenken anmeldet." 

 

b51.99.png

Ein HDTV-Bild vom Farbdrucksystem Hitachi

 

b52.00.png

Walter Bruch bei der Eröffnungsveranstaltung zur Einführung des Farbfernsehens in der Bundesrepublik am 25.8.1967

 

Prof. Dr. Walter Bruch: Der Erfinder der PAL Farbfernsehtechnik

Die Welt wird von der Technik in Atem gehalten. Mittler dazu ist das Fernsehen. Die Landung auf dem Mond, faszinierendes Wunder der Technik, über das Fernsehen von 600 Millionen Menschen miterlebt, wurde auch zu einem Höhepunkt in der Entwicklungsgeschichte des Fernsehens. Deutlich zeigte sich, daß das Fernsehen, das uns Techniker gebracht haben, als besonders markante Ausdrucksform unserer Zeit heute eine Bedeutung hat, die weit über den Bereich der Technik hinausgeht.

 

fernseher drwalterbruch

Autogramm von Prof. Dr. Walter Bruch mit Original Unterschrift

 

Vor allem innerhalb der letzten zwei Jahrzehnte hat das Fernsehen einen immer größeren Einfluß auf unser geistiges, politisches und soziales Leben gewonnen. In diesem Sinne ist diese Dokumentation auch nicht in erster Linie ein technisches Buch. Vielmehr ging es mir um eine umfassende Darstellung des Hintergrundes, vor dem das Phänomen »Fernsehen« erst verständlich werden kann: Von den ersten Höhlenzeichnungen über die verschiedensten Ausdrucksformen der bildenden Kunst, die Fotografie und schließlich das bewegte Filmbild führte ein Weg, der - stets von technischen Überlegungen und Entwicklungen vorgezeichnet - gleichsam zwangsläufig zum Fernsehen führte. Dieser im ersten Moment vielleicht überraschend anmutende historische Zusammenhang wird in diesem Buch gezeigt werden. Damit ist ein weiter Bogen gespannt. Abenteuerlich, wie ein Roman, bot sich mir bei der Niederschrift die Geschichte des Fernsehens dar. Nicht alle Figuren dieses Romans, nicht alle Pioniere, denen das Fernsehen sein Werden verdankt, konnten in diesem Buch erwähnt werden. So bunt und so vielseitig präsentiert sich die Geschichte des Fernsehens, daß sich die Zahl ihrer Akteure kaum überschauen läßt. Wie auf vielen Gebieten der Technik, sind auch beim Fernsehen oft gleiche Ideen an mehreren Stellen geboren worden. Manchmal war ein Gedanke - auf Papier niedergelegt und zunächst nicht mehr weiter verfolgt - erst Jahre später ungeheuer fruchtbar. Andere Forscher widmeten einen ganzen Lebensabschnitt der Erforschung eines Prinzips, ohne daß sie einen praktischen Erfolg erzielen konnten, weil die Zeit dafür noch nicht reif war. So ergibt es sich, daß hier nur alle die Persönlichkeiten herausgestellt werden konnten, durch deren Forschungsarbeiten typische Entwicklungsstufen des Fernsehens markiert sind.

 

Telefunken 708T 900

Weitere Infos zu Telefunken finden Sie auch auf www.radiotechnik.de

 

Dennoch kann ich jedem Leser versprechen, daß er in diesem Buch eine ungewöhnlich große Zahl von ebenso verschiedenartigen wie interessanten historischen Persönlichkeiten kennenlernen wird. Denn anders als heute, wo entscheidende technische Neuentwicklungen meistens nur noch in gemeinsamer Teamarbeit verwirklicht werden, haben früher einzelne, oft von ihren Ideen geradezu besessene Forscher und Erfinder die Technik vorangebracht.

In Europa hat die eigentliche Fernsehtechnik ihren Anfang genommen, von Pionieren in der ganzen Welt ist sie befruchtet worden. Damit ist die Geschichte des Fernsehens so international und weltweit, wie sich das Fernsehen heute auf Millionen von Bildschirmen durch seine Programme darstellt.

Werner von Siemens schrieb zur »elektrischen Technik«: »Ein glückliches Zusammentreffen war es, daß mein Leben gerade in die Zeit der schnellen Entwicklung der Naturwissenschaften fiel, und daß ich mich besonders der »elektrischen Technik» schon zuwandte, als sie noch ganz unentwickelt war und daher einen fruchtbaren Boden für Erfindungen und Verbesserungen bildete. «Ersetzt man die »elektrische Technik« durch die »Fernsehtechnik«, so kann ich die glückliche Fügung, die mich mit dem Fernsehen groß werden ließ, nicht besser als mit diesen Worten ausdrücken. Denn im weiteren Sinne durfte ich seit nunmehr vierzig fahren, hauptberuflich jedenfalls seit 1933, meinen Teil zur Entwicklung des Fernsehens beitragen.

 

Walter Bruch

Dr. Walter Bruch in seinem Laboratorium in Hannover bei Telefunken

 

Auch wenn ich dadurch oft Augenzeuge war, hoffe ich, trotz der unvermeidlich subjektiven Eingliederung von eigenen Erlebnissen, ein genügend objektives Bild gezeichnet zu haben. In der Geschichte der Technik mit ihren rasanten Fortschritten genügen sicherlich oft schon einige Jahre, um den erforderlichen kritischen Abstand zu gewinnen. Bei den Vorgängen, die noch ablaufen, die - wie etwa das Farbfernsehen - noch mitten in der Entwicklung stehen, konnte ich darüberhinaus über unmittelbare aktuelle und persönliche Erlebnisse berichten. So entstand dieses Buch aus Dank dafür, daß ich ein Leben lang an der Verwirklichung eines der Wunder unserer Zeit mitarbeiten durfte.

Dank sagen möchte ich allen, die mir den Weg zum Fernsehen geebnet haben, vor allem meinem ehemaligen Chef, Professor Dr. Fritz Schröter.

von Professor Dr. Walter Bruch

 

Inhaltsverzeichnis dieser Dokumentation mit folgendem Flipbook

  • Mit den Bildserien der Moritatensänger fing es an
  • Utopisten träumen vom Fernsehen
  • Erste Bilder an der Wand
  • Und schon gibt es ein Programm
  • Das Standbild wird fixiert. Die Geschichte der Fotografie
  • Die Bilder lernen laufen
  • Ein Abbe drahtet Bilder von Lyon nach Paris
  • Licht beeinflußt den elektrischen Strom — Bell telefoniert mit Licht
  • Die erste Idee für ein Fernauge. De Paiva und Senlecq streiten sich um die Priorität
  • Wie Paul Nipkow den ersten deutschen Fernseher erfand
  • Später Ruhm
  • Fotografien werden über Draht in die Ferne geschickt
  • Zwar schreibt man über Fernsehen
  • Das Wissen vom Licht
  • Die Geburt der Elektronik
  • Die phantastische Geschichte des schottischen Fernseh-Erfinders John Logie Baird
  • Ein Forscher widmet sein Leben dem Fernsehen
  • In Berlin suggeriert ein Erfinder den »Volksfernseher«
  • Rückblende: Die Braunsche Röhre wird erfunden
  • Rußland meldet sich
  • Der Fernsehempfänger wird elektronisch
  • Das Berlin der dreißiger Jahre, eine Metropole des Fernsehens
  • In Deutschland wird Fernsehen politisch
  • Das Auge als Vorbild der Fernsehgeber
  • Zworykin erfindet das Elektronenauge
  • Die Kameras werden beweglich und gehen nach draußen
  • Deutschland zeigt Fernsehen in Paris
  • Das Fernsehen bekommt ein Programm
  • England startet mit dem ersten Fernsehprogramm hoher Definition
  • Was tat sich in Frankreich?
  • Und was geschah in Amerika?
  • Fernsehen im letzten Weltkrieg
  • Radaraugen durchdringen Nacht und Nebel
  • Renaissance des Fernsehens
  • Aus Funktürmen werden Fernsehtürme
  • Die Fernsehfinger aus Beton
  • Satelliten reichen die Bilder von einem Kontinent zum anderen
  • Die fernsten Bilder
  • Premiere: Fernsehen vom Mond
  • Programme werden aufgezeichnet
  • Sieh, während Du sprichst
  • Das Wunder der Farbe
  • Newton entdeckt die Natur der Farbe, Goethe streitet ab!
  • Young, Maxwell und Helmholtz definieren die Farbempfindungen
  • Farbfotografie und farbige Projektion als Vorläufer der Farbfernsehwiedergabe
  • Kleine Vorgeschichte der Farbfernsehtechnik
  • So schreibt man Farbbilder
  • Anfangs Mißerfolge in Amerika — Studien in Europa
  • Die Farbe wird verschlüsselt
  • Von NTSC zu PAL
  • Jetzt wird Farbfernsehen ein Politikum
  • Herzoperation farbig an der Wand
  • Weltfernsehen
  • Rückschau und Ausblick
  • Literatur
  • Register

Das Buch im PDF Format

 


Impressum     Sitemap     Home

Off Canvas Menü