Das menschliche Auge.
Bei der Vorbereitung zu meinem letzten Kurs „Besser fotografieren“ habe ich mich auch mit unserem Sehorgan, dem Auge ein wenig mehr beschäftigt und will deshalb hierzu einige Fakten nennen, die mir selbst bisher nicht bekannt waren und die mir aber dann doch ein bisschen mehr die Augen geöffnet haben.
Zäpfchen und Stäbchen.
Die Lichtimpulse werden in der Retina von Zäpfchen und Stäbchen eingefangen. Die Zapfen haben farbempfindliche Eiweißstoffe eingelagert und sorgen so dafür, dass wir Farben unterscheiden können. Stäbchen hingegen sind nur empfindlich auf Helligkeitswerte, aber mit einer extrem hohen Empfindlichkeit, die bei völliger Dunkelheit sogar einzelne Lichtquanten erfassen können.
Wissenschaftlich wird bei den Zäpfchen nicht von Farbempfindlichkeit gesprochen, sondern von der Empfindlichkeit für Wellenlängen. Primär haben wir drei Zapfentypen; das eine ist für rot empfindlich, das andere für grün und das dritte für blau. Rot ist langwellig und hat eine Absorption von 564 Nanometer, grün ist in der Mitte bei 530 Nanometer und blau sowie UV ist das kurzwellige Licht und das liegt bei 420 Nanometer. Auch die Verteilung der Zäpfchen ist unterschiedlich: 60 % sind für rot, 30 % sind für grün und 10 % sind für blau empfindlich.
- Die wissenschaftlichen Hintergründe kann man hier nachlesen (englisch): The Organization of the Retina and Visual System.
- Sehr gut schulisch aufbereitet ist das Thema auf dieser Webseite von Bayern 2 Radio: Die Welt in Color.
- Das Sendemanuskript gibt es hier zum download: Das Sendemanuskript.
Anzahl der Zäpfchen und Stäbchen.
Das menschliche Auge hat ca. 6 Millionen Zäpfchen, aber mehr als ca. 120 Millionen Stäbchen (Faktor 20). Das heißt, dass wir Menschen primär für die Unterscheidung von Helligkeitswerten optimiert sind. Und es ist ja in der Tat so, dass wir Nachts zwar keine Farben sehen können (weil das Licht fehlt, um Reflexionen zu erzeugen), aber wir uns trotzdem sehr gut anhand der Grauwerte in unserem Umfeld orientieren können.
Die Welt ist nicht bunt.
Es geht aber noch einen Schritt weiter mit dem Thema Farbe sehen. Was wir als Farbe wahrnehmen, gibt es physikalisch überhaupt nicht, sondern wird von unserem genialen Gehirn erzeugt; ein Mechanismus, der bis heute nicht vollständig verstanden ist. Eine physikalische Eigenschaft „rot“, „grün“ und „blau“ gibt es nicht. Farben zu unterscheiden hat unser Gehirn erst in Laufe der Evolution entwickelt. Das ist bei Mensch und Tier durchaus sehr unterschiedlich ausgeprägt, wie die medizinische Forschung inzwischen weiß. Dass rote (reife) Früchte eher genießbar sind haben Mensch und Affe im Laufe der Evolution gelernt. Diese (Farb-)Wellenlängen-Information wird über die Zäpfchen ans Gehirn geleitet und erst dort als Farbe dargestellt. In Wirklichkeit ist die Welt also völlig farblos. Es gibt nur unterschiedliche Helligkeiten. Man muss sich damit erst einmal gedanklich auseinandersetzen und sich eine Welt nur mit Grautönen unterschiedlicher Helligkeiten vorstellen. Schließlich ist unsere farbige Umwelt ja etwas, was wir von Kindesbeinen an gewohnt sind. Sozusagen eine Urerfahrung.
Auch unsere digitalen Sensoren können nur Helligkeiten unterscheiden. Erst durch die Überlagerung mit einem Color Filter Array (CFA) werden die Farbinformationen hinzugefügt. Wie in unserem Gehirn.
Bei der Leica Monochrome wird dieses CFA weggelassen und wir bekommen damit ein reales Abbild unserer Welt bestehend nur aus Helligkeiten. Das allein wäre für mich inzwischen ein Grund, mir diese Kamera zu kaufen, um unsere Welt so sehen zu können wie sie tatsächlich ist. Allerdings ist mir der Betrag zum Erwerb des Gerätes dann doch zu hoch, um hier spontan einen Kauf zu tätigen. Wie man aus einem digitalen Farbbild zu einer helligkeitsneutralen Umwandlung nach schwarzweiß kommt, habe ich in früheren Beiträgen schon beschrieben.
Das sollte uns bewusst sein, wenn wir das nächste Mal wieder ein farbiges Bild in schwarzweiß umwandeln und in Lightroom oder Photoshop bearbeiten. In Wirklichkeit stellen wir hier den Urzustand unserer Umwelt wieder her, der durch den digitalen Farbsensor künstlich erzeugt wurde. Vielleicht fällt es mit diesem Wissen dem Fotografen auch leichter, sich die Welt da draußen nun besser in schwarzweiß, oder genauer gesagt mit unterschiedlichen Helligkeiten vorzustellen, was ja eine wichtige Voraussetzung für gute schwarzweiß Fotos ist. Für mich zumindest trifft das zu.
Licht und Kontraste.
Kontraste sind für unsere Fähigkeit zu sehen und Dinge zu unterscheiden die wichtigste Voraussetzung.
Kehren wir gedanklich zurück in eine nächtliche Situation eines völlig abgedunkelten Zimmers. Öffnen wir die Augen, sehen wir zunächst überhaupt nichts. Aber wenn sich unsere Augen nach einiger Zeit an diese Dunkelheit gewöhnt haben und es aus dem Nachbarzimmer einen Hauch von Licht gibt, nehmen wir erste Formen oder Umrisse wahr. Das ist extrem niedriger Kontrast, aber wir können Umrisse differenzieren und uns orientieren.
Folgen wir der möglichen Lichtquelle, werden wir an dessen Ursprung den Lichtspalt mit hoher Helligkeit wahrnehmen, auch wenn das Zimmer damit immer noch dunkel bleibt. Allein an der Stelle des Spalts haben wir einen extrem hohen Kontrast, den unser Auge zu bewältigen hat. Der Lichtspalt und seine direkte Umgebung lassen hier vielleicht erste Details erkennen, während der Rest in Dunkelheit verharrt und nur geringe Umrisse wahrgenommen werden können. Farben werden wir in diesem Umfeld nicht wahrnehmen.
Anders ist dann die Situation am nächsten Morgen. Das Tageslicht kommt aus allen Fenstern und Türen herein und wir nehmen unsere Umwelt im normalen Kontrastumfang wahr und sind auch in der Lage Farbe zu sehen, weil das Licht Gegenstände anstrahlt und Farbe mit entsprechender Wellenlänge reflektiert wird.
Noch später im strahlenden Mittagslicht werden die Kontraste dann derart hoch, dass wir unsere Augen schützen müssen, um sie nicht zu schädigen. Alle Details lassen sich nun vollständig und klar differenzieren.