Wie ein Bildsensor funktioniert

Heute wird es mal wieder etwas technischer. Mit diesem Artikel möchte ich dir gerne die Funktionsweise eines Bildsensors näherbringen. Ziel ist es, dich nicht mit allzu vielen Begriffen zur Verwirrung zu bringen, sondern ein grobes Verständnis für deinen Bildsensor zu entwickeln. Mit diesem Hintergrundwissen machst du nicht per se bessere Bilder, aber es hilft dir, Zusammenhänge in der Kamera und in der Nachbearbeitung besser zu verstehen.

Der Sensor ist ein elementares Bauteil moderner Digitalkameras

Für welche Sensoren die Erklärungen gelten

Die Arbeitsweisen verschiedener Bildsensoren ist nahezu identisch. Ich könnte die einzelnen Bestandteile des Sensors sowie deren Funktion durchaus auf einer abstrakten Ebene erklären, doch ein konkretes Beispiel macht es uns einfacher.

Die meisten Kameras arbeiten mit einem APS CMOS Sensor in unterschiedlichen Größen. Die Bezeichnung der Sensortechnologie APS steht dabei für Activ Pixel Sensor. Meint man die Sensorgröße APS, steht die Abkürzung für Advanced Photo System.

Es kann also auch einen APS-C Sensor in einer Kleinbildkamera geben.

Den Cropfaktor habe ich hier beschrieben.

Soviel zu der Sensortechnologie. CCD gibt es auch noch, doch die Bedeutung von APS COMOS ist größer.

CCD-Sensor sind ihren CMOS-Kollegen bei der Geschwindigkeit überlegen

Grundsätzlicher Aufbau eines Bildsensors

Die Aufgabe des Bildsensors ist es, das einfallende Licht in ein elektrisches Signal umzuwandeln, welches der Bildsignalverarbeitungsprozessor verarbeiten kann. Damit der Bildsensor dieses Ziel erreichen kann, braucht es einiges an Hardware und diese wollen wir uns jetzt einmal etwas genauer anschauen.

Der Infrarotsperrfilter

Wir Menschen können Licht nur in einem ziemlich kleinen Lichtwellenbereich wahrnehmen. Der Bildsensor kann ein deutliches größeres Spektrum aufnehmen. Das würde zu Bildern führen, auf welchen Licht zu sehen ist, welches wir nicht sehen können. Ab und zu mag das spannend sein, doch auf Dauer wollen wir doch eher unsere (beschränkte) Realität aufnehmen.

Der Tiefpassfilter

Der Tiefpassfilter soll den sogenannten Moirée-Effekt unterbinden. Das geht allerdings zu Lasten der Bildschärfe. In der Nachbearbeitung ist es deshalb wichtig, das Bild zu schärfen.

Es gibt auch Kameras, die auf einen Tiefpassfilter verzichten. Die Bilder sind dann aber so scharf, dass der Bildsensor während der Aufnahme bewegt wird, damit der Moirée-Effekt unterbunden wird und das Bild nicht „unnatürlich“ scharf ist.

Eine eventuelle Glasscheibe

Einige Sensoren haben noch eine zusätzliche Glasscheibe, die den Sensor oberflächlich schützen soll. Sonst wären auch noch weitere Schichten und Filter denkbar.

Die Pixel

Ein Bildsensor ohne Pixel ist kein Bildsensor. Deshalb sind sie für einen Bildsensor unabdingbar. Sie zeichnen das eigentliche Bild auf. Da die Pixel so wichtig und komplex sind, erläutere ich sie in einem eigenen Absatz.

Der Bildsensor hat zwar einen geringeren Einfluss auf das Bild als das Objektiv, doch in Extremsituationen kann das auch anders sein

Die Pixel im Detail

Das wichtigste des Pixels ist die Fotodiode. Sie ist in der Lage, Lichtteilchen in elektrische Ladung „umzuwandeln“. Fast wie eine Solarzelle, diese sind aber etwas träger. Hier kommt der Photoeffekt zum Tragen, für den Albert Einstein einen Nobelpreis erhielt.

Auf jedem Fall geben die Dioden eine unterschiedliche Menge an elektrischer Energie ab, diese ist abhängig von der Menge des Lichts, welches auf den Sensor fällt. So ergeben sich helle und dunkle Bildbereiche.

Farbfilter

Vor den Dioden befinden sich noch Farbfilter. Ein Pixel kann also nur in einer Farbe „sehen“. Das ist allerdings nicht weiter tragisch, den die Kamera errechnet aus den umliegenden Pixeln die Stärke der anderen Farbkanäle.

Es gibt drei Farbkanäle: rot, blau und grün. Diese verteilen sich allerdings nicht gleichmäßig auf der Bildfläche. Rot und blau sind zu jeweils 25% auf dem Sensor vertreten. Grün stellt die anderen 50% der Pixel. Warum das so ist, schauen wir uns gleich einmal an.

So ähnlich kann man sich die Verteilung der Farben vorstellen

Verstärkung des elektrischen Signals

Mit dem ISO-Wert lässt sich das elektrische Signal des Sensors verstärken. Das Signal des Sensors trifft aber nur bei CCD Sensoren zu. Bei einem APS-C Sensor wird jeder Pixel einzelnen verstärkt und ausgelesen.

Warum es mehr grüne Pixel gibt

Die Antwort liegt auch hier bei uns. Wir sind beim grünen Farbspektrum etwas empfindlicher als bei anderen Farbkanälen. Das heißt unter anderem, dass wir mehr Abstufungen machen können.

Wie sich die Anzahl der Pixel auf die Bildqualität auswirken kann

Mit mehr Pixeln kann man detailreichere Bilder aufnehmen und das Bild stärker zurechtschneiden. Doch mehr Pixel stehen nicht unbedingt für bessere Bilder, denn mehr Pixel können auch zu Problemen führen.

Bei gleichbleibender Sensorgröße wird die Pixeldichte größer und der einzelne Pixel wird kleiner. Das kann zu mehr Irritation bei benachbarten Pixeln führen und am Ende das Rauschen erhöhen.

Kleinere Sensoren mit hoher Pixeldichte neigen zum schnelleren Rauschen

Fazit

Im näschten Artikel werden wir wieder etwas praktischer und weniger technisch. Doch mir persönlich war dieses Thema wichtig und bei der Recherche konnte ich einiges mitnehmen. Bei Fragen und Verwirrungen freut sich die Kommentarsektion auf deinen Eintrag.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.