Bildverarbeitung

Farbe geben

1-Chip-CCD-Kameras berechnen Farben aus Helligkeitswerten

07.12.2009 -

Alles so schön bunt hier? Nicht wirklich. CCD- und CMOS-Chips können eigentlich nur ­Helligkeitswerte aufnehmen. Sie sind also farbenblind. Wie kommt es dann also z. B. zu farbigen Fernsehbildern? Die Lösung des Rätsels ist einfach: Fernsehkameras nutzen drei Chips mit vorgebauten Farbfiltern. So gibt es also je einen Chip für Rot, Grün und Blau.

Von Fernsehkameras erwarten wir eine hohe Bildqualität aber auch einen hohen Preis. Muss die Kamera aber klein und/oder preisgünstig sein, verbietet sich die Verwendung von drei Chips. Wie aber bekommt man ein einzelnes farbenblindes Chip dazu Farbe auszugeben. Der Einfachheit halber konzentrieren wir uns in der folgenden Erklärung auf CCD-Kameras. In CMOS-Kameras ist die Farbverarbeitung sehr ähnlich.

Warum farbenblind?
Die Pixel-Information auf einem CCD-Chip lässt sich mit einem Behälter vergleichen, in dem sich während der Belichtungszeit freie Elektronen ansammeln (Abb. 1). Die Elektronen werden nach dem photoelektrischen Effekt durch die auftreffenden Photonen erzeugt. Nach dem Ende der Belichtungszeit fließen die Elektronen über einen Widerstand ab und erzeugen eine Spannung. Ein A/D-Wandler macht daraus einen digitalen Grauwert. Dieser Wert ist lediglich „grau", weil die Wellenlänge der Photonen, also die Farbe nicht auf die Elektronen übertragen wird. Die Kamera wertet nur die Anzahl der Elektronen aus. Diese ist proportional zur Anzahl der aufgetroffenen Photonen, also der Licht-Intensität.

Jetzt kommt Farbe ins Spiel
Versieht man das Pixel mit einem grünen Filter-Scheibchen (Abb. 2), setzt nur noch grünes Licht die Elektronen frei. Nach dem Ende der Belichtungszeit fließen diese Elektronen wieder über den Widerstand ab und liefern über den A/D-Wandler einen digitalen Grauwert. Dem Wert am Ausgang des A/D-Wandlers sieht man nicht explizit an, dass er von grünem Licht herrührt. Der Wert an sich trägt nur die Information „Lichtintensität". Er ist also tatsächlich nur ein Grauwert, der aber bei der weiteren Verarbeitung als Grünwert betrachtet werden soll. Um dies zu erreichen, wird zusätzlich die Information „grünes Licht" mit abgespeichert.

Elegante Lösung mit Mosaik-Filter
Für Rot und Blau gilt die gleiche Vorgehensweise wie für Grün. Die Zusatzinformation der Farben zu den Helligkeitswerten würde allerdings zwei zusätzliche Bits benötigen. Bryce E. Bayer hatte 1976 während seiner Arbeit bei Kodak jedoch die Idee, jedes zweite Pixel eines CCD-Chips mit einem Grün-Filter zu versehen und verteilte die Blau- bzw. Rot-Filter gleichmäßig auf die restlichen Pixel (Abb. 3). Wegen dieser mosaik-ähnlichen Anordnung werden Bayer-Filter häufig auch Mosaik-Filter genannt. Da diese Struktur regelmäßig ist, steckt die „Zusatzinformation" in den Koordinaten der Pixel, die zusätzlichen Bits zur Farbcodierung werden nicht benötigt.

Farben berechnen
Jedes Pixel ist nun also einem Farbwert zugeordnet. Idealerweise soll es natürlich alle drei Farbwerte enthalten, das wäre aber nur mit drei CCD-Chips möglich. Stattdessen werden die Farb-Informationen der Nachbar-Pixel übernommen: Dem roten Pixel fehlen die Blau- und Grünwerte, diese liegen aber in direkter Nachbarschaft (siehe Abb. 3) und werden kopiert. Der entscheidende Vorteil dieser Methode liegt in der Geschwindigkeit: Die Qualität reicht meist für bewegte Szenen aus. Für statische Szenen ist das Ergebnis zu „pixelig". Der Algorithmus berechnet Bilder mit besserer Qualität, wenn jeweils der Mittelwert der vier Nachbar-Werte einfließt. Die erforderliche Rechenzeit steigt dadurch. Ein weiterer Nachteil der Mittelwertbildung ist die Verschleifung der Kanten. Daher wurden Algorithmen entwickelt, die nicht einfach ohne Rücksicht auf Verluste über Nachbar-Pixel mitteln. Sie detektieren Kanten und verhalten sich hier feinfühliger, was den Rechenaufwand jedoch noch einmal steigert.

Der Schönheit wegen
Durch die Interpolation der Farben erhalten Anwender keine neuen Informationen: Vorhandene Informationen werden lediglich auf eine gewohntere Weise dargestellt. Um dies zu erreichen, steigt aber die Datenrate, die Bildwiederholrate der Kamera sinkt. Zudem steigt der Speicherplatz für die Archivierung, für sog. Leer-Information. Aus messtechnischer Sicht manipuliert die Kamera gar das aufgenommene Signal (Bild), damit es „schöner" ist.
Abbildung 4 zeigt den Ausweg: Die Kamera gibt lediglich die Farb-Rohdaten aus. Dadurch wird sowohl die Übertragung als auch die Archivierung der Bilder effizienter. Messtechnisch orientierte Bildverarbeiter können mit den Original-Daten arbeiten. Die Farb-Interpolation tritt immer nur dann in Aktion, wenn die Bilder dargestellt werden müssen. Gelegentlich ist es auch von Vorteil, wenn die Farb-Interpolation bereits in der Kamera statt findet. Moderne Industrie-Farbkameras lassen sich daher einfach per Software zwischen Rohdaten und Interpolation umschalten.

Mehr Informationen Im Detail mehr
Informa­tionen zum Thema „Farbe“ finden sich unter www.theimagingsource.com. Verschiedene White Paper zum Thema Farbe und das Tool „Bayer-Demonstrator“ stehen zum kostenlosen Download zur Verfügung. Der Demonstrator zeigt die Wirkung der Farb-Interpolation anhand einfacher ­Beispiele.

Kontakt

The Imaging Source Europe GmbH

Sommerstrasse 36
28215 Bremen
Deutschland

+49 421 335 91 0
+49 421 335 91 80

Spannende Artikel zu Fokus-Themen finden Sie in unseren E-Specials. Lesen Sie jetzt die bisher erschienenen Ausgaben.

Zu den E-Specials

Media Kit

Die Mediadaten 2025 sind jetzt verfügbar! Laden Sie sie hier herunter.

Industrie-Lexikon

Begriffe aus der Bildverarbeitung und Automation, die man kennen sollte

Zum Lexikon

Spannende Artikel zu Fokus-Themen finden Sie in unseren E-Specials. Lesen Sie jetzt die bisher erschienenen Ausgaben.

Zu den E-Specials

Media Kit

Die Mediadaten 2025 sind jetzt verfügbar! Laden Sie sie hier herunter.

Industrie-Lexikon

Begriffe aus der Bildverarbeitung und Automation, die man kennen sollte

Zum Lexikon