Herkömmliche Bilder im sichtbaren Spektralbereich können (außer natürlich mit herkömmlichen Kameras bzw. Smartphones) mit kompakten Kameramodulen erfasst werden und über ähnliche Anschlüsse wie bei Wärmebildsensoren nachgeschalteten Auswerterechnern zugeführt werden. Als Detektor werden heute fast ausschließlich die aus der Welt der Digitalkameras bekannten CMOS-Bildsensoren (Complementary Metal-Oxide Semiconductor) eingesetzt (Bild 134). Die Verwendung von zwei parallel angeordneten Kameramodulen ermöglicht stereoskopische Aufnahmen, woraus über entsprechende Algorithmen auch z.B. rein bildbasierte Abstandsmessungen möglich sind (sog. Photogrammetrie).

Bild 134: Prinzip eines Kameramoduls

Bild 135 zeigt den Aufbau eines typischen CMOS-Bildsensorchips. Jedes Pixel besitzt eine Photodiode. Schaltungstechnisch bewanderte Leser wissen, dass diese üblicherweise in Sperrpolung betrieben werden und dabei eine interne Sperrschichtkapazität aufweisen. Vor einer Belichtung werden alle Photodioden eines Sensorchips an eine Referenzspannung gelegt, welche in den jeweiligen Sperrschichtkapazitäten gespeichert wird. In Abhängigkeit von Lichtstärke am jeweiligen Pixel und Belichtungszeit werden die Kapazitäten dann durch einen mehr oder weniger großen, durch die Belichtung generierten  Photostrom entladen. Nach der Belichtungsphase werden sämtliche Kapazitäten durch sequentielles Ansteuern innerhalb einer Matrixstruktur mit Zeilen und Spalten nacheinander ausgelesen und über einen schnellen Analog-Digital-Umsetzer (ADU) bzgl. ihrer Spannung digitalisiert. In einer nachgeordneten Elektronik werden die einzelnen Pixelspannungen als Gesamtbild in einem Bildspeicher abgelegt. Eine über die Chipoberfläche gelegte Schicht aus Mikrolinsen sorgt dafür, dass weitgehend das gesamte auf eine Pixelfläche einfallende Licht auf den aktiven Part der Photodiode gebündelt wird. Eine verbreitete Bezeichung für Sensorchips mit derart aktiv angesteuerten Pixeldioden lautet „Active Pixel Sensor“ (APS).

Bild 135: Aufbau eines CMOS-Bildsensorchips

Photodioden können zunächst nur Helligkeitswerte und keine Farben detektieren. Um auch die Farbinformationen zu erhalten, werden die Sensorchips in der am weitesten verbreiteten Bauform mit einer Filterschicht überzogen, die waben- oder schachbrettförmig jeder Photodiode einen Farbfilter für eine der drei RGB-Grundfarben Rot, Grün oder Blau vorschaltet (sog. Mosaikfilter). Pro Pixel wird also nur ein Grundfarbwert detektiert. Mit einem speziellen Algorithmus wird in der nachgeschalteten Elektronik über einen sehr schnellen Signalprozessor dann per Interpolation aus den Farbwerten benachbarter Pixel jedem einzelnen Pixel eine komplette Farbinformation wieder zugeordnet. Das menschliche Auge ist für die einzelnen Grundfarben unterschiedlich empfindlich, weshalb sich die Anzahl der in einem Chip verbauten roten, grünen und blauen Pixel unterscheidet. Bei dem am häufigsten eingesetzten Filtermuster, dem sog. Bayer-Filter (nach dessen Erfinder Bryce E. Bayer benannt), wechseln sich Zeilen ab, in denen sich wiederum Grün mit Rot bzw. Grün mit Blau spaltenweise abwechseln. Wodurch 50 % aller Pixel auf Grün reagieren und jeweils 25 % auf Rot bzw. Blau.

Bis vor kurzem dominierten Sensorchips, bei denen aus produktionstechnischen Gründen die zur Realisierung der Matrixstruktur notwendigen Leiterbahnen zwischen Chipoberfläche und der Ebene mit den Photodioden verliefen (sog. frontseitige Beleuchtung). Die Leiterbahnstrukturen reflektieren bzw. absorbieren dabei einen Teil des einfallenden Lichts. Um die Lichtempfindlichkeit zu steigern, sind einige Hersteller speziell bei Chips mit hoher Pixelzahl und damit kleinerer lichtempfindlicher Fläche pro Pixel zu den in der Produktion aufwendigeren Aufbauvarianten mit rückseitiger Beleuchtung übergegangen, bei denen die Photodioden direkt unterhalb der Linsen-/Filterebene liegen.

Bei einer speziellen Ausführung, dem sog. Dreischichtsensor, erfolgt für jedes Pixel eine komplette Farbauswertung. Dies basiert auf dem Effekt, dass Licht unterschiedlicher Wellenlänge unterschiedlich tief in Silizium eindringt. Man bringt bei diesen Sensorchips pro Pixel jeweils drei Photodioden in einem bestimmten Abstand übereinander an. Die der Chipoberfläche nächste Diode detektiert dann weitgehend die Blauanteile, die Diode darunter die Grünanteile und die unterste Diode schließlich die Rotanteile. Durch eine nachfolgende Algorithmik werden die sich dabei ergebenden Empfindlichkeitsunterschiede bei den drei Diodenebenen sowie die zunächst nicht den reinen RGB-Grundwerten entsprechenden Einzelmesswerte korrigiert. Der Vorteil der höheren farblichen Auflösung wird jedoch durch den Nachteil einer trotz algorithmischer Korrektur nicht so hohen Farbtreue wie bei obiger filterbasierter Farbdetektion erkauft, so dass das Dreischichtsensorprinizp zumindest aktuell nur in wenigen Chips implementiert ist.

Menü schließen