Bildverarbeitung

High-Speed Imaging ermöglicht einzigartige Einblicke in Prozesse

16.09.2016 -

Seit den bahnbrechenden Arbeiten von Eadweard Muybridge Ende des 19. Jahrhunderts, der den Bewegungsablauf eines galoppierenden Pferdes analysierte, hat die Bildgebung mit Hochgeschwindigkeitskameras immer wieder auf vielfältige Weise neue Informationen über Bewegungen, Ereignisse und Prozesse geliefert. Im heutigen industriellen und wissenschaftlichen Umfeld werden Hochgeschwindigkeitsaufnahmen für verschiedenste Analysen oder Tests eingesetzt.
Hochgeschwindigkeitsaufnahmen liefern Erkenntnisse aus der Betrachtung von Ereignissen, die schneller ablaufen als vom menschlichen Auge erfasst werden kann. Dies macht letztendlich auch ihren Wert für den Anwender aus. High-Speed Imaging basiert auf der Fähigkeit, das optische Bild einer Szene innerhalb einer möglichst kurzen Zeitspanne zu erfassen. Je kürzer die Zeitspanne, desto größer ist die Fähigkeit, schnell ablaufende Ereignisse in Form von Standbildern „einzufrieren“. Genau diese Fähigkeit, kurze Momente in einem zeitlichen Ablauf aufzunehmen, liefert nützliche Diagnoseinformationen für die jeweilige Anwendung.

Wichtige Faktoren beim High-Speed Imaging
Ein typischer Ansatz für eine Aufnahme in einer kurzen Zeitspanne besteht ganz einfach in der Verringerung der Belichtungszeit der Kamera. Die Bildsensoren, die normalerweise bei Kameras für die industrielle Bildverarbeitung eingesetzt werden, haben eine minimale Belichtungszeit im Bereich von 5 bis 15 Mikrosekunden, wohingegen spezielle Hochgeschwindigkeitskameras bei Belichtungszeiten von weniger als 200 Nanosekunden (ns) betrieben werden können. Bewegt sich das aufzunehmende Objekt mit hoher Geschwindigkeit, so resultiert eine zu lange Belichtungszeit in einer unscharfen Aufnahme. Beispielsweise kann für die Aufnahme eines Fahrzeugs bei einer Geschwindigkeit von 360 km/h die übliche Belichtungszeit von 10 Mikrosekunden verwendet werden, die in einer relativen Bewegungsunschärfe von 1 mm resultiert. Bei großen Fahrzeugen in der Größe von mehreren Metern mag dies akzeptabel sein. Doch im Falle eines Hochgeschwindigkeitsgeschosses von 20 mm Länge und bei einer Geschwindigkeit von 1200 m/s ergibt sich eine Belichtungszeit von ungefähr 83 ns, um die Bewegungsunschärfe auf weniger als 0,1 mm zu reduzieren. Bewegungsunschärfe ist nicht nur eine Frage des Erscheinungsbilds einer Aufnahme. Bei messtechnischen Anwendungen, wie der Analyse von Tintenstrahldüsen, ist die Qualität des Objektumrisses wichtig. Falls sich die erforderliche Genauigkeit im Mikrometerbereich bewegt, muss die Belichtungszeit für ein Standbild der eingefrorenen Bewegung unter 200 ns liegen. Solche kurzen Aufnahmezeiten liegen jenseits der Möglichkeiten herkömmlicher Kamerasysteme.

Um eine gut belichtete Aufnahme zu erzielen, muss der Bildsensor ausreichend Licht aus der Szene erfassen. Bei sehr kurzen Belichtungszeiten wird es immer schwieriger, diese Anforderungen zu erfüllen. Es können zwar große Pixel mit hoher optischer Empfindlichkeit entwickelt werden, doch damit steigen die Kosten und die Größe des Kamerasystems insgesamt. Schnellere Optiken können bis zu gewissen physikalischen Grenzen helfen, doch dies hat den Nachteil, dass Kosten, Größe und Gewicht des Systems zunehmen. Bei diesen Aufnahmeoptiken mit hoher numerischer Apertur stellt die daraus resultierende Schärfentiefe einen weiteren Kompromiss dar: Bei einer niedrigen Blendenzahl erfassen Objektive mehr Licht, doch die Schärfentiefe nimmt ab.
Handelt es sich um wiederholbare Ereignisse, können die Signale von wiederholten, synchronisierten Aufnahmen akkumuliert werden, um einen höheren Belichtungsgrad zu erzielen. Allerdings liefert die einfache Akkumulation von Aufnahmen von konventionellen Hochgeschwindigkeitskameras unter Umständen nicht die gewünschten Ergebnisse. Weitere Anforderungen müssen vom Kamerasystem erfüllt werden, damit sichergestellt ist, dass das Signal richtig - d.h. ohne eine Kumulierung des Rauschens – akkumuliert wird. Einige Systeme entsprechen diesen Anforderungen und führen die Akkumulation intern durch, wobei sich die Messdauer und die Datenbandbreite verringern, die vom System ausgegeben werden müssen.
Häufiger ist es jedoch so, dass Ereignisse nicht wiederholbar sind und unmittelbar mittels einer einzigen Aufnahme erfasst werden müssen. In diesem Fall können zur Ausleuchtung der Szene ultrahelle externe Lichtquellen verwendet und so die erforderliche Beleuchtungsintensität über eine kurze Zeitspanne erreicht werden. Ein weiteres Problem ist eine Abwägung zwischen der benötigten großen Helligkeit und dem Schutz der Augen des Anwenders. Der Einsatz von Impulsbeleuchtung, die mit der Belichtung des Bildsensors synchronisiert wird, kann den Grad der optischen Intensität insgesamt auf ein sicheres Niveau verringern und so die Verwendung einer kontinuierlichen Hochleistungslichtquelle überflüssig machen. Die Verwendung ultraheller Impulsbeleuchtung kennt man von herkömmlichen Lichtquellen wie Xenon-Blitzlampen. Allerdings liegt deren Pulsdauer, Latenz und Jitter im Bereich von Mikrosekunden, was für viele Anwendungen womöglich nicht kurz genug ist.

Eine weitere Frage, die sich in diesem Zusammenhang stellt, ist die erforderliche Frame-Rate des Systems, d.h. die Geschwindigkeit, mit der die Vollbildserie einer Szene aufgenommen werden kann. Grundsätzlich kann die Zeitspanne zwischen aufeinanderfolgenden Bildern nicht kürzer als die Belichtungszeit sein. Doch im Allgemeinen ist sie wesentlich länger, da auch noch das elektronische Auslesen der Bilder stattfindet. Oftmals kann die Frame-Rate erhöht werden, indem bei den Kameraeinstellungen ein Aufnahmemodus mit niedrigerer Auflösung gewählt wird. So kann man beispielsweise durch die Verringerung der Auflösung von 1280 x 1024 auf 128 x 128 Pixel die Frame-Rate um mehr als das zwanzigfache von 450 fps auf 10.300 fps erhöhen. Eine weitere Überlegung ist, ob sämtliche Bilder mit der vollen Frame-Rate an einen Zentralrechner übertragen werden müssen oder ob eine Bildfolge für eine spätere Übertragung an den Rechner direkt in der Kamera selbst gespeichert werden kann. Der Datentransfer bei der vollen Frame-Rate beinhaltet höhere Systemkosten, da Übertragungsprotokolle mit größerer Bandbreite sowie zusätzliche Komponenten wie Framegrabber erforderlich sind. Umgekehrt kann eine kostengünstigere Lösung mithilfe eines integrierten Speichers verwirklicht werden. Allerdings bestehen dann Einschränkungen bei der Anzahl der Bilder, die gespeichert werden können, bis der Speicherplatz voll ist.

Impulsbeleuchtung ermöglicht Aufnahmen im Nanosekundenbereich
Ein alternativer Ansatz bei Aufnahmen kurzzeitiger Ereignisse ist die Verwendung von ultrakurzen, jedoch sehr lichtstarken Beleuchtungsimpulsen, die mit der Belichtungszeit des Bildsensors in der Kamera synchronisiert werden. Dieses Verfahren kann einen einfachen und kostengünstigen Ansatz für Hochgeschwindigkeitsaufnahmen mit guter Kontrastschärfe eröffnen. Es ist jedoch entscheidend, dass die Zeitspanne zum „Einfrieren“ der Bewegung durch die Pulsweite der Beleuchtung bestimmt wird und nicht durch das Aufnahmesystem. Dadurch können Bildsensoren mit herkömmlichen Pixel-Architekturen verwendet werden. Obwohl die Verwendung kurzer Beleuchtungsimpulse zur Erstellung von Einzelbildern eines Bewegungsablaufs ein attraktiver Ansatz für das High-Speed Imaging ist, wird die erzeugte Frame-Rate des Systems noch immer vom Bildsensor bestimmt. Es können extrem schnell ablaufende Ereignisse aufgenommen werden. Beispielsweise könnten die 83 ns erzielt werden, die für die Aufnahme eines Hochgeschwindigkeitsgeschosses erforderlich sind. Doch das Zeitintervall zwischen den Aufnahmen ist womöglich länger als bei einem speziellen oder zweckbestimmten System.

Die straffe Steuerung und Synchronisierung der Beleuchtungsimpulse direkt durch das Kamerasystem selbst ermöglicht die Durchführung kritischer Analysen. So können zum Beispiel zwei Beleuchtungsimpulse innerhalb eines einzigen Aufnahmezyklus des Bildsensors ausgelöst werden. Dies resultiert in zwei physikalischen Aufnahmen, zwischen denen ein extrem genau definiertes Intervall liegt, und die optisch zu einem einzigen erstellten Bild überlagert werden. Diese Technik kommt zum Beispiel bei Aufnahmen von Hochgeschwindigkeitsgeschossen direkt nach dem Austritt aus dem Gewehrlauf zum Einsatz. Ein entscheidender Vorteil solch eines „Doppelimpulses“ besteht darin, dass das Zeitintervall zwischen den Beleuchtungsimpulsen extrem kurz und präzise gewählt werden kann. So sind beispielsweise Intervalle von 10 ns bei einem Jitter von weniger als 50 ps möglich. Dies gestattet präzise Messungen von zeitrelevanten Parametern, wie die Teilchengeschwindigkeit, direkt mittels Analyse der Aufnahme. Die Abgabe mehrerer Impulse während einer einzigen Belichtungszeit ist eine natürliche Erweiterung dieses Konzepts mit der zusätzlichen Flexibilität, dass die Abfolge der Beleuchtungsimpuls völlig frei gewählt werden kann.

Synchronisierung und Triggerung sind wichtig
Die sorgfältige Steuerung des richtigen Zeitpunkts ist die Voraussetzung bei den meisten Anwendungen von Hochgeschwindigkeitsaufnahmen. Mithilfe sehr genauer Synchronisation von Beleuchtungsimpulsen können Ereignisse untersucht werden, die im Nanosekundenbereich ablaufen. Gut ausgelegte Trigger-Schnittstellen sind an der Kamera selbst erforderlich und müssen in der Lage sein, die Aufnahme als Reaktion auf einen Hardware-Trigger auszulösen. Ein kritischer Parameter für die externe Triggerung ist die Notwendigkeit einer gut definierten und wiederholbaren Latenz zwischen der Eingabe des Trigger-Signals und der Abfolge der Beleuchtungsimpulse und der Belichtung des Bildsensors. Ein erheblicher Jitter der Trigger-Latenz kann zu ungenauen Messergebnissen führen oder, noch schlimmer, die Aufnahme eines Ereignisses von Interesse ganz verhindern.
Ein nützliches Leistungsmerkmal von Systemen mit der Fähigkeit, Aufnahmen direkt in der Kamera zu speichern, ist deren Fähigkeit, auf Ereignisse folgende Trigger zu definieren. Ein typisches Beispiel sind Aufnahmen eines Ereignisses, dessen genauer Zeitpunkt nicht vorherbestimmbar ist, wie der exakte Zeitpunkt des Versagens einer Komponente während eines Prüfverfahrens. In diesem Fall können Aufnahmen kontinuierlich erfasst und in einem „Ringspeicher“ gespeichert werden. Sobald der letzte verbliebene Speicherplatz im Ring verwendet wird, überschreibt das folgende Bild den ersten Platz in diesem Ring. In Verbindung mit einem auf ein Ereignis folgendes Trigger-Signal kann das System die entscheidenden Bilder vor und während des Ereignisses von Interesse aufnehmen.

Lineares Pixelverhalten ermöglicht quantitative Analysen
Typische Anwendungen von High-Speed Imaging finden sich in Mess- und Prüfumgebungen. Diese Anwendungen beziehen sich oft auf spezifische Ereignisse oder Prozesse von besonderem Interesse, im Gegensatz zu den wiederkehrenden Prüfaufgaben der Qualitätskontrolle in der Fertigung. Ein Vorteil von bei Prüfanwendungen eingesetzten Kameras liegt darin, dass jeder Pixel gleich und linear auf Licht reagiert. Im Allgemeinen ist die Reaktion eines Pixels auf Licht nicht linear und weist oftmals eine abnehmende Empfindlichkeit bei zunehmender Signalstärke auf. Zudem kann jeder einzelne Pixel eine andere Nichtlinearität aufweisen. Viele industrielle Kameras korrigieren die grundlegenden Abweichungen zwischen den Pixeln, doch bieten sie noch kein identisches lineares Verhalten über das gesamte Array. Ein einheitlich lineares Verhalten bietet zwei wichtige Vorteile: Erstens wird dadurch eine quantitative Analyse der Intensität möglich und zweitens unterstützt das lineare Verhalten die Nachbearbeitung der Bilder. Dies trifft insbesondere auf Fälle zu, in denen ein hoher Grad an digitaler Verstärkung eingesetzt wird, um Aufnahmen zu verbessern und filigrane Details herauszuarbeiten.
Odos Imaging hat kürzlich das Kamerasystem Star Stop Freeze Motion Camera für Hochgeschwindigkeitsaufnahmen vorgestellt. Dieses vereint die genannten Vorteile, indem spezielle Komponenten verbaut wurden, die ultrakurze Beleuchtungsblitze liefern in Verbindung mit einer High-Speed Kamera für Serienaufnahmen. Die Kernfunktionen umfassen hochgradig konfigurierbare Trigger-I/O- und Breakout-Funktionen sowie eine Software für die einfache Konfiguration und Durchführung von Aufnahmen mit hoher Kontrastschärfe. Das System wurde speziell für die Anforderungen von Fachleuten entwickelt, die eine schnelle, flexible Analyse benötigen, ohne den Aufwand und die Kosten, die sonst mit der Integration zahlreicher Hardware-Komponenten verbunden sind.

Kontakt

Odos Imaging, A Rockwell Automation Company

36 South Gyle Crescent, South Gyle Business Park
EH12 9EB Edinburgh
Vereinigtes Königreich

+44 131 316 51 00

Spannende Artikel zu Fokus-Themen finden Sie in unseren E-Specials. Lesen Sie jetzt die bisher erschienenen Ausgaben.

Zu den E-Specials

Media Kit

Die Mediadaten 2025 sind jetzt verfügbar! Laden Sie sie hier herunter.

Industrie-Lexikon

Begriffe aus der Bildverarbeitung und Automation, die man kennen sollte

Zum Lexikon

Spannende Artikel zu Fokus-Themen finden Sie in unseren E-Specials. Lesen Sie jetzt die bisher erschienenen Ausgaben.

Zu den E-Specials

Media Kit

Die Mediadaten 2025 sind jetzt verfügbar! Laden Sie sie hier herunter.

Industrie-Lexikon

Begriffe aus der Bildverarbeitung und Automation, die man kennen sollte

Zum Lexikon