Retter in der Not
Roboter mit USB-kameras auf der Suche nach Verschütteten
Nach einem Erdbeben zählt jede Minute. Denn schon nach 72 Stunden sinkt die Überlebenswahrscheinlichkeit der Verschütteten enorm. Schnelle Hilfe verspricht der raupenförmige und mit zwei Wide-VGA-CMOS-Kameras ausgestattete Suchroboter, der von Studenten der ETH Zürich entwickelt wurde.
Bei Naturkatastrophen wie beispielsweise einem Erdbeben ist schnelle Hilfe gefragt, denn jede Minute kann Menschenleben retten. Doch aufgrund von Umwelteinflüssen und fehlendem Ausrüstungsstandard der Rettungskräfte kann sich die Suche nach den Verschütteten unnötig hinauszögern. Erweitert man das Rettungssortiment um ein System, das in die Trümmer hineinfahren kann, könnten Verschüttete effizienter gesucht und exakter lokalisiert werden. Auch die Sicherheit der Retter würde erhöht, da sie sich nicht mehr unnötig in die Trümmerlagen begeben müssten.
Anforderungen an den Prototyp
An dieser Stelle setzt das im September 2010 von der ETH Zürich initiierte Projekt Traloc an. Ziel der fünf Maschinenbau- und einem Elektrotechnikstudenten war es, einen Roboter zu entwickeln, der ein gefahrloses und schnelles Suchen von Verschütteten erlaubt. Nach einer Analyse der Trümmerlagen und einer System-Evaluationsphase stand fest, dass dieses Terrain am besten von einem raupenförmigen System zu bewältigen ist. Die Form des realisierten Prototyps ergibt sich aus den zu erfüllenden Anforderungen, im Speziellen aus der Lage der Trümmer. Der Roboter soll eingesetzt werden, nachdem Hunde die Verschütteten grob lokalisiert haben. Das System muss Hindernisse und Abgründe überwinden können sowie durch enge Öffnungen hindurch passen. Die Systemform, die diese Anforderung am besten erfüllt, ist die einer Schlange. Das schlangenförmige System, wie es realisiert wurde, bewegt sich auf Raupen fort und wird über Gelenke gesteuert. Es ist modular aufgebaut und besteht in seiner momentanen Form aus fünf gleichen Elementen, die auf allen vier Seiten mit Raupen bestückt sind. Diese werden mittels Verteilergetriebe über einen, zentral im Element angebrachten, Antriebsmotor angetrieben. Die Elemente können als solche nur vorwärts- und rückwärtsfahren. Gesteuert werden kann der Roboter über Gelenke, die zwischen zwei Elementen angebracht sind. Sie haben jeweils zwei rotative Freiheitsgrade, die gieren und nicken erlauben. Im weitesten Sinn kann das Gelenkkonzept als Modifikation eines Kardangelenks gesehen werden, angesteuert wird es durch zwei Gelenkmotoren - pro Freiheitsgrad einen. Der Prototyp soll durch einen Bediener ferngesteuert werden, sodass sich dieser nicht in den Trümmern aufhalten muss.
Mit zwei CMOS-Kameras sieht man besser
Zentrales Element der Steuerung ist das Kamerasystem im Kopfelement des Roboters. Es beinhaltet zwei Wide-VGA-CMOS-Kameras, um die Umgebung zu erkennen und dreidimensional zu kartographieren. Die dafür evaluierten mvBlueFox-MLC200w-Kameras von Matrix Vision zeichnen sich durch ein umfassendes Leistungsprofil sowie eine einfache Handhabung aus. Ihre kompakte Bauweise und die Möglichkeit der Verbindung über Flachbandkabel erlauben es, den Bauraum optimal zu nutzen. Zudem wird die Kabelführung erleichtert. Der Sensor der verwendeten mvBlueFox-MLC200w-Kamera erfüllt mit HDR und Global Shutter die geforderten Eigenschaften, wie sie für die beschriebene Anwendung erforderlich sind. Eine ausführliche und gut strukturierte Dokumentation unterstützt zudem eine effiziente Inbetriebnahme der Kameras. Dies ermöglichte es, trotz engem Zeitplan erste gute Ergebnisse zu generieren. Die Kameras sind an einem Arm-Mechanismus angebracht, der zwei Rotationen entlang der Nickachse erlaubt. Mit diesem Mechanismus ist es möglich, mit den Kameras sowohl die Umgebung abzusuchen als auch auf den Roboter selbst zu schauen. Da dieser Armmechanismus selbst noch rotativ entlang der Rollachse des schlangenförmigen Roboters gelagert ist, wird mit dem Kamerasystem ein 360°-Blickfeld abgedeckt, von dem nur die Innenseite des Roboters ausgenommen ist.
Fortsetzung folgt...
Da es sich bei dem System um einen ersten Prototypen handelt, sind noch zahlreiche Verbesserungsmöglichkeiten denkbar, vor allem auch auf dem Gebiet der Bildverarbeitung. Das System ist in seiner momentanen Form noch nicht abgedichtet und kann daher nur in sauberer Umgebung eingesetzt werden. Obwohl das Projekt Ende Juni 2011 in seiner jetzigen Form als Lernprojekt abgeschlossen ist, zeigt sich das Team aufgrund des aufkommenden Interesses zuversichtlich, dass es eine Fortsetzung des Projektes geben wird.