Messtechnik in der Cloud: Interview mit Ulrich Lettau und Andreas Quick
22.05.2018 -
Ulrich Lettau, Vorstandsvorsitzender von Iba, und Andreas Quick, Leiter des Produktmanagements, erläutern, wann Cloud-Lösungen sinnvoll sind, welche Voraussetzungen zu beachten sind und warum es wenig sinnvoll ist, hochaufgelöste Messdaten direkt auf die Cloud zu streamen.
Macht es überhaupt Sinn, Messdaten in einer Cloud abzulegen?
Ulrich Lettau: Um diese Frage beantworten zu können, müssen wir zuerst einmal den Begriff Messdaten definieren. Für uns, bei Iba, sind Messdaten in der Regel sehr schnelle und hochaufgelöste Messdaten. Das sind beispielsweise Daten aus Steuerungen mit hoher Taktung oder Schwingungssignale. So kommen schnell mehrere tausend Signale mit einer hohen Abtastrate zusammen. Für die Übertragung der kontinuierlich anfallenden Daten wird eine hohe Bandbreite benötigt. Dies verursacht schlussendlich hohe Kosten. Mehr Sinn macht es unserer Meinung nach, aus Messdaten berechnete Kennzahlen in der Cloud abzuspeichern. In diesen verdichteten Informationen steckt eine wesentlich höhere Aussagekraft als in den Rohdaten und das bei einem Bruchteil der Datenrate beziehungsweise Speicherkapazität.
Sie würden hochaufgelöste Messdaten also nicht in der Cloud speichern?
Andreas Quick: In den meisten Fällen raten wir davon ab, da Kosten und Nutzen in keinem Verhältnis stehen. Der etablierte Ansatz ist hier eine Vorverdichtung der Messdaten an der Edge. Die nach der Aggregation erzeugten Kenngrößen wie statistische Werte oder Ergebnisse nach einer Frequenzanalyse können dann in die Cloud geschrieben werden. Hochaufgelöste Daten zuerst in die Cloud zu speichern, um dort beispielsweise Condition-Monitoring-Algorithmen laufen zu lassen, ist wenig sinnvoll. Der Algorithmus sollte an der Quelle der hochaufgelösten Daten im Edge-Device laufen und lediglich die extrahierten Features, wie beispielsweise Bandparameter, in die Cloud übertragen werden.
Können Sie einen typischen Anwendungsfall aus der Praxis beschreiben?
Ulrich Lettau: Gute Beispiele finden wir heute im Bereich Maschinenbau, bei Abfüllanlagen, Spritzgussmaschinen oder Umformpressen. Einige der weltweit aufgestellten Anlagen erfassen bereits jetzt lokal schnelle Messdaten und berechnen daraus aussagekräftige Kennwerte. Diese werden dann zentral über eine IIoT-Plattform zugänglich gemacht, um damit Rückfluss über das tatsächliche Verhalten der Maschine im Einsatz zu erhalten sowie Predictive Maintenance und andere Remote-Services anbieten zu können.
Andreas Quick: Basierend auf diesen Kennwerten wird neben Predictive Maintenance auch Energiemonitoring und Benchmarking von Anlagen beziehungsweise Maschinen betrieben. Der Entwickler einer Maschine ist damit in der Lage, seine verschiedenen Anlagen zu vergleichen und zueinander in Beziehung zu setzen. Entdeckt er dabei Optimierungspotential, kann er auf die Rohdaten aus der Edge zugreifen, also einen sogenannten Drill-Down durchführen, und auf Basis dieser dem Betreiber Hinweise für einen optimalen Betrieb der Maschine geben. Sprich: Die Kenngrößen geben Indikatoren im Sinne von Predictive Maintenance oder Anlagen-Benchmarking. Die Rohdaten vor Ort geben dem Experten die Hinweise zur Anlagenoptimierung.
Welche Voraussetzungen brauche ich in der Produktion / bei meinen Datenerfassungsgeräten, um Cloud-Funktionalitäten nutzen zu können? Und wie gelangen die lokal erfassten Daten schlussendlich in die Cloud?
Andreas Quick: Zunächst einmal ein Edge-Device, welches über eine umfassende Prozesskonnektivität verfügt, um Daten vielfältig zu erfassen. Das können Maschinendaten, Sensordaten, Schwingungsdaten oder Steuerungsdaten sein. All diese Arten sollte das Device zeitlich kohärent erfassen und problem- oder anlagenspezifisch verdichten können. Und dann natürlich eine umfassende Cloud-Konnektivität, um die Kenngrößen exportieren zu können. Ein weiterer wichtiger Punkt ist das Zusammenwachen von Maschinennetzwerken und IT-Netzwerken. Bildlich gesprochen stehen Sie zukünftig mit einem Bein in der Maschine im OT, dem Operation Technology Network, und mit dem anderen Bein im IT, dem Information Technology Network.
Ulrich Lettau: Des Weiteren sollte an eine Zwischenspeicherung der Daten und auch der berechneten Kennwerte gedacht werden. Für eine lückenlose Datenerfassung benötigen Sie eine hochverfügbare Internetverbindung zur Cloud. Gerade bei beweglichen Objekten wie beispielsweise Kräne oder Minenfahrzeugen ist dies nicht oder nur schwer realisierbar. Gut ist daher eine zusätzliche lokale Speicherung von bis zu mehreren Tagen, um keine Datenverluste zu riskieren.
Welchen Rat geben Sie Kunden, die Vorbehalte haben, ihre sensiblen Unternehmensdaten und geschäftskritischen Anwendungen einer Cloud anzuvertrauen? Welche Sicherheitsaspekte sind hier zu beachten?
Ulrich Lettau: Die oft naheliegendste Lösung ist die On-Premise Cloud, gehostet und betrieben auf eigenen Rechnern. Sie erscheint auf den ersten Blick oft als die sicherste und günstigste Variante. Schnell aufgesetzt, alle Daten bleiben auf den eigenen Servern und verlassen diese nicht in Richtung anderer Rechtssysteme. Diese Variante würde ich allerdings nur empfehlen, wenn im eigenen Unternehmen die entsprechenden IT-Ressourcen zur Verfügung stehen. Für kleinere Betreiber ist es oft einfacher und auch im Hinblick auf die Sicherheit der Daten besser, einen professionellen IIOT-Betreiber heranzuziehen. Dabei spielen natürlich rechtliche, finanzielle und strategische Aspekte eine große Rolle. Ist der Anbieter in der Lage ein rechtssicheres Framework aufzubauen? Verfügt er über die Finanzkraft, auch in 20 Jahren noch am Markt zu bestehen? Was passiert bei einer Insolvenz oder bei Verkauf der Aktivitäten?
Was sollte ein Kunde aus Ihrer Sicht weiterhin beachten, wenn er Maschinendaten in die Cloud schreiben möchte?
Andreas Quick: Neben den Sicherheitsaspekten ist natürlich die bereitgestellte Datenanalytik der einzelnen Anbieter ein weiteres Auswahlkriterium. Bekomme ich mit den angebotenen Tools die passenden Ergebnisse aus meinen Daten? Um diese Frage beantworten zu können, ist es natürlich unerlässlich, eine klare Zielsetzung zu haben. Was will ich mit den Daten erreichen? Welche Kenngrößen brauche ich dazu? Wer ist die Zielgruppe oder der Anwender? Will ich Energie- beziehungsweise Anlagenverbräuche oder produktorientierte Qualitätskenngrößen vergleichen? Habe ich Antworten auf diese Fragen, kann ich gezielt die einzelnen Anbieter vergleichen und das beste Gesamtpaket für meinen Einsatz wählen.
Wie sieht Ihre Software-Architektur aus?
Ulrich Lettau: Das lässt sich gut an den vier Phasen des Iba-Systems erklären. In Phase 1 wird die Konnektivität zur Feldebene hergestellt und die Daten erfasst, in Phase 2 die Daten lokal aufgezeichnet, in Phase 3 die Daten automatisch analysiert. In der letzten Phase werden schließlich aus den Analyseergebnissen Informationen beziehungsweise Kenngrößen generiert. In diesem Phasenmodel gibt es zwei Stellen, IIoT-Plattformen mit Daten zu versorgen. In Phase 2 können wir durch die Ausgabekonnektivität unserer Datenaufzeichnungssoftware ibaPDA Daten direkt, gegebenenfalls nach einer zeitlichen Verdichtung, in Clouds streamen. Die zweite Stelle befindet sich in Phase vier. Nach dem Post Processing durch den IbaAnalyzer beziehungsweise dem IbaDatCoordinator können die nun berechneten Kennwerte in die Cloud geschrieben werden.
Welche Produkte bieten Sie im Rahmen von Industrie 4.0 und Cloud-Funktionalitäten an?
Andreas Quick: Hier haben wir zum einen die IbaDaq-Familie. Sie verfügt über ein integriertes IbaPDA-System und eine Onboard-Datenspeicherung. Alle Geräte können mit der bestehenden Prozess-Konnektivität Daten aufzeichnen, diese streamen oder berechnete Kennwerte schicken. Dies können zum Beispiel die Energieverbräuche der letzten 24 Stunden oder produktorientierte Kennwerte aus historischen Daten sein. Native Konnektoren gibt es beispielsweise zur SAP Hana oder Apache Kafka. Weitere, wie Microsoft Azure und Siemens Mindsphere, sind in Vorbereitung. Selbstverständlich kann man auch über OPC UA, der standarisierten Industrie-4.0-Kommunikationsmethode, beliebige externe Systeme anschließen, die diesen Standard unterstützen.
Ulrich Lettau: Zum anderen arbeiten wir natürlich auch daran, Daten die aus Iba-Systemen in Cloud- oder Datenbank-Systemen abgespeichert werden, einfach und komfortabel über ein browserbasiertes Werkzeug einer weitergehenden Betrachtung und Analyse zur Verfügung zu stellen. Dafür bieten wir unser Daten-Visualisierungs- und Informations-System, den IbaDaVIS. Hier lassen sich mit wenigen Handgriffen Dashboards zusammenbauen und sowohl aggregierte Informationen als auch Messdaten übersichtlich darstellen. Dashboards können dabei Zeitwerte, die Verteilung eines Parameters, Histogramme von Kenngrößen oder Korrelationen visualisieren.
Welchen Tipp können Sie unseren Lesern mit auf den Weg geben?
Ulrich Lettau: Unsere Erfahrung zeigt, dass die erfolgreichsten Projekte ein Zusammenspiel aus der von uns mittlerweile oft genannten Zielsetzung und kleinen Schritten in diese Richtung sind. Der Versuch gleich die ganz große Lösung zu realisieren, steigert die Komplexität und den Investitionsaufwand erheblich. Die Digitalisierung Ihrer Prozesse ist ein schrittweiser Prozess bei dem Sie skalierbare Tools und Hilfsmittel zur Umsetzung benötigen. Lieber klein anfangen und in kurzen Lernzyklen Projektziele überprüfen, gegebenenfalls korrigieren und so Schritt für Schritt zum Ziel kommen.
Kontakt
iba AG
Königswarterstr. 44
90762 Fürth
+49 911 97282 0
+49 911 97282 33