Fachtagung für Prüfstandsbau und Prüfstandsbetrieb (TestRig)
fpp
expert Verlag Tübingen
61
2022
11
Aspekte intelligenter Prüfstände
61
2022
Gordon Bernhard Gruber
Stephan Ploegman
Datenerfassungssysteme in modernen Prüfständen sind u. A. als Big Data Management Systeme tätig. Sie bieten die Möglichkeit Datenströme aus verschiedenen Messanwendungen, wie statische Messungen mit niedriger Abtastrate und dynamische Messungen mit hoch frequente Abtastraten (z.B. Schwingungsmessungen) zeitsynchron zu verarbeiten. Somit sind Messdaten aus unterschiedlichen Anwendungen bereits während der Messung vergleichbar und müssen nicht manuell nach den verschiedenen Messungen zusammengeführt werden. Dabei entstehen für kurze Zeit sehr hohe Datenmengen (bis zu TerraByte pro Sekunde), die Speichermedien schnell an Ihr Limit bringen. Durch intelligentes Data Management wie z.B. der Auswertung von Rohdaten im Zeit- und Frequenzbereich direkt vor der eigentlichen Speicherung auf Edge Computing Systemen und der Anwendung von intelligentem „hot“, „warm“ und „cold“ Datenmanagement, kann man der Herausforderung von großen Datenmengen entgegentreten. Wenn alle Elemente zusammen in einem skalierbaren Daten-Backend angewendet werden, kann dies die Inbetriebnahmezeit erheblich verbessern, die Kosten für den Prüfstand senken und durch den höheren Informationsgehalt können bessere Produkte entwickelt werden.
fpp110117
1. Fachtagung TestRig - Juni 2022 117 Aspekte intelligenter Prüfstände Data Acquisition Systeme als Big Data Manager Gordon Bernhard Gruber Gantner Instruments, Rodgau, Deutschland Stephan Ploegman Gantner Instruments, Amsterdam, Niederlande Zusammenfassung Datenerfassungssysteme in modernen Prüfständen sind u.A. als Big Data Management Systeme tätig. Sie bieten die Möglichkeit Datenströme aus verschiedenen Messanwendungen, wie statische Messungen mit niedriger Abtastrate und dynamische Messungen mit hoch frequente Abtastraten (z.B. Schwingungsmessungen) zeitsynchron zu verarbeiten. Somit sind Messdaten aus unterschiedlichen Anwendungen bereits während der Messung vergleichbar und müssen nicht manuell nach den verschiedenen Messungen zusammengeführt werden. Dabei entstehen für kurze Zeit sehr hohe Datenmengen (bis zu TerraByte pro Sekunde), die Speichermedien schnell an Ihr Limit bringen. Durch intelligentes Data Management wie z.B. der Auswertung von Rohdaten im Zeit- und Frequenzbereich direkt vor der eigentlichen Speicherung auf Edge Computing Systemen und der Anwendung von intelligentem „hot“, „warm“ und „cold“ Datenmanagement, kann man der Herausforderung von großen Datenmengen entgegentreten. Wenn alle Elemente zusammen in einem skalierbaren Daten-Backend angewendet werden, kann dies die Inbetriebnahmezeit erheblich verbessern, die Kosten für den Prüfstand senken und durch den höheren Informationsgehalt können bessere Produkte entwickelt werden. Abbildung 1 - „Datenlawine“ - wie sie in Prüfständen tagtäglich auftritt. 118 1. Fachtagung TestRig - Juni 2022 Aspekte intelligenter Prüfstände 1. Wie man die Datenlawine in brauchbare Erkenntnisse verwandelt In einer Welt mit immer komplexeren Produkten und schnelleren Release-Zyklen war die Fähigkeit, Testdaten zu sammeln und effizient zu analysieren, noch nie so wichtig wie heute. Aufgrund der gegensätzlichen Trends von zunehmen-der Komplexität von Strukturen und Systemen und drastisch verkürzten Entwicklungszeiten stehen Prüfstandslabore unter immensem Druck, Testergebnisse schneller zu produzieren, um trotz der Erfassung von mehr Daten von mehr Sensoren Kosten zu sparen und Entwicklungszeiten zu reduzieren. Testingenieure suchen ständig nach Möglichkeiten, Testzeiten und Risiken zu reduzieren. Um schneller und effizienter arbeiten zu können, müssen diese Ingenieure in der Lage sein, Testdaten in Echtzeit zu überwachen und darauf zu reagieren, unabhängig vom Datenvolumen. Abhängig von der Art des Tests, der Dauer und der Anzahl der Messungen wird eine Flut an Daten generiert. Die Herausforderung besteht nicht nur darin, die Daten zu erfassen, sondern auch große Datenmengen zu speichern und aufzubewahren sowie die Möglichkeit zu haben, auf diese Daten für eine schnelle kontinuierliche Online-Analyse zuzugreifen. Große Mengen an sowohl strukturierten als auch unstrukturierten Daten erfordern eine hohe Verarbeitungsleistung, Speicherung und eine zuverlässige Dateninfrastruktur. Wenn alle Elemente zusammen in einem skalierbaren Daten-Backend angewendet werden, kann dies die Markteinführungszeit erheblich verbessern, die Kosten senken und bessere Produkte entwickeln. 2. Adaptives und skalierbares Daten-Backend Ein adaptives und skalierbares Daten-Backend bietet eine skalierbare Speicher- und Rechenplattform für die Erfassung von Datenströmen, Konfigurationen zu speichern und Analysen durchzuführen. Um mit ständig wechselnden Anforderungen, Setup- Konfigurationen, Parametererweiterungen und variierenden Abtastraten zurechtzukommen, ist eine Trennung zwischen heißen und kalten Daten die beste Wahl. Rohdaten, also Daten, auf die seltener zugegriffen wird und die nur für Audits oder die Nachbearbeitung von Test benötigt werden (“warm“ bzw. „cold data”), werden in einer verteilen Streaming-Plattform gespeichert, die effizient skaliert. Wenn man aus hunderttausenden von Messwerten pro Sekunde und aus hunderten Kanälen gleichzeitig neue Variablen speichern, verarbeiten und berechnen muss, zeigt diese verteilte Streaming-Architektur Ihre Stärke und Leistungsfähigkeit. Sogenannte „hot data”, also Messdaten, auf die zur Analyse sofort zugegriffen werden muss, werden in einer NoSQL-Zeitreihendatenbank dargestellt. Diese Datenbank speichert die Daten sicher in redundanten, fehlertoleranten Clustern. Alle Messdaten werden automatisch gesichert. Eine flexible Datenaggregation stellt sicher, dass die Messdaten kontinuierlich von der Streaming- Plattform zur Datenbank mit vordefinierten Datensätzen verarbeitet werden, um die Datenverarbeitung von Test Metriken und KPIs, wie Mittelwert, Standardabweichung, Minimum/ Maximum, RMS und viele weitere statistische Kenngrößen zu erleichtern. Dieselben Daten können jedoch erneut abgespielt und anders aggregiert werden, falls eine detaillierte Analyse rund um ein bestimmtes Testereignis erforderlich ist. Dieser Ansatz minimiert die Investitions- und Betriebskosten für die IT- und Speicherinfrastruktur im Prüfstandslabor, während die notwendige Rechen-leistung für testkritische Datenanalyseaufgaben erhalten bleiben. Abbildung 2 - Dimensionen von Datenpaketen Der Test von Flugzeugtriebwerken ist ein typischer Anwendungsfall, bei dem ein skalierbares Daten-Backend große Vorteile bietet. Bei Triebwerkstests werden viele Daten generiert, vor allem, wenn die transienten Reaktionen des Triebwerks aufgezeichnet werden müssen. Die Datenraten können von 10 Samples/ Sekunde bis zu 100.000 Samples/ Sekunde variieren. Die Herausforderung besteht darin, große Mengen an Sensordaten zu speichern, diese rund um die Uhr verfügbar zu halten und eine schnelle Datenanalyse zu ermöglichen. Ein weiteres Beispiel, bei dem ein skalierbares Daten-Backend seine Vorteile beweist, sind Ermüdungstests an großen Komponenten oder Fullscale-Strukturen. Ein typisches Ermüdungs-prüfprogramm ist in eine Reihe von Testblöcken unter-teilt. Am Ende eines jeden Blocks wird der Test gestoppt und der Prüfling auf Risse untersucht. Diese manuellen Inspektionen sind zeitaufwendig und der zeitliche Abstand zwischen diesen Inspektionen ist relativ groß. Strukturelle Anomalien werden möglich-erweise zu spät erkannt und können dazu führen, dass in Betrieb befindliche Flugzeuge nachgerüstet werden müssen. Die zustandsorientierte Prüfung der Messprobe anstelle der intervallorientierten Prüfung ist eine mögliche Lösung, um die Gesamtdauer der Ermüdungsprüfung zu verkürzen und Anomalien schnell zu erkennen. Eine der Implikationen ist, dass mehr Sensoren benötigt werden, um das Verhalten des Prüflings zu überwachen und struk- 1. Fachtagung TestRig - Juni 2022 119 Aspekte intelligenter Prüfstände turelle Ausfälle zu erkennen und vorherzusagen. Da ein Ermüdungstest in vollem Umfang Daten mit einer Geschwindigkeit von bis zu 10 MB/ s erzeugen kann, die sich am Ende auf Hunderte von Terabytes summieren, sind Datenverarbeitung und -analyse zu einem großen Engpass geworden. Um die enormen Datenmengen zu erfassen, zu analysieren, zu speichern und für Anwendungen verfügbar zu machen, entschied sich Gantner Instruments für eine Kombination aus Apache Kafka (Daten-Streaming) und CrateDB (verteile NoSQL-Datenbank, die für IoT-/ Industrieanwendungen entwickelt wurde). CrateDB wird für Echtzeit-Hot-Storage und Kafka für kostengünstige, dokumentenbasierte Speicherung verwendet. 3. Neue Stream-Processing Plattform Apache Kafka ist ein Messaging-System, das es ermöglicht, die von Messgeräten empfangenen Daten in eine Warteschlange zu stellen und für Folgesysteme hochverfügbar zu machen. Kafka schaut sich jeden einzelnen empfangenen Wert an und analysiert ihn für aktuelle Maßnahmen, “Stream-Processing”. Um die enormen Datenmengen zu erfassen, zu speichern und für Folgesysteme zugänglich zu machen, bedarf es jedoch einer Datenbank, die die entsprechende Performance und Schnittstellen bietet, die einen schnellen und komfortablen Zugriff ermöglichen. Abbildung 3 - Optionen für die Stream-Verarbeitung Die CrateDB ist eine neuartige verteilte SQL-Datenbank, die die Handhabung der Zeitreihenanalyse verbessert. Die Verwendung von SQL als Abfragesprache vereinfacht die Anwendung und Integration, und die NoSQL- Basistechnologie ermöglicht die Verarbeitung von IoT- Daten in einer Vielzahl von Formaten. Die CrateDB kann Hunderte von Terabyte an Daten aufnehmen und garantiert dank der Shared-Nothing-Architektur innerhalb von Server-Clustern eine Echtzeitverfügbarkeit ohne Datenverlust oder Ausfallzeiten. Die Arbeit mit CrateDB zeigt das Potenzial, das sich aus der Kombination von Edge Computing, Big-Data-Verarbeitung und maschinellem Lernen ergeben kann. 4. Konnektivität Immer mehr Prüflabore verwenden spezialisierte Steuerungs-, Überwachungs- und Datenerfassungssysteme. Beispiele aus der Praxis haben gezeigt, dass die fehlende Integration zwischen diesen Systemen immer noch zu einer späten Erkennung von Struktur- oder Systemanomalien führt. Einer der Gründe dafür ist, dass Multi-Sourceund/ oder Metadaten während des Tests nicht ohne weiteres verfügbar sind. Die Messdaten können daher erst am Ende des Testlaufs (oder in vor-definierten Intervallen) vollständig analysiert werden. Abbildung 4 - Zusammenwirken von Daten und online Analysen Die Kafka-Stream-Processing-Engine verfügt über einen umfangreichen Satz von APIs zur Integration von Datenströmen von Drittanbietern, z. B. von einem Steuerungssystem. Die primären Messdaten können mit Steuerungs- und Simulationsdaten angereichert werden. Die Bereitstellung einer offenen Softwarearchitektur, die eine Vielzahl von Publish-Subscribe-basierten Protokollen (wie MQTT und DDS) unter-stützt, ermöglicht die nahtlose Integration mit anderen Überwachungs-, Analyse- und Reporting-Tools. Für Prüfstandslabore, die derzeit automatisierte Test-systeme unterhalten, bietet die Anwendungsprogrammierschnittstelle (API) eine einfache Möglichkeit, bestehende Umgebungen zu integrieren. Im Gegenzug sind sie in der Lage, die automatischen Aufzeichnungs-, Datenspeicher-, Plot- und Konfigurationsmanagementfunktionen zu nutzen. Benutzer können auch pro-grammatisch auf Daten zugreifen, die im Daten-Backend gespeichert sind, um sie für benutzerdefinierte Grafik-, Analyse- und Berichterstellungsanwendungen zu verwenden. 120 1. Fachtagung TestRig - Juni 2022 Aspekte intelligenter Prüfstände Abbildung 5 - Konnektivität in Cloud, Desktop und Smart Edge Die moderne Philosophie ist es, den Kunden offene Schnittstellen zur Verfügung zu stellen, in denen sie Daten speichern und an beliebige Stellen senden können. 5. Schnelle Analyse Die Analyse oder Fehlererkennung unterscheidet sich je nach Anwendung. Gemeinsame Software und Benutzeroberflächen für die Verwaltung, Visualisierung, Berichterstellung oder die Definition dedizierter Ereignisregeln vereinfachen den Zugriff und die Integration. Dieser Ansatz minimiert die Investitionskosten für die IT- und Speicherinfrastruktur im Prüfstandslabor, während die notwendige Rechenleistung für testkritische Datenanalyseaufgaben erhalten bleibt. Um zum Bei-spiel zeitliche und räumliche Analysen von Flugzeug-triebwerken durchzuführen oder die mechanische Re-aktion einer Flugzeugstrukturkomponente besser zu verstehen, ermöglichen leistungsstarke Abfragefunktionen den Ingenieuren die Analyse großer Sensordatenmengen on-thefly. Die Trendüberwachung über die gesamte Lebensdauer des Tests signalisiert schnell jede signifikante Änderung der Reaktion des Testobjekts zwischen sich wiederholenden Testbedingungen. Mit einer adaptiven und skalierbaren Daten-Backend-Lösung ermöglicht man also den Testlaboren, beliebige physikalische Daten in Echtzeit und unabhängig von der Datenmenge zu erfassen, zu überwachen, zu analysieren und darauf zu reagieren und so Daten in Erkenntnisse zu verwandeln. Abbildung 6 - GI.bench DAQ-Software mit Konnektivitäts-Diensten und Analyse Dashboards 6. Zusammenfassung Mit der vorgestellten adaptiven und skalierbaren Data Back-End Lösung stellt Gantner Instruments Testlaboren und Teststandhersteller eine Plattform zur Verfügung, mit der man beliebige physikalische Daten in Echtzeit erfassen, überwachen, analysieren und darauf reagieren kann, unabhängig von der Datenmenge. Daten werden direkt in Erkenntnisse umgewandelt.
