Automation Symposium 2018

Erfolgreicher Abschluss des Automation Symposiums 2018

(Bild: Sabine Mühlenkamp)

Wie lässt sich die Produktion und die Verfügbarkeit mithilfe von Smart Data-Ansätzen optimieren – Antworten darauf gab es auf dem Automation Symposium in München-Garching.

„Es geht bei smarten Ansätzen der Datenanalyse nicht darum, möglichst viele Daten zu analysieren, sondern die vorhandenen Daten klug auszuwählen, zielgerichtet zu analysieren und nachvollziehbar darzustellen“, eröffnete Prof. Vogel-Heuser das Automation-Symposium, Ende September in München. Ein Schwerpunkt der Vorträge lag in diesem Jahr auf dem vor kurzem abgeschlossenen Forschungsprojekt SIDAP (Skalierbares Integrationskonzept zur Datenaggregation, -analyse, -aufbereitung von großen Datenmengen in der Prozessindustrie). Das Projekt ist eines von 13 ausgewählte Leuchtturmprojekten im Technologieprogramm "Smart Data - Innovationen aus Daten des Bundesministeriums für Wirtschaft und Energie (BMWi). Für Dr Volker Genetzky, BMWi, Innovationsabteilung, der seit 2014 das Sidap-Projekt begleitet, ist Sidap eine echte Erfolgsstory. „Sidap war ein herausragendes Projekt im Rahme der Big Data-Projekte, insbesondere für die Prozessindustrie. Hier wurden bedeutende und gravierende Fortschritte und Erkenntnisse erreicht. Gerade im Hinblick auf die internationalen Wettbewerbsfähigkeit ist es wichtig, dass wir mit Industrie 4.0 Projekten ganz vorne liegen. Dies gelingt uns mit dem Transfer der Ergebnisse aus der Universität in die Wirtschaft, und hier insbesondere in den Mittelstand.“

Obwohl das SIDAP-Projekt in der Prozessindustrie angesiedelt ist, zeigte sich während der drei Jahre deutlich, wo die Herausforderungen liegen, wenn auf der einen Seite vollmundig von Industrie 4.0 und vernetzten Prozessen gesprochen wird und auf der anderen Seite eine Chemieanlage mit vielen analogen Messgeräten die Realität widerspiegelt. „In einer typischen Chemieanlage sind bis zu 100 verschiedene IT-Systeme im Einsatz. Hier die richtigen Daten für ein weitergehen Analyse im Sinne des Data Mining zu extrahieren, ist extrem schwierig“, nannte Dr. Thomas Pötter, Bayer AG, nur eine Hürde. „Gerade die heterogenen Datenquellen sind eine große Herausforderung, im Prinzip kann schon ein einfacher Druckmittler Überraschungen bieten.“

Dabei sind automatisierte, prozesstechnische Anlagen im täglichen Betrieb eigentlich eine Goldgrube, schließlich generieren sie einen kontinuierlichen Strom an Messdaten. Hinzu kommen Qualitätswerte, Auftrags- und Wartungsdaten, die zusammengenommen eine enorme Anhäufung an Daten und potentieller Information darstellt. Diese will man nutzen, um beispielsweise Geräteausfälle vorauszusagen und eine vorbeugende Instandhaltung zu betreiben. Allerdings werden diese Daten von den Unternehmen häufig in unterschiedlichen IT-Systemen gesammelt und nur als lokales Ereignis (in einer Anlage) betrachtet.

Big Data-Mining funktioniert hier nur bedingt, Smart Data schon eher, wie sich im Lauf des dreijährigen Sidap-Projekt zeigte. Die Lösung liegt eindeutig in interdisziplinären Teams. „Dass man für eine Optimierung und Analyse lediglich einen Data-Scientist benötigt, ist ein Irrglaube“, so Dr. Pötter. „Dieser hat zwar das Methoden-Know-how, weiß aber meist nichts über den Prozess.“ Bei Sidap kam das Know-how daher aus ganz unterschiedlichen Bereichen, die auf dem Symposium über ihre Erfahrungen berichteten.

Strukturierung vorhandener Daten

Eine der Kernfragen war beispielsweise, wie Daten strukturiert werden müssen und wie diese bestehenden Systeme angebunden werden. Der Lehrstuhl Automatisierung und Informationssysteme an der TU München und das Fraunhofer Institut IOSB-INA zeigten, wie ein heterogenes Informationsmodell, das einen hohen Aufwand für Datenintegration und Engineering benötigt, in ein gemeinsames Informationsmodell umgewandelt wird, so dass ein einheitliches Datenverständnis mit einem Plug & Monitor möglich ist. Heterogene Informationsmodelle lassen sich über eine Middleware miteinander verknüpfen, Datenadapter übersetzen zwischen verschiedenen Protokollen und reichen die Modell auch mit Semantik an. In diesem Sinne wurde ein Gesamtkonzept für Smart Data Systemarchitektur entwickelt. Dabei spielt der zweite Datenkanal, wie er derzeit auch in der Namur diskutiert wird, eine zunehmend wichtiger Rolle.

In dem Sidap-Projekt konzentrierte man sich auf die Daten aus Regelventilen. Zum einen weil diese Komponenten so wichtig für den gesamten Prozessverlauf sind, dass sie meist ein(zu) hohes Maß an Wartung erfahren. Diesen Aufwand möchte man reduzieren. Zum anderen sind sie aber auch Paradebeispiele für Mittler zwischen der analogen und digitalen Welt. Schon heute sind Stellungsregler in der Lage, viele Information weit über das eigentliche Gerät hinaus zu liefern. Doch ganz so einfach ist es nicht, wie im Lauf des Projektes deutlich wurde. „Es sind zwar viele Daten vorhanden, die sind aber unspezifisch und sind häufig nicht die richtigen für die Vorhersage eines Wartungsbedarfs“, berichtete Christian Vernum, Evonik.

Eine weitere Herausforderung lag in der mangelnden Verfügbarkeit von Fehlerfällen von Regelventilen in historischen Daten. Wie lässt sich so ein Modell trainieren? Die Antwort bedeutete den Aufbau eines Versuchsstandes und dies – so Dr. Norbert Fabritz, Evonik, – war am Anfang des Sidap-Projektes definitiv nicht geplant. Aber erst mit einem Modell, dass Daten eines intakten Ventilkegels mit den Daten eines defekten Ventilkegels vergleicht, kam das Team weiter. Mit diesen Daten gelang es, alle zuvor als relevant identifizierten Messgrößen zu erheben, gezielt Fehlerbilder in die verwendeten Ventile einzubringen und somit sowohl Fehlerdetektions- als auch Fehleridentifikationsmodelle zu entwickeln. Auch wenn sich dies nicht 1:1 in die Praxis übertragen lässt (so wird im Versuchsstand mit Wasser gefahren), lieferte dies wichtige Erkenntnisse, die sich auch auf andere Ventilfehler übertragen lassen.

Stefan Unland, Samson, wurde noch deutlicher in dem er das bunte Sammelsurium an Ventilen, Anwendungen und Prozessbedingungen betonte. „Dies musste erstmals strukturiert werden. Die Schadensklassifikation bildet die Voraussetzung für eine automatisierte Auswertung“, nannte er die Hauptaufgabe. Die Erkenntnis aus diesen Vorarbeiten war, dass die vorhandene Sensorik nicht ausreichte. Der Aufwand für eine Nachrüstung ist jedoch beträchtlich. Die Lösung lag auch hier in einem zweiten Datenkanal, um eine zentrale Auswertung außerhalb der bestehenden Hierarchie vorzunehmen.

Wie diese Anbindung vonstatten ging, erklärte Dr. Jörg Nagel, Neoception. „Die größte Herausforderung bei der Entwicklung des Übertragungskonzepts war, mit möglichst geringem Implementierungsaufwand Daten aus Feldgeräten in einer produktiven Anlage einem externen Datenanalysten zur Verfügung zu stellen.“ Im Projekt wurden dafür fünf Armaturen mit einem Stellungsregler, zwei Drucksensoren und einen Temperaturtransmitter zur Übermittlung des Drucks und der Temperatur vor und nach dem Ventil ausgestattet. Insgesamt wurden also 35 Feldgeräte über WirelessHART angebunden. Um schneller zu werden, wurde die Daten in azyklische und zyklische Daten unterteilt. Die zyklischen Daten umfassen alle Prozessdaten wie Drücke, Temperaturen, Soll- und Ist-Werte des Ventils und verbleibende Restkapazität der batterie-betriebenen WirelessHART Adapter. Als azyklische Daten gelten alle Daten, wie Histogrammdaten und andere bereits in den Feldgeräten vorverarbeitete Statistiken.

Neue Optionen durch Cloud-Konzepte

„Cloud-Computing hat den Charme, dass sich die Flexibilität steigern lässt und dies zu überschaubaren Kosten, davon profitieren vor allem kleine und mittelständische Unternehmen“, erklärte Peter Schleinitz von IBM Deutschland. Im Sidap-Projekt wurden daher unternehmensübergreifende, sichere und skalierbare Daten-Integrationsarchitekturen entworfen. Dabei stieß man durchaus auf Hindernisse, etwa in Bezug auf die Interpretierbarkeit von Daten. „Eine einheitliche und präzise Semantik ist der Schlüssel für den Erfolg“, so Schleinitz. In der Praxis ist es jedoch meist so, dass sich etwa die Schreibweise von Anlagenkennziffern zwischen den Planungssystemen und den Daten-Historian-Systemen leicht unterscheiden. Häufig sind auch Hersteller-Bezeichnungen, Asset-Eigenschaften oder Maßeinheiten in den verschiedenen Systemen leicht unter-schiedlich benannt. Allerdings warnte Dr. Matthias Steffen, Bayer, davor, neue Standards einzuführen: „Es gibt genug Standards, auch zur Semantik. Vielmehr geht es darum, diese zu nutzen, zu kombinieren oder eine Übersetzung zu ermöglichen.“ Im Zuge des Projektes ergaben sich weitere interessante Fragestellungen, etwa in puncto Sicherheit oder wie es mit der Vertraulichkeit aussieht. So würde es durchaus Sinn machen, Informationen über Stellventile nicht nur Anlagen- und Standortweit zusammen zu tragen, sondern auch unternehmensübergreifend. Das dies funktioniert, wurde im Sidap-Projekt unter Beweis gestellt.

Auch wenn die Daten der Regelventile von Anlagen in Chemiekonzernen stammen, Smart Data-Konzepte können auch von kleine und mittelständische Unternehmen umgesetzt werden. So wurde mit CRISP-DM von Gefasoft zunächst ein geeignetes Prozessmodell als Leitfaden für die Einführung und den Einsatz von Data Mining identifiziert. Darüber hinaus wurde ein modularer Softwarebaukasten entwickelt. Dieser basiert auf Open-source-Umgebungen und Bibliotheken zur Ausführung von Data Mining Algorithmen, wodurch keine hohen Lizenzkosten wie bei kommerziellen Umgebungen entstehen. So gelingt ein skalierbarer und schrittweiser Einstieg in die Datenanalyse mit Smart Data Algorithmen für kleine und mittelständische Unternehmen.

Insgesamt hat das SIDAP-Projekt gezeigt, dass der Weg zu einer vorbeugenden Instandhaltung mithilfe von Big-Data-Analysen zwar mitunter Überraschungen bereit hält und erheblich mehr Detailarbeit verlangt als zunächst erwartet. Dennoch zeigen die Lösungen, wie sich Modelle entwickeln und wie sich viele verschiedene Datensätze so zusammenführen lassen, dass diese automatisiert nutzbar sind.

Von anderen Anwendungen lernen

Das Symposium lieferte aber auch einen Überblick, wie andere Branchen mit dem Thema umgehen. So sind Anlagenrundgänge die Basis jeder Instandhaltung. Das Anlagenpersonal läuft mit offenen Augen, Ohren durch die Anlage und bewertet den Zustand. Allerdings hängt der Erfolg von der Erfahrung des Prüfers ab. Interessant wäre es daher, kritische Anlagenbereiche durch eine integrierte Sensorauswertung zu überwachen und das Personal zu entlasten. Ein Beispiel dabei ist die Leckage Erkennung mit Hilfe thermographischer Bilder, die über Algorithmen ausgewertet werden. „Das Problem dabei ist, dass Videoanalysen nicht detektieren und alarmieren, sondern nur zeigen. Daher wurde untersucht, wie man Videobilder so ertüchtigt, dass sie für Bedienpersonal erkennbar sind“, erklärte Emanuel Trunzer, TU München, der gemeinsam mit Dr. Matthias Odenweller, Evonik, dafür eine Methode entwickelte.

Auch aus IT-Sicht gibt es noch weitere Möglichkeiten für die intelligente Datenverarbeitung. So zeigte Dr.-Ing. Gallasch von der Software Factory eine Möglichkeit, wie man ohne IT-Experten im eigenen Unternehmen auf intelligente IT-Werkzeuge zurück zugreifen. Er stellte ThingWorx vor, mit dem industrielle Betriebsdaten erfasst, aggregiert und auf dies zugegriffen werden können. In der Praxis bereitet Anwendern meist die sehr heterogene Automatisierungs- und Applikationsinfrastruktur im Unternehmen Schwierigkeiten. Meist müssen viele Punkt-zu-Punkt Datenzugriffe individuell und mit hohem Engineering-Aufwand umgesetzt werden, um über die bestehende Automatisierung hinaus Anwendungen zu schaffen. „ Das ist für viele Unternehmen nicht möglich, bzw. ist sehr komplex“, so die Erfahrung von Gallasch. Das Plattformdesign von ThingWorx ermöglicht die Anbindung, Verwaltung, Überwachung und Steuerung unterschiedlicher Automatisierungsgeräte und Softwareanwendungen. Beispielsweise ist hier auch ein Analytics-Tool eingebettet. Das Engineering-Tool automatisiert komplexe Analyseprozesse, da selten Kapazität in Form von Datascientists oder Programmierern mit Know-how im Bereich statistischer Algorithmen bereitsteht.

Wie Condition Monitoring Systeme als Datenlieferant für Big Data Anwendungen genutzt werden, stellt Dr.-Ing. Jörg Folmer, von der Prüftechnik Condition Monitoring vor. Das Unternehmen hört seinen Anlagen quasi zu, in dem es Vibrationen und Schwingungen erfasst. Wie das in der Praxis funktioniert, zeigte Folmer am Beispiel von Windenergieanlagen. Hier wird zwischen Bewegung, Maschinenschwingung und Körperschall mit deren Frequenzbereichen unterschieden. Diagnostiziert wird der Maschinenzustand klassischerweise über Frequenz- und Ordnungsspektren. Der Anstieg von individuellen Frequenzamplituden lässt auf einen sich anbahnenden Schaden schließen; d.h. der kontinuierliche Anstieg von Amplituden definierter Frequenzen im Laufe der Zeit zeigt einen möglichen Schaden an. Aber auch hier gilt ähnlich wie im Sidap-Projekt: „Man braucht immer die Rückmeldung vom Kunden. Nur so können wir grundsätzliche Änderungen richtig beurteilen.“, so Folmer, der überzeugt ist, dass längst noch nicht das gesamte Potential von Condition Monitoring ausgeschöpft wurde.

Instandhaltung vereinfachen

Zur Herausforderung werden auch Anwendungen, in denen viele Aufgaben synchron erledigt werden müssen, beispielsweise wenn große Anlagen, etwa in der Holzverarbeitungsindustrie, umgerüstet werden. Auch hier macht sich zudem der zunehmende Mangel an gut ausgebildeten Fachleuten bemerkbar. An der TU München arbeitet man daher an einem Projekt, wie man verschiedene Assistenzsysteme so miteinander verbindet, dass die Instandhaltung einfacher wird, selbst bei Einschränkungen, seien sie körperlicher oder kognitiver Art. Bisher konzentrieren sich bestehende Assistenzsysteme meist nur auf eine spezifische Ausgabetechnik und sind somit wenig flexibel. Nur ein Beispiel: Bei komplexen Montagetätigkeiten können mittels Augmented Reality detaillierte Informationen eingeblendet werden, wohingegen sprach-basierte Interaktion bei der Durchführung einfacherer oder bekannterer Tätigkeiten eingesetzt werden kann.

Bei Fanuc möchte man es erst gar nicht zum Ausfall kommen lassen, daher wurden ihre Roboter unter dem Stichwort „ZeroDownTime“ so ertüchtigt, dass sie frühzeitig den Bediener über ungewöhnliche Situationen informieren. Die Zero Down Time Funktion (ZDT) umfasst mehrere für die präventive Wartung nützliche Funktionen und verwaltet die Informationen zentral auf einem Server, um so die Roboterausfallzeiten zu minimieren. Dabei erkennt die Funktion abweichende Verhaltensweisen des Roboters. Ergebnisse könnten sein: „Wechsel des Schmiermittels für Roboter 2 im November 2018 oder Getriebe J2 von Roboter 3 muss ausgetauscht werden. Fehler können aber auch sein, dass in J2 Vibrationen erkannt worden sind“ berichtet Ralf Winkelmann von Fanuc. „Wird eine Anomalie festgestellt, liefert das System auch die entsprechenden Tools dazu. Ziel ist die 360° Datenüberwachung.“ Zudem setzt man bei Fanuc auf den Plattform-Gedanken. Mit der offenen Plattform FIELD lassen sich in einem Werk verschiedene Industrial IoT-Anwendungen ausführen. Durch den Aufbau eines interaktiven Netzes aus vernetzten Maschinen und Anlagen soll das FIELD System enorme Datenmenge auswerten. Dabei sollen auch Geräte von Drittherstellern, wie Maschinen, Roboter, Sensoren und alle anderen Geräte an das FIELD System angeschlossen werden.

Abschließend stellte Dr. Christoph Paulitsch von Siemens vor, wie plattformbasierte Datenanalysenverfahren in einen Analyseprozess eingebunden werden, damit sich Vorhersagemodelle weitgehend automatisiert für eine Vielzahl von Applikation erstellen lassen. Allerdings – und hier schließt sich wiederum der Kreis zum Sidap-Projekt - benötigt man ebenfalls ein aktuelles Vorhersagemodell und die Verfügbarkeit relevanter Maschinendaten.

Vorträge und Tagungsband

Aufzeichnung von allen Vorträgen zum Projekt SIDAP sowie den kompletten Tagungsband zum freien Download finden Sie auf der Projekthomepage von SIDAP unter dem Menüpunkt "Abschlussveranstaltung".

Kontakt

Für weitere Informationen wenden Sie sich bitte an:

E-Mail: events@ais.mw.tum.de
Tel.: +49 (0) 89 289 16400