Assistenzsysteme für die Blechumformung

25.07.2017

Kontakt

Telephone

work Phone
+49 241 80 27999

E-Mail

Das Werkzeugmaschinenlabor hat innerhalb der Forschungsinitiative „Mittelstand 4.0 Kompetenzzentrum“ einen portablen Demonstrator entwickelt, der die Vision von Industrie 4.0 für die mittelständische Blechumformung greifbar macht. Der Material Scanner (MatS) demonstriert am Beispiel des Feinschneidens, wie durch Verschmelzung der Fertigungs- und Informationstechnik implizites Prozesswissen sichtbar gemacht und zur optimierten Prozessführung genutzt werden kann.

 
 

Der Demonstrator besteht aus insgesamt drei Bausteinen:

  • einem Prüfstand zur Simulation feinschneidtypischer Phänomene (a)
  • einer Grafikprozessor-basierten Recheneinheit zur zentralen Verarbeitung von Messdaten (b)
  • einer drahtlosen grafischen Benutzeroberfläche zur dezentralen Visualisierung von Messdaten (c).

Im aktuellen Entwicklungsstand wird der Blechtrennungsprozess ohne Durchführung eines echten Trennvorgangs simuliert. Dies geschieht mithilfe eines Schnittschlagsimulators, der in Intervallen auf einen Blechstreifen schlägt und dadurch einen mechanischen Impuls (Schnittschlag) wie auch ein akustisches Signal (Schnittklang) erzeugt. Über entsprechende Sensoren werden Schnittschlag und Schnittklang erfasst und drahtlos an die zentrale GPU-Recheneinheit übermittelt. Zusätzlich werden ausgewählte Werkstoffeigenschaften des Blechstreifens erfasst und mit dem Schnittschlag und -klang korreliert. Mithilfe von Algorithmen aus dem Bereich der künstlichen Intelligenz ist es dann möglich, auf Prozessanomalien in Echtzeit reagieren zu können.

  Menschen sitzen an Tisch mit Unterlagen Urheberrecht: WZL/Kaufmann

Echtzeit-Datenanalyse mithilfe von künstlichen neuronalen Netzen

Zweiter Baustein und Kernstück des Demonstrators ist die zentrale Grafikprozessor-basierte Recheneinheit. Ein künstliches neuronales Netz korreliert dort Werkstoffeigenschaften, Prozessparameter und die o. g. perzeptiven Messgrößen, den Schnittschlag und -klang. Google demonstrierte 2016 eindrucksvoll die Möglichkeiten von künstlichen neuronalen Netzen, als es zum ersten Mal gelang, einen menschlichen Gegenspieler mithilfe eines Computerprogramms im Brettspiel Go zu schlagen. Die Besonderheit lag nun aber nicht darin, dass dies gelungen ist, sondern wie es gelungen ist. Das künstliche neuronale Netz hat Spielzüge abgeleitet, die in der über 2000 Jahre alten Spieletradition für den Menschen unentdeckt blieben.

Auf diese Spielzüge gab es folglich keine Antwort. Übertragen auf den Feinschneidprozess ist nun das Ziel mithilfe von perzeptiven Messgrößen, wie dem Schnittschlag und -klang sowie mit künstlichen neuronalen Netzen, implizite Prozesszusammenhänge sichtbar zu machen. Dadurch wird eine bisweilen unbekannte Prozessoptimierung ermöglicht. Hierfür wird in aktuellen Forschungsarbeiten am WZL ein auf künstlichen neuronalen Netzen basierte Softwareplattform entwickelt, welche Sensordatenströme in Echtzeit analysieren kann. So wird es unter anderem möglich sein, Anomalien im Schnittschlag und Schnittklang in Echtzeit zu erkennen und deren Ursachen zu identifizieren. Ursachen und Auswirkungen werden dann über eine drahtlose Visualisierung sichtbar gemacht.

Immer und überall informiert, dank drahtloser, dezentraler Visualisierung

Eine drahtlose, dezentrale Visualisierung ist der dritte Baustein des Demonstrators. Mithilfe einer beispielhaften Benutzeroberfläche wird demonstriert, wie ein Maschinenbediener im realen Prozess in Echtzeit über Ursachen und Auswirkungen von Prozessanomalien informiert werden kann. Die Entwicklung dieser Benutzeroberfläche ist ebenfalls Gegenstand aktueller Forschung. Besonderen Wert wird dabei auf die leichte Verständlichkeit der Benutzeroberfläche gelegt, damit der Maschinenbediener unkompliziert die notwendigen Informationen erhält, um den Prozess zu jederzeit optimal führen zu können.