Festo, der Hersteller von Industriesteuerungen, unterstützt große und kleine Unternehmen bei der Verbesserung ihrer Effizienz durch die Bereitstellung von Technologien zur Automatisierung schwieriger Arbeitsabläufe. Da die Fertigungsprozesse jedoch immer komplexer werden, setzt Festo auf die Leistungsfähigkeit des High-Performance Computing (HPC), um Lösungen besser auf die individuellen Bedürfnisse von Kunden zuzuschneiden.
29. Jul 2021
HPC in der Industrie
Fertigung & Produktion
KI & Datenanalyse
Alle Nachrichten
„Angesichts künstlicher Intelligenz (KI) und anderer neuer Technologien wünschen sich die Menschen immer häufiger maßgeschneiderte Lösungen für ihre Fabriken“, sagte Dr. Shahram Eivazi, Forscher bei Festo. „Diese Systeme müssen anpassungsfähig sein, damit sie sich verändern können, und gleichzeitig sicher im Zusammenspiel mit den Menschen sein, die am Herstellungsprozess beteiligt sind.“
Im Rahmen des CATALYST-Projekts begann Festo mit dem HLRS zusammenzuarbeiten und die HPC-Ressourcen des Zentrums zu nutzen, um gemeinsam einen KI-Workflow für das Training von Robotern zu entwickeln, der auf biologischen Lernprinzipien basiert.
Wenn eine Maschine ein neues Verhalten „erlernen“ soll, setzen Forscher:innen hauptsächlich drei verschiedene Methoden ein. Bei den ersten beiden, dem überwachten und dem unüberwachten Lernen, setzen sie große Datenmengen ein, um einen Algorithmus so zu trainieren, dass er effektiv Muster erkennt.
Bei Robotern, die komplexe Aufgaben automatisieren sollen, ist jedoch ein genaueres Training erforderlich. Aus diesem Grund setzt das Team von Festo auf das sogenannte „Verstärkungslernen“, ein Verfahren der künstlichen Intelligenz, die sich stark an Methoden aus der frühkindlichen Entwicklung orientiert. Vereinfacht gesagt, trainieren die Wissenschaftler:innen den Algorithmus, indem sie eine Mischung aus Eingabedaten aus dem Forschungs- und Entwicklungslabor von Festo sowie Video- und Sensordaten aus Produktionsstätten verwenden. So erhält der Algorithmus Feedback und wird „gezwungen“, aus Versuchen und Fehlern zu lernen.
Durch die Anpassung dieser Methode an spezifische Szenarien kann Festo Kunden bei der Entwicklung komplexer Automatisierungsabläufe helfen, die Interaktionen zwischen Menschen und Robotern erfordern. „Wir möchten diese Art von Interaktion sicherer machen, damit wir keine Barrieren zwischen Robotern und Arbeitern errichten müssen", sagte Eivazi.
Das Team von Festo benötigt etwa 70 bis 100 Terabyte an Daten, um seinen Algorithmus zu trainieren; eine Menge, die die hauseigenen Computer-Ressourcen übersteigt. Durch die Zusammenarbeit mit dem HLRS konnte Festo die Vorteile der GPU-basierten Cray CS-Storm-Anlage des Zentrums nutzen. „Durch die Zusammenarbeit mit dem HLRS können wir die Frage beantworten: Was wäre, wenn wir stattdessen Zugang zu Tausenden von CPUs hätten?“, sagte Eivazi.
Um diese Leistungsstärke zu nutzen, müssen die Forschenden ihre Software auf ein größeres System anpassen. Mit Unterstützung von Dennis Hoppe und Oleksandr Shcherbakov vom HLRS hat das Team die bisherige Anwendung so portiert, dass sie auf den HLRS-Systemen effektiv läuft.
Reine Rechenleistung hilft jedoch nicht viel, wenn Forschende nicht in der Lage sind, große Datensätze effizient zu bewegen und zu speichern. Mit einer robusten Speicherinfrastruktur kann das HLRS die Daten von Festo in einer sicheren Umgebung effektiv verwalten, die mit verschiedenen Simulations- und Datenanalysetools kompatibel ist.
Festo hat drei wesentliche Herausforderungen genannt, die das Team während der weiteren Zusammenarbeit bewältigen muss.
Erstens muss das Team seinen Algorithmus effektiv trainieren, damit er mit der Zeit „intelligenter“ wird. Dies könnte durch die Wiederverwendung von Datensätzen für spätere Trainingsmöglichkeiten erreicht werden.
Zweitens ist es eine Herausforderung, aussagekräftige Datensätze zu sammeln. Simulationen können so schnell ablaufen, wie es die Rechenleistung zulässt. Wenn Festo allerdings Experimente in seinem eigenen Forschungs- und Entwicklungslabor durchführt, bedeutet das, dass sich die Roboter mit realen Geschwindigkeiten bewegen müssen, die aus Sicherheitsgründen nicht zu schnell sein dürfen.
Schließlich muss das Team die Bewegung der Daten vom HLRS optimieren, um die gewonnenen Erkenntnisse schnell in realen Fertigungsszenarien anwenden zu können. Hier wird sich das HLRS auf seine Erfahrungen beim Aufbau seiner Datenübertragungsfähigkeiten im Rahmen der InHPC-DE-Initiative des Gauss Centre for Supercomputing stützen, die die Entwicklung seiner Hochgeschwindigkeits-Datenübertragungsinfrastruktur unterstützt hat.
-Eric Gedenk
Finanziert wurde Hawk vom baden-württembergischen Ministerium für Wissenschaft, Forschung und Kunst (MWK) sowie vom Bundesministerium für Bildung und Forschung (BMBF), vermittelt durch das Gauss Centre for Supercomputing (GCS).