Ohne Blechumformung geht nichts in der Automobilindustrie. Türen, Motorhauben und Kotflügel entstehen auf diesem Wege. Es sind teils sehr komplexe Geometrien, die das fertige Bauteil annehmen muss. Simulationen erleichtern seit Jahren die Auslegung der dafür erforderlichen Umformwerkzeuge, dadurch lässt sich zum Beispiel der Aufwand fur die Nachbearbeitung senken. Dass Simulation und Realitat bei der Blechumformung nur begrenzt übereinstimmen, ist jedoch nicht zuletzt angesichts der hohen Kosten der Werkzeuge ein Problem. In der Automobilindustrie liegen diese Kosten schnell im siebenstelligen Bereich – pro Werkzeug. Um Simulation und Realität einander weiter anzunähern, sind akkurate Materialdaten erforderlich. Ein Team um Dr. Celalettin Karadogan vom Institut fur Umformtechnik (IFU) und Dennis Hoppe am Höchstleistungsrechenzentrum Stuttgart (HLRS) arbeitet derzeit gemeinsam an einem Ansatz, um mit möglichst wenig experimentellem und zeitlichem Aufwand solche Daten fur die Materialmodelle der Simulationen präzise zu ermitteln.
20. Okt 2021
Anwender-Forschung
Materialwissenschaft
KI & Datenanalyse
Alle Nachrichten
„Um Umformprozesse zu berechnen, gibt es heute etablierte Modelle fur das verwendete Material und etablierte Tools fur die Simulation auf der Grundlage dieser Modelle“, erklärt Karadogan. „Das Verhalten des simulierten und des physischen Werkstoffs weichen trotzdem voneinander ab, weil wir fur die Materialmodelle zwar physikalische Größen, etwa die Fließspannung, experimentell ermitteln können, diese Messdaten sich dann aber nicht unmittelbar als Größen in das mathematische Modell übertragen lassen.“
Das Verhalten des simulierten und des physischen Werkstoffs weichen stark voneinander ab. Ein neuronales Netz soll Abhilfe schaffen. Foto: Max Kovalenko.
Diesen Transfer will Karadogans Team nun mit Hilfe von KI – genauer: eines neuronalen Netzes – leisten. „Wir projizieren während der Materialversuche ein Muster auf unsere Proben, das wir gemeinsam mit den gemessenen Kraften erfassen“, erklart er. Ein neuronales Netz bekommt die Bilddaten der Muster und die gemessenen Krafte als Eingangsdaten, um vor diesem Hintergrund die mathematischen Größen des Modells zu suchen. Die mathematischen Größen variiert das Team numerisch, um möglichst viele Materialien abzudecken. „Statt zwei Messwerte pro Versuchsprobe in bisherigen Ansätzen bekommen wir so 1.000 Messwerte pro Probe“, verdeutlicht Karadogan den Unterschied.
Hierfür muss das neuronale Netz zwei Milliarden Simulationen durchspielen. Da so etwas bei Weitem nicht mehr mit einem konventionellen Rechner zu leisten ist, hat Karadogans Gruppe über das Gauss Centre for Supercomputing 100 Millionen Kernstunden Rechenzeit auf Hawk beantragt, dem Supercomputer des HLRS. Ein Kern ist eine Prozessoreinheit des Supercomputers. In Zusammenarbeit mit dem Team von Dennis Hoppe, Leiter Service Management & Business Processes am HLRS, kombinieren die Wissenschaftler nun Simulationen und KI – ein Zusammenwachsen, das immer häufiger Anwendung in den Datenwissenschaften findet und am HLRS im Rahmen des Projekts CATALYST intensiv erforscht wird. Dass der Ansatz prinzipiell funktioniert, konnten die Beteiligten bereits in einem Vorprojekt zeigen, bei dem fünf Millionen Simulationen als Trainingsdaten für das neuronale Netz dienten.
— Michael Vogel
Dieser Artikel wurde ursprünglich unter dem Titel "Simulationen besser machen" in der Septemberausgabe 2021 von Forschung Leben, dem Magazin der Universität Stuttgart, veröffentlicht. Wiederveröffentlichung mit Genehmigung.