Induktives Schmelzen
Im Rahmen des Projektes untersuchten Tim Kaufmann, Hochschule Kempten; Christoph Jonas und Friedrich Lohmann-Voß, Friedrich Lohmann GmbH, wie der Energieverbrauch beim Schmelzen von Stählen im Mittelfrequenz-Induktionsofen optimiert werden kann. Ziel der Arbeit war es, die Einflussfaktoren der individuellen Gattierung auf den jeweiligen Energieverbrauch numerisch zu beschreiben, um eine zukünftige Kostenoptimierung bei der Gattierung zu ermöglichen. Die Modellierung erfolgte exemplarisch anhand des Werkzeugstahls 1.2379 (X153CrMoV12).
Datenbasis
Für die numerische Analyse des Schmelzens wurden Daten des Mittelfrequenz-Induktionsofens der Firma Lohmann verwendet. Der Datensatz umfasste 60 Einflussvariablen (Schrotttypen, Anteil Kreislaufschrott und Fremdschrott an der Gattierung) und den Energieverbrauch als Zielgröße.
Zur Modellerstellung (überwachtes Lernen) und zur Modellinterpretation wurden die Frameworks „XGBoost“ und „SHAP“ genutzt. Bei dem sogenannten XGBoost-Algorithmus handelt es sich um einen Entscheidungsbaum-basierten Algorithmus. Das SHAP-Framework dient dazu, die Prognosen des ML-Modells nachvollziehbar und interpretierbar zu machen, damit Anwender ein ausreichendes Vertrauen in die Ergebnisse entwickeln können.
Workflow
Der Workflow für Projekte, die mit Maschinellem Lernen gelöst werden sollen, enthält standardmäßig die Teilprozesse Datenerfassung, Datenvorverarbeitung und Training des Modells.
In der Lohmann-Gießerei wurden unter anderem Daten aus ERP-Datenbanken, IoT-Geräten und Ofensteuerungen gesammelt. Im Teilprozess der Datenvorverarbeitung wurden diese dann bereinigt, überprüft und zu einem geeigneten Datensatz formatiert.
Die Vorverarbeitung ist entscheidend für die Prognosequalität des Modells für Maschinelles Lernen. Eine Herausforderung dabei ist das Identifizieren fehlender Daten und die Anwendung von Strategien, um die verfügbaren Daten optimal nutzen zu können. Eine Möglichkeit ist, fehlende Werte aus dem bekannten Teil der Daten abzuleiten. Weiterhin werden Techniken angewandt, um eine Standardisierung des Datensatzes zu erreichen, da innerhalb eines Datensatzes Werte in unterschiedlichen Wertebereichen vorhanden sein können.
Beim Training des Modells geht es darum, dass sich der Algorithmus geeignete Parameter und Merkmale für den Lernprozess aneignen kann. Dafür wird ein Trainingsdatensatz bereitgestellt, der von dem ML-Algorithmus nach Mustern und Zusammenhängen durchsucht wird. Der Algorithmus lernt aus diesen Daten und kann anschließend dazu verwendet werden, unbekannte Daten zu bewerten.
Ergebnisse
Um zu beurteilen, inwiefern ein mögliches Optimierungspotenzial bzgl. des Energieverbrauchs beim Schmelzen vorhanden ist, wurde das „physikalische Optimum“ (PhO) als Referenz genutzt. Das PhO beim Schmelzen beschreibt einen idealisierten, physikalisch optimalen Schmelzofen, der in der Realität technisch nicht umgesetzt werden kann (z. B. Verluste durch Wärmeaustausch oder durch elektrischen Widerstand bei Stromleitung). Nichtsdestotrotz lässt sich mit dem PhO das vorhandene Optimierungspotenzial grob abschätzen.
Aus den Daten der gemessenen Energieverbräuche (517 kWh/t, bezogen auf den Median) und dem physikalischen Optimum (374 kWh/t) wurde ein theoretisches Einsparpotenzial im Median von ca. 142 kWh/t (0.38*PhO) ermittelt. Die Gründe hierfür liegen zum Teil an der Gattierung, denn der Einsatz von verschiedenen Schrotten, in unterschiedlichen Mengen, Qualitäten und verschiedenen Reihenfolgen gattiert, induziert hohe oder niedrige Wärmeverluste und Schmelzverhalten, was sich in unterschiedlichen Energieverbräuchen beim Schmelzen widerspiegelt.
Das Einsparpotenzial kann zum einen durch technische Verbesserungen gelöst werden (thermische Isolation des Ofens, Erhöhung des Wirkungsgrades etc.), zum anderen durch die Optimierung der Fahrweise und der Einschaltzeit des Ofens. Dabei handelt es sich beim Einschaltvorgang des Ofens um einen komplexen Prozess: Selbst bei gleicher Einschaltzeit, z. B. 5000 s, schwankt der Energieverbrauch bei ca. 450 – 600 kWh/t.
Fazit
Die Datenanalyse zeigt, dass die eingesetzten Schrotte unterschiedliche Aufschmelzverhalten aufweisen, wodurch der benötigte Energieverbrauch beeinflusst wird. Auch der Anteil an Kreislauf- oder Fremdschrott, sowie verschiedene Fremdschrotte in der Gattierung haben einen Einfluss auf den spezifischen Energieverbrauch. Mithilfe der Information, welche Schrotte in welcher Reihenfolge und mit welchen Mengen gattiert wurden, lässt sich indirekt die zu erwartende benötigte Einschaltzeit berücksichtigen.
Das Prognosemodell soll in die im „OptiRoDig“-Projekt entwickelte Cloud-Plattform integriert werden. Es kann in Zukunft genutzt werden, um eine Optimierung der Gattierung zu erreichen, das heißt, bereits bei der Zusammenstellung bzw. beim Kauf des Schrottes eine nicht nur anhand des eigentlichen Einkaufspreises optimierte Gattierung zu erhalten, sondern auch den Bezug zur Ressourcen- und Energieeffizienz herzustellen.
hs-kempten.de/forschung
lohmann-stahl.de
Die Forschungsarbeit stammt aus dem Projekt „Optimierung der Rohstoffproduktivität in der Gießerei- und Stahlindustrie aus Produkten der Recyclingwirtschaft durch Nutzung moderner mathematischer Verfahren, Vernetzung und Digitalisierung“ (OptiRoDig). Es wird vom
Bundesministerium für Bildung und Forschung (BMBF) gefördert.
Zum vollständigen Fachartikel „Datenbasierte Verfahren zur Steigerung der Energieeffizienz“: