Jeder Prozess, jede Anlage ist anders; IT-Infrastruktur ist von Natur aus generisch. Wer aus Daten Handlungsanweisungen für eine konkrete Anlage ableiten oder gar diese direkt regeln will, muss den steinigen Weg aus der Welt der generischen IT-Tools hinaus gehen und seine Daten zunächst einmal verstehen lernen – und das geht nicht ohne einen eigenen Data Scientist, einen teuren und dazu fachfremden Spezialisten.
Das Vorhaben „Daten besser zu nutzen“ hat deswegen gerade für eigentlich innovationsfreudige Mittelständler den Charakter eines Abenteuers: Hohen Kosten für den eigenen Data Scientist steht ein unbekannter wirtschaftlicher Nutzen entgegen, der in den Daten erst noch entdeckt werden soll. Abhilfe schaffen können Verfahren aus der Künstlichen Intelligenz, die automatisch Strukturen in vieldimensionalen Zeitreihen finden können und lernen, diese Strukturen auch für die Aussteuerung von Anlagen zu nutzen.
Automatisierte Nutzung von Daten
Keine Angst vor der automatisierten Nutzung von Daten hat zum Beispiel Google: Ende Juli meldete DeepMind, Googles Entwicklungsabteilung für Künstliche Intelligenz mit Sitz in London, dass durch den Einsatz von Reinforcement Learning eine Reduzierung des Energieverbrauchs bei der Kühlung von Rechenzentren um bis zu 40 Prozent möglich sei – und zeigte einen sehr eindrucksvollen Energieeffizienzgraphen, in dem die KI-geregelten Betriebszeiten auch mit bloßem Auge leicht erkennbar waren.
Bei solchen Verfahren wird aus historischen Prozessdaten ein Modell erlernt. Ein digitaler Schatten, der Normalzustände ganzer Anlagen kennt und unterscheiden kann. Das schafft zunächst Sichtbarkeit: Was kann aus den vorhandenen Daten überhaupt abgelesen werden? Passen die automatisch ermittelten Zustände zu den Erwartungen? Hängen im Modell sichtbar gewordene Unregelmäßigkeiten mit geschäftsrelevanten Ereignissen zusammen?
Automatische Modellbildung
Gelernte Modelle haben, als Alternative oder Ergänzung zu händischem Data Mining, neben den geringen Kosten für die ersten Schritte den zusätzlichen Vorteil, vorurteilsfrei mit den Daten umzugehen. Ganz ohne Domänenwissen geht es irgendwann allerdings auch hier nicht mehr. Automatische Modellbildung findet Struktur, menschliche Experten müssen dann die Bedeutung beitragen, beispielsweise einer bestimmten regelmäßigen Konfiguration von Messwerten einen Namen geben oder bestimmte Konfigurationen als relevant, also erwünscht oder unerwünscht, markieren. In mehreren Iterationen entsteht so im Zusammenspiel aus Maschinellem Lernen und menschlichem Domänen-Know-how ein Modell, das einerseits an das reale System anschließbar ist und dieses betriebsparallel simulieren kann, andererseits aber für Bediener verständlich bleibt.
Im letzten Schritt lässt sich ein solches Modell auf spezifische Fragen spezialisieren: Welche Umstände begleiten Prozessstörungen? Sind diese aus der Gesamtheit der Daten vorhersagbar? Was ist, nicht im Sinne einzelner Messwerte, sondern insgesamt, anders an Tagen mit hoher Ausschussproduktion? Und lassen sich bisher manuell kontrollierte Eingriffsgrößen direkt aus dem Modell heraus steuern?
Die Möglichkeiten gehen hier also deutlich über den inzwischen schon kanonischen Einsatz von Daten in der Produktion, die Vorausschauende Wartung, hinaus. Insbesondere die systematische Ermittlung von Kausalzusammenhängen unter vorurteilsfreier Berücksichtigung aller verfügbaren Daten hilft bei der Reduzierung von Fehlsteuerungen. Und die Möglichkeit, gegen gelernte Modelle auch Regelungen zu trainieren, bringt den Traum vom optimalen Betrieb ein Stück näher.
Die Künstliche Intelligenz
Bei Künstlichen Intelligenzen gilt es zwischen schwacher und starker KI zu unterscheiden. Während sich die schwache KI in der Regel mit konkreten Anwendungsproblemen beschäftigt, geht es bei der starken KI darum, eine allgemeine Intelligenz zu schaffen, die der des Menschen gleicht oder diese übertrifft. Oft wird davon gesprochen, dass schwache KI Intelligenz nur simuliert während starke KI wirklich intelligent ist. (Quelle: Uni Paderborn)