Philipp Schmid im Interview

Was ChatGPT & Co. der Schweizer Industrie bringen

Uhr

Maschinelles Lernen eröffnet Schweizer Industriebetrieben ganz neue Möglichkeiten – davon zeigt sich Philipp Schmid überzeugt. Im Gespräch sagt der Head Industry 4.0 & Machine Learning des CSEM, wo er das grösste Potenzial sieht und wie sich die Herausforderung der geteilten Daten angehen liesse.

Philipp Schmid, Head Industry 4.0 & Machine Learning, CSEM. (Source: zVg)
Philipp Schmid, Head Industry 4.0 & Machine Learning, CSEM. (Source: zVg)

In gefühlt allen Berufen, in denen geschrieben, programmiert oder entworfen wird, haben ChatGPT und Co. unlängst für Furore gesorgt. Wie viel Staub wirbeln diese angeblichen Allzweck-KIs in der Industrie auf?

Philipp Schmid: Die Allzweck-KIs wirbeln enorm viel Staub auf. Aber im Gegensatz zu 2016 bin ich dieses Mal überzeugt: es wird auch direkt starke wirtschaftliche Auswirkungen in der Industrie haben. Die Situation ist vergleichbar mit dem grossen KI-Hype 2016, als AlphaGo den Südkoreaner Lee Sedol, einer der weltbesten Profispieler, im Brettspiel Go geschlagen hat. Go gilt als das komplexeste Brettspiel. Plötzlich war KI in aller Munde und jeder wollte unter keinen Umständen etwas verpassen. Dank ChatGPT ist die KI dieses Mal aber nicht ein beeindruckender Gegner, sondern wird auf einfache Weise für jedermann erlebbar.

Werden somit alle hiesigen Unternehmen ChatGPT einsetzen?

Eine grosse Stärke der Schweizer KMUs ist auch die besonnene Umsetzung von neuen Technologien. Dazu gehören Fragen wie: bringt es mir wirklich einen entscheidenden Vorteil? Kann ich damit Geld verdienen? Diese Eigenschaften schützen gerade kleinere Firmen von Hype getriebenen Fehlinvestitionen.

Was bringt ChatGPT der Industrie?

GPT steht für "Generative Pretrained Transformer". Generative bedeutet, es wird etwas Neues kreiert (eine passende Antwort im Falle von ChatGPT). Diese Eigenschaft von neuronalen Netzwerken wird im Bildbereich seit wenigen Jahren auch für Industrieanwendungen eingesetzt, sei dies über KI-unterstützte Bildrenderingfunktionen oder als Deepfake um Trainingsdaten für eine verbesserte Klassifizierung zu generieren. Transformer sind eine spezielle Architektur von neuronalen Netzwerken, welche das erste Mal bereits 2017 vorgestellt wurden. Text ist vergleichbar mit Sensordaten einer Maschine: es braucht ein Verständnis der aktuellen Situation und es gibt eine zeitliche Abhängigkeit, ähnlich dem roten Faden einer Geschichte. Damit eignen sich diese leistungsstarken Transformer Algorithmen auch für typische industrielle Problemstellungen wie Predictive Maintenance/Quality oder Prozessoptimierungen. 

Was hat sich im Bereich Data Analytics in den letzten fünf Jahren getan?

Bei diesen Technologien geht es darum, Erkenntnisse aus Daten zu extrahieren, um Trends zu ermitteln und Probleme zu lösen. Dabei geht es um sämtliche Prozesse, Werkzeuge und Techniken, die zu diesem Zweck zum Einsatz kommen, auch das Sammeln und Speichern der Daten. Um in der Industrie erfolgreich Data-Analytics-Lösungen umsetzen zu können braucht es drei kritische Erfolgsfaktoren: annotierte Daten, (Daten welche von Experten händisch gelabelt wurden), Algorithmik (geeignete neuronale Netzwerke) und (bezahlbare) Rechenleistung. In allen drei Bereichen haben wir in den letzten fünf Jahren gewaltige Fortschritte gemacht.

Was heisst das genau?

Dank modernen Maschinensteuerungen und leistungsstarken Datenbanken war es noch nie so einfach wie heute, Unmengen von Daten zu speichern. KI-unterstützte Annotierungs-Tools helfen den menschlichen Experten bei dem mühsamen Labeling-Prozess. Neue Algorithmen wie die Transformer haben es in die Standardbibliotheken der Programmierer geschafft. Und dank den Gamern und Krypto-Schürfern sind GPUs (Grafikkarten) heute extrem leistungsstark und gleichzeitig preislich attraktiv geworden. In Kombination dieser drei Entwicklungen stehen heute eine Vielzahl von industriellen Applikationen, welche vor fünf Jahren noch zu teuer oder nicht performant genug waren.

Welche Applikationen sind das?

Im speziellen möchte ich hier Condition Based Maintenance (Zustandsorientierte Instandhaltung) Lösungen für komplette Anlagen erwähnen, aber auch Prozessoptimierungen bei komplexen Systemen. Dazu gehören 3-D-Laser-Druck, Plasma-Prozesse oder Gasturbinen. Im Bereich Qualitätskontrolle sind heute 100-Prozent-Lösungen realisierbar, basierend auf Hochgeschwindigkeits-3-D-Kameras, Multispektralbereichen oder einer Kombination aus Bild und Sensoren.

Wie schätzen Sie hiesige Industriebetriebe ganz allgemein bezüglich ihres digitalen Reifegrads ein? 

Meine täglichen Erfahrungen in der Industrie zeigen ein weites Spektrum: von einfachen Montageautomaten ohne jeglicher Sensorik bis hin zu hochintegrierten Vollautomaten welche Millionen von Datenpunkte jeden Tag speichern. All diese Daten werden dann aber in den seltensten Fällen auch prozessiert und verwertet. Allgemein würde ich der Schweizer Industrie ein eher schlechtes Zeugnis im Bereich Digitalisierung ausstellen.

Woran liegt das?

Einen Hauptgrund sehe ich in dem bereits erwähnten zurückhaltenden Pragmatismus der KMUs. Auf der einen Seite schützt dieses Verhalten die Firmen vor unnötigen Ausgaben, anderseits verunmöglicht dies eine technologische Vorreiterrolle. Zu sehr wurde in der Vergangenheit bloss mit dem ROI (Return on Investment) argumentiert und Investitionen beurteilt, anstatt auch all die zusätzliche Vorteile links und rechts auf dem Pfad der Digitalisierung zu berücksichtigen. In mehreren Projekten war der grösste Mehrwert für die Firmen nicht das Erreichen des ursprünglichen Zieles, sondern umso mehr die Kapitalisierung der Seitenergebnisse aus dem Projekt. Aktuell sehe ich aber ein grosses Interesse der Firmen und bin überzeugt, es ist noch nicht zu spät!

In welchen Bereichen sehen Sie zurzeit das grösste Potenzial?

Aktuell sehe ich drei spannende Bereiche, welche auch direkt in der Industrie umgesetzt werden können: Qualitäts- und Prozesskontrolle, Predictive Analytics (Instandhaltung, Digital Twin, Forecasting) und Cognitive Robotics (Intelligente Roboter, Mensch-Roboter-Interaktion, Verständnis der Umgebung). Je nach Marktsegment und Automatisierungsgrad müssen die richtigen Technologien umgesetzt werden. Wir sollten nicht vergessen, wo die Haupttreiber der Schweizer Industrie liegen: perfekte Qualität (Swiss Made) und Effizienz (Kosten). Ein grosser Teil der Firmen wird neue Technologien nur einsetzen, wenn es den einen, den anderen oder am besten sogar beide Treiber optimiert. Technologisch sehe ich alle drei Säulen einsatzbereit für die Industrie – welche tatsächlich umgesetzt werden soll, muss im Einzelfall beurteilt werden. Man sollte die Digitalisierungsreise dringend starten und nicht länger abwarten.

Was hält Unternehmen davor zurück, dieses Potenzial auszuschöpfen?

Ich denke es ist eine Mischung aus Skepsis, Unwissen und Risikoaversion. Oft kann zu Beginn eines KI-Projektes die resultierende Performance nicht garantiert werden. Die Ergebnisse hängen von sehr vielen verschiedenen Parametern ab. Ohne es im konkreten Fall auszuprobieren, bleibt bloss ein Bauchgefühl der Experten. Viele Manager wollen den Use-Case sauber durchrennen und damit das Risiko ihres Einsatzes eliminieren. Im Bereich von KI-Lösungen ist dies bis dato kaum möglich. Unternehmen, die zu früh auf den Hype gesetzt haben, wurden in der Vergangenheit auch enttäuscht, diese müssen wieder Vertrauen fassen und verstehen, dass der technologische Fortschritt der letzten Jahre gewaltig war. Es ist auch enorm wichtig, dass innerhalb der Firma eine gewisse Fachkompetenz vorhanden ist. Es ist wie eine neue "Sprache" und bewährte Konzepte aus der Softwareentwicklung müssen angepasst werden. Dieses spezifische Know-how bringen aber immer mehr junge Leute mit und damit kann auch eine langfristige Implementierung gewährleistet werden. Unternehmen sollten kleine Schritte wagen und sich nicht vor dem grossen Berg abschrecken lassen.

Im Zusammenhang mit den Schlagworten "Industrie 4.0" und Machine Learning spricht man schon seit einigen Jahren von Predictive Maintenance. Ist dieser Trend der smarten Wartung in der Schweizer Fertigungsindustrie angekommen?

Schliessen wir einmal einfache rotative Systeme (Pumpe, Lüfter, Motor) aus, habe ich bis heute leider noch keine Lösung in der Industrie gesehen, welche diesen Namen wirklich verdient. Das Problem liegt in dem "predictive - vorausschauend". Jeder kennt den Ärger bei Druckern, die einem vermeintlich auf die Seite genau zum Wechseln des Toners auffordern. Oft genug reicht es jedoch, den Toner gut zu schütteln und wieder einzusetzen, um weitere 100 Seiten drucken zu können.

Wo liegt das Problem?

Die Algorithmen, um "Predictive" anbieten zu können existieren heute. Dies beweisen täglich verschiedene Text- und Sprachapplikationen wie DeepL oder ChatGPT. Bei den Maschinenapplikationen in der Industrie fehlt aber in der Regel die Datengrundlage. Wir sind schon lange auf der Suche nach einem Industriepartner, welcher uns 1000 Maschinen zur Verfügung stellt, welche wir alle kaputt fahren dürfen. Dies wäre wohl notwendig, um die benötigten Trainingsdaten zu akquirieren. Predictive Maintenance sehe ich als Vision und Überbegriff für moderne Instandhaltungslösungen. Eine Zustandsorientierte Instandhaltung (Condition Based Maintenance) ist mittlerweile technisch gut umsetzbar. Wird diese mit einer Echtzeitauswertung und einer Trendanalyse kombiniert, ist man der vorausschauenden Instandhaltung schon sehr nah. Die hiesige Fertigungsindustrie hat in diesem Bereich noch einen gewaltigen Nachholbedarf, das spüren wir durch viele Anfragen. Ein nachhaltiges Geschäftsmodell scheint aber alles andere als einfach zu sein.

Am CSEM forschen Sie unter anderem zu "Predictive Quality". Was kann man sich konkret darunter vorstellen? 

Bei der modernen Instandhaltung dreht sich alles um die Verfügbarkeit der Maschine. Den Ausfall der Komponente verhindern kann man dabei selten, der Mehrwert besteht primär in der frühen Erkennung einer Störung. Je nach Branche ist damit kaum ein grosser Kostenvorteil erzielbar. Lange bevor eine Komponente – etwa eine Achse oder ein Motor - ausfällt nimmt aber die Qualität kontinuierlich ab. Die Qualität eines Endproduktes hängt vom Zusammenspiel der einzelnen Produktionsschritte und dem Zustand der verwendeten Komponenten ab. Zusätzlich muss die Produktenutzung und das spätere Anwendungsfeld berücksichtigt werden. Das Konzept "Predictive Quality" versucht mit datenbasierten Methoden und neuronalen Netzwerken die Qualität eines Produktes während der Produktion vorherzusagen. Es beantwortet also beispielsweise die Frage: Ab welchem Grad Vibration einer Achse produziert die Maschine nur noch Ausschuss? Es wird auch berücksichtigt, ob das Produkt für einen hochkritischen Markt wie die Raumfahrt oder Medizinaltechnik bestimmt ist, oder ob es "bloss" in den Konsumgütermarkt geliefert wird. 

Was sind die Stärken von Predictive Quality?

Das Konzept ist sehr umfassend, berücksichtigt alle Produktionsschritte, Zustand aller Komponenten und schätzt die Endqualität kontinuierlich ab. Es bietet eine grosse Vielzahl von direkten Geschäftsmodellen und Preisvorteilen. Ein sehr grosser Pluspunkt ist, dass man nicht 1000 Maschinen zu zerstören braucht, um an die Trainingsdaten zu gelangen. Durch übliche Qualitätsprüfungen können jederzeit die wertvollen Ground Truth Daten erzeugt werden. In einem industriellen Anwendungsfall im Bereich Betonherstellung konnten wir das Konzept bereits erfolgreich validieren. Die Umsetzung ist anspruchsvoll, aber man kann mit ersten kleineren Anlagen starten und dann Schritt für Schritt auf die gesamte Produktion erweitern. Viele Firmen entdecken soeben erst das Potential von Predictive Quality und ich spüre förmlich die Begeisterung. Ich erwarte in diesem Bereich ein grosses Wachstum in den nächsten Jahren.

Inwiefern kann so ein Konzept für prädiktive Qualitätssicherung auch in der Softwareentwicklung zur Anwendung kommen? 

Bei grossen öffentlichen Softwareprojekten (Open Source) wird dies bereits als ein Frühwarnsystem für kritische Fehler eingesetzt. Es basiert aber noch auf wenigen, einfach zu erfassenden Metriken und überzeugt noch nicht durch komplexere Korrelationen. Bei Software für Industrieanwendungen wie SPS-Code oder Leitsystemen bin ich noch zurückhaltend. Die Qualität des Codes hängt von verschiedenen Hardwarekomponenten ab und hat direkten Einfluss in der physischen Welt. Um vorausschauend die Qualität des Codes beurteilen zu können, müsste das komplette physische System mit allen Abhängigkeiten bereits vorgängig bekannt und digital verfügbar sein. In der Softwareentwicklung sehe ich dagegen grosses Potential in der Verwendung von KI-unterstützten Programmierhilfen wie Copilot. Diese Werkzeuge werden in den nächsten Jahren noch deutlich potenter, können auf die eigenen Bedürfnisse angepasst werden und übernehmen somit einen wichtigen Teil bei der Qualitätssicherung des Codes.

In hiesigen Diskussionen über das Potenzial von Machine Learning hört man immer wieder, der Forschungsstandort Schweiz brauche unbedingt einen besseren Zugang zu Daten, auch zu bestehenden Datensätzen. Wie sehen Sie das? 

Ich spüre aktuell einen regelrechten Krieg in der Industrie um die Datenhoheit. Jeder denkt Daten seien das neue Öl und keiner will es teilen. Der grosse Mehrwert von datengetriebenen Ansätzen ist das Fusionieren unterschiedlicher Datenquellen. Die Algorithmen und Rechenleistung sind bereit, auch grosse Datensätze effizient zu verarbeiten. Hier müssen Lösungen erarbeitet werden, welche das Teilen von Daten begünstigen und nicht das Gegenteil. Jeder der seine Daten offen teilt und über eine geeignete Schnittstelle zugänglich macht, sollte auch an einem allfälligen Erfolg beteiligt werden. Aktuell wird vieles doppelt gemacht oder es gewinnt die Partei mit der grösseren Verhandlungsstärke.

Braucht es mehr Regulierung?

Bei der ganzen Diskussion muss man unterscheiden zwischen sensitiven, persönlichen Daten und Maschinen-/Prozessdaten. Gerade bei Gesundheitsdaten und Personendaten befürworte ich eine sehr restriktive Handhabung. Es muss sehr gut zwischen dem individuellen Vorteil und den potenziellen Risiken abgewogen werden. Gerade neuronale Netzwerke bieten ein ganzes Arsenal von neuen Möglichkeiten zur Deanonymisierung von Daten und weiteren perfiden Angriffsszenarien. Wie so oft gibt es auch bei diesen neuen Technologien zwei Seiten der Medaille. Der Gesetzgeber sollte hier vorsichtig und vorausschauend agieren.

Wie würde Ihre Lösung für einen geregelten Zugang zu Daten aussehen? 

Gerade für die hiesige Wirtschaft ist eine enge Kooperation im Datenbereich, auch mit seinen Konkurrenten, absolut essenziell. Das Problem: es ist ein "heavily untrusted environment", keiner traut dem anderen, aber jeder braucht die Daten vom anderen. CSEM hat zusammen mit verschiedenen Firmen ein umfassendes Konzept unter dem Namen "DEMON" erarbeitet. Zentraler Grundgedanke ist ein verschlüsselter Datensee in Kombination mit einem hochautomatisierten Krypto-Schlüsselaustausch, welcher den Zugang zu den Datenquellen sowie die Zeitperiode verwaltet. Alle Firmen, Maschinen, Geräte und Komponenten können ihre Daten verschlüsselt in diesen Datenspeicher ablegen und je nach Bedarf Zugriffsanfragen an andere Benutzer senden.

Welche Möglichkeiten entstehen damit?

Will ein Produktionsunternehmen das Konzept "Predictive Quality" umsetzen, braucht er Daten von allen Systemen in seiner Anlage, der Lieferant eines Subsystems braucht, um seine Produkte zu verbessern, nur die Daten seines Systems, dafür aber von allen Anlagen weltweit. Im Falle einer Störung an einer Anlage können sofort die Berechtigungen für die Servicefachkraft freigeschaltet werden, so dass sie temporär vollen Zugriff hat. Es ist sogar möglich, Daten für das Training eines neuronalen Netzwerkes bereitzustellen, ohne diese effektiv zu teilen, der KI-Dienstleister erhält das trainierte Netzwerk aber ohne die verwendeten Rohdaten. Es wäre heute technisch enorm viel möglich, die Frage bleibt, wer hat die Marktkraft und die Finanzen, um eine solche Lösung zu proklamieren. Der Nutzen würde exponentiell zu der Anzahl Teilnehmer steigen. Vorerst scheint es aber bloss Einzellösungen zu geben und der Krieg über die Datenhoheit tobt hinter den Kulissen weiter.

Was wird Ihrer Meinung nach einen Schweizer Industriebetrieb in 10 Jahren auszeichnen?

Neben der konsequenten Automatisierung von einfachen Tätigkeiten, bin ich überzeugt, die Software wird eine deutlich wichtigere Rolle spielen. Eine intuitive Benutzeroberfläche, Zustandsorientierte Instandhaltung, verschlüsselte Datenschnittstellen und umfassende Qualitätskonzepte werden zu signifikanten Alleinstellungsmerkmalen. Plötzlich wird nicht mehr die Frage sein, verdiene ich Geld mit "Predictive Maintenance", sondern: Kann ich überhaupt noch Maschinen verkaufen ohne? Die mechanischen Systeme und Komponenten gleichen sich immer stärker an, Kopierer aus Billiglohnländer holen unseren Vorsprung immer schneller auf, Patentschutze laufen aus – die Differenzierung wird in Zukunft über umfassende Softwarelösungen entschieden. Nicht bloss auf der Produktions- und Maschinenebene, sondern auch auf der Geschäftsanalytik (BI) wird sich dies auswirken. Der Fachkräftemangel wird viele Firmen zwingen, Erfahrung von langjährigen Mitarbeitern in Software abzubilden und somit für junge, unerfahrene Mitarbeiter als Unterstützungssystem zur Verfügung zu stellen. Wer diesen Weg konsequent verfolgt und mit den richtigen Partnern kooperiert, dessen Unternehmen wird auch in 10 Jahren florieren.

Webcode
B3DSCjLH