MLOps

Wettbewerbsfähigkeit im Zeitalter von künstlicher Intelligenz

Uhr
von Aron Weller, Principal ­Consultant für Data & AI, Swisscom; und Christof Zogg, Head of ­Business Transformation, Swisscom

Dank ChatGPT ist Generative AI in aller Munde. Es handelt sich dabei um eine junge Teildisziplin von KI, die zwar ­spektakuläre Ergebnisse erzielt, aber ohne Anpassung noch wenig Wettbewerbsvorteile bietet. Dies wird erst gelingen, wenn Unternehmen mit MLOps eigene Modelle trainieren und produktiv setzen.

Aron Weller (l.), Principal ­Consultant für Data & AI, Swisscom; und Christof Zogg, Head of ­Business Transformation, Swisscom. (Source: zVg)
Aron Weller (l.), Principal ­Consultant für Data & AI, Swisscom; und Christof Zogg, Head of ­Business Transformation, Swisscom. (Source: zVg)

Am 30. November 2022 erlebt die künstliche Intelligenz ihren iPhone-Moment: An diesem Tag stellt das in San Francisco (where else?) beheimatete Start-up OpenAI seinen Service ChatGPT vor – und weniger als drei Monate später zählt dieser bereits über 100 Millionen User. Seitdem vergeht kaum ein Tag, an dem nicht ein neuer, beeindruckender Generative-AI-Service das Licht der Welt erblickt. 

Zwei «Magic of AI»-Momente der letzten Tage und Wochen als Beispiel gefällig? Adobe lanciert die neueste Version seines Bildbearbeitungsprogramms Photoshop mit «Generative Fill». Per Texteingabe können Hintergründe auf Knopfdruck fotorealistisch ausgetauscht werden. Der Wert einer 30-jährigen Bildbearbeitungs-Expertise geht innert Sekunden in Rauch auf. Wenig später rollt Spotify seinen «AI Voice Translation»-Piloten aus. Dabei werden bekannte Podcasts in andere Sprachen übersetzt und mit Untertiteln versehen. Der Clou dabei: Jeder Podcaster spricht die jeweilige Fremdsprache mit seiner typischen Klangfarbe. Lex Friedman tönt also auf AI-Spanisch genauso wie er in echt klingen würde.

AI is more than GenAI

So beeindruckend das alles ist, wir sollten uns nicht blenden lassen: Künstliche Intelligenz (Artificial Intelligence, AI) ist viel mächtiger als ihre Subdisziplin, die sogenannte Generative AI (GenAI), zu der die obigen Beispiele gehören. Während GenAI-Werkzeuge Unternehmen zwar helfen können, ihre Mitarbeitenden produktiver zu machen und bestimmte Prozessschritte zu automatisieren, wird es mit Tools ab Stange schwierig werden, einen nachhaltigen Wettbewerbsvorteil zu gewinnen. Ein generischer Chatbot der neuen Generation kann out-of-the-box schon beeindruckende Ergebnisse erzielen, richtig praxistauglich wird er allerdings erst, wenn er mit allem relevanten Fachwissen wie den FAQs oder den E-Mails aus dem Kundendienst trainiert worden ist.

Denken wir an Fallbeispiele, bei denen es Unternehmen bereits gelungen ist, mit AI einen Wettbewerbsvorteil zu erringen, so kommen uns die üblichen digitalen Verdächtigen in den Sinn. Meta untersucht jeden Social-Media-Post mit AI auf ungute Absichten wie Mobbing oder Aufruf zu Terror (was aufgrund der schieren Menge und der Ambiguität der menschlichen Sprache nicht trivial ist), und Netflix bildet mit Unsupervised Learning sogenannte Taste Groups von Usern, die ähnliche Sehgewohnheiten an den Tag legen (aber eigentlich keine gemeinsamen soziodemografischen Eigenschaften aufweisen).

Every company needs an AI Factory …

Doch die beiden Autoren des Buches «Competing in the Age of AI» zeigen auf, dass eben gerade nicht nur digitale Unternehmen mit AI einen Konkurrenzvorteil erlangen können, sondern eigentlich alle. Denn jede Firma bietet in ihrem Betriebsmodell bei Kundengewinnung, Leistungserbringung oder dem Kundendienst nach wie vor enorm viel Automatisierungspotenzial. Als Beispiel nennen die beiden Harvard-Professoren Ant Group (die Banktochter von Jack Mas Alibaba), der es gelingt, dank des maximalen AI-Einsatzes mit gerade mal 10 000 Mitarbeitenden 700 Millionen Privatkunden zu bedienen (man vergleiche das mit dem entsprechenden Mitarbeiter-Kunden-Verhältnis bei Schweizer ­Retailbanken). 

Deshalb würde es, plakativ gesagt, darum gehen, dass künftig jedes Unternehmen ein eigenes Kompetenzzentrum für künstliche Intelligenz – eine sogenannte AI ­Factory – aufbaut, mit dem Ziel, aus den eigenen Unternehmensdaten Alleinstellungsmodelle entwickeln zu können. 

… and every AI Factory needs MLOps

Doch dazu reicht es eben nicht aus, wie wir in der Praxis häufig feststellen, einfach eine Handvoll Data Scientists anzustellen und an spannenden Vorhersage- oder Bildverabeitungsmodellen arbeiten zu lassen. Denn Modelle per se stiften noch keinen Kundennutzen. 

Erst wenn ein solches Modell, also etwa die Bildung der Taste Groups bei Netflix, täglich neu gerechnet werden kann und die bestehende Funktionalität wie beispielsweise die personalisierten Filmvorschläge verbessert, generiert es Mehrwert etwa in Form von zufriedeneren Kunden und tieferer Kündigungsrate. Oder wie wir plakativ sagen würden: Ohne MLOps, keine AI Factory.


MLOps – Weil ein trainiertes Modell erst die halbe Miete ist


Der Begriff MLOps ist eine Abkürzung für Machine Learning Operations und meint eine Vorgehensweise, welche die kontinuierliche Bereitstellung von trainierten Lernmodellen in der Produktion sicherstellt. Im aktuellen Reife­stadium stellt MLOps mehr eine Best-Practice-Sammlung dar als ein umfassendes und fixes Regelwerk.
Ähnlich wie DevOps die Softwareentwicklung um die Komponente des kontinuierlichen Deployments und des Betriebs erweitert, setzt MLOps dies für die Entwicklung und Nutzung von maschinellem Lernen um. MLOps erleichtert damit einerseits die kooperative Modellentwicklung zwischen Data Scientists und Data Engineers und andererseits die automatisierte Modellbereitstellung durch Continuous Integration/Continuous Deployment (CI/CD). Oder anders gesagt: MLOps steigert die Produktivität aller Prozesse innerhalb des ML-Lebenszyklus durch die Erstellung automatisierter Pipelines.
Warum ist das relevant? Weil die Entwicklung und Verwendung von maschinellen Lernmodellen iterative Prozesse sind. Denn da sich ein Modell kontinuierlich an das Optimum herantasten oder auf Veränderungen von aussen (aka Datadrift) anpassen muss, werden diese Phasen wiederholt durchlaufen. Auf den Entwicklungen und Erfahrungen der vorherigen Iterationen aufbauend, werden die Durchläufe über die Zeit effizienter und in der Regel kostengünstiger.

Was ist der Nutzen von MLOps?

Die Verwendung von MLOps ermöglicht durch die enge Zusammenarbeit von Data Scientists und Data Engineers, dass sich beide auf ihre Kernkompetenzen fokussieren und ihre Skills optimal einbringen können. Dies bringt eine ­höhere Effizienz in der Entwicklung von ML-Modellen, was sich positiv auf die Qualität und die Entwicklungsgeschwindigkeit der maschinellen Lernmodelle auswirkt. Und time-to-market ist heute bekanntlich ein wichtiger Wettbewerbsvorteil. Gleichzeitig steigert es die Arbeitszufriedenheit der Spezialisten, da sie sich auf ihre Kernaufgabe konzentrieren können und weniger Ablenkung erfahren. 

Die drei Phasen von Machine Learning Operations (nach ml-ops.org)

Die drei Phasen von Machine Learning Operations (nach ml-ops.org

 

Zusammengefasst bietet der konsequente Einsatz von MLOps folgende Vorteile:

  • Produktivitätssteigerung
  • Automatisierung durch CI/CD-Pipelines (inklusive ­Modellvalidierung)
  • Standardisierung von ML-Workflows für effiziente ­Zusammenarbeit
  • Erhöhung der Reproduzierbarkeit und der Verlässlichkeit der Modelle
  • Kontinuierliches Monitoring des Qualitätsfortschritts des ML-Modells
  • Reduktion von Kosten über den ganzen Machine-­Learning-Lifecycle hinweg

It’s the lifecycle, stupid!

Ohne MLOps ist ein trainiertes Modell ein Artefakt ohne einen Lebenszyklus, und das wäre fatal, denn um beispielsweise kontinuierlich valide Vorhersagen treffen zu können, muss es in der Regel laufend weiter verfeinert und retrainiert werden. Nur wenn es gelingt, den aufwendigen Prozess, in dem ein Modell erschaffen worden ist, weitgehend zu automatisieren, kann der Aufwand für die Optimierung in Grenzen gehalten werden. 

Webcode
y2JXAK58