Was ist MLOps (Machine Learning Operations)?

MLOps – kurz für Machine Learning, also maschinelles Lernen, plus Operations, also Betrieb – ist eine kollaborative Disziplin im ML-Engineering. Sie bringt Teams aus Datenwissenschaft und Betrieb zusammen, um den End-to-End-Lebenszyklus von Modellen zu optimieren – von der Entwicklung bis zur Bereitstellung – und um eine effiziente Produktion, Wartung und Überwachung zu gewährleisten.

Demo anfordern
Wissenswertes über MLOps (Machine Learning Operations)
Wie sieht der MLOps-Prozess aus? Warum brauchen Unternehmen MLOps? Welche Ziele verfolgt MLOps? Was macht ein MLOps Engineer? Wo liegt der Unterschied zwischen MLOps und DevOps? Wo liegt der Unterschied zwischen MLOps und AIOps? IT-Betriebsmanagement mit ServiceNow
Alle ausklappen Alle Einklappen Wie sieht der MLOps-Prozess aus?

MLOps ist ein umfassender und kollaborativer Ansatz zur Verwaltung des End-to-End-Lebenszyklus von ML-Modellen (Maschinelles Lernen). Ziel ist es, die Lücke zwischen Data Science- (Datenwissenschaft) und IT-/Betriebsteams zu schließen, um die effiziente Entwicklung, Bereitstellung und Wartung von ML-Modellen in realen Produktionsumgebungen zu gewährleisten. Dieser Prozess bietet ein strukturiertes Framework, das den gesamten ML-Projektlebenszyklus umfasst: von der Datenvorbereitung bis hin zur laufenden Wartung. Das Ziel besteht darin, den Prozess effizienter, zuverlässiger und agiler zu gestalten, damit Unternehmen die Leistungsfähigkeit des maschinellen Lernens auf nachhaltige und verantwortungsvolle Weise nutzen können. Im Folgenden finden Sie einige der wichtigsten Komponenten des Prozesses.

Datenaufbereitung

Dieser grundlegende Schritt im MLOps-Prozess ist entscheidend, um Daten für den ML-Lebenszyklus vorzubereiten. Sie umfasst einen sorgfältigen und iterativen Ansatz für das Erkunden, Teilen und Vorbereiten von Daten – mit dem Ziel, reproduzierbare, bearbeitbare und gemeinsam nutzbare Datensätze und Visualisierungen zu erstellen. Diese Phase ist von entscheidender Bedeutung, da die Qualität und Eignung der Daten die Leistung und Zuverlässigkeit von ML-Modellen grundlegend beeinflussen.

Die Datenaufbereitung beginnt mit der Erfassung von Rohdaten und umfasst die enge Zusammenarbeit von Data Engineers und Data Scientists, also Datentechnikern und -wissenschaftlern. Daten werden aus verschiedenen Quellen gesammelt, bereinigt, um Fehler und Inkonsistenzen zu beseitigen, und in ein strukturiertes Format umgewandelt, das problemlos für das Trainieren von Modellen verwendet werden kann. Eine effektive Datenaufbereitung bildet die Grundlage für die gesamte ML-Pipeline und ermöglicht eine genauere und zuverlässigere Modellentwicklung und -Bereitstellung in MLOps.

Modelltraining

Das Trainieren von Modellen ist die nächste entscheidende Phase im MLOps-Prozess, in der Data Scientists verschiedene Tools und Techniken nutzen, um ML-Modelle zu entwickeln, die genaue Vorhersagen oder Klassifizierungen liefern können. Diese Phase beginnt in der Regel mit der Auswahl geeigneter ML-Algorithmen und -Techniken, die auf dem Problembereich und den Dateneigenschaften basieren. Häufig werden beliebte Open-Source-Bibliotheken eingesetzt, um den Trainingsprozess zu vereinfachen, da sie eine breite Palette von Algorithmen und Optimierungsmethoden bieten, mit deren Hilfe Data Scientists mit verschiedenen Ansätzen experimentieren können, um die Leistung des Modells zu verbessern.

Zusätzlich zum herkömmlichen, manuellen Modelltraining ermöglicht MLOps auch Automatisierung mit Tools wie AutoML (Automated Machine Learning). AutoML-Plattformen vereinfachen den Modellentwicklungsprozess, indem sie automatisch Testläufe mit mehreren Algorithmen, Hyperparameter-Konfigurationen und Vorverarbeitungstechniken durchführen. Diese Automatisierung spart nicht nur Zeit, sondern hilft auch bei der Erstellung von überprüfbarem und bereitstellbarem Code. Insgesamt ist das Modelltraining in MLOps ein dynamischer Prozess, der menschliches Know-how mit Automatisierung kombiniert, um leistungsstarke Modelle zu erstellen, die für die nächsten Phasen des ML-Lebenszyklus bereit sind.

Modelltest und -bewertung

Modelltests und -bewertungen konzentrieren sich darauf, die Qualität, Zuverlässigkeit und Fairness von ML-Modellen zu gewährleisten, bevor sie in der Produktion eingesetzt werden. Diese Phase umfasst die sorgfältige Nachverfolgung der Modellherkunft und der -versionen sowie die Verwaltung von Modellartefakten über den gesamten Lebenszyklus hinweg.

In dieser Phase setzen Data Scientists strenge Testverfahren ein, um die Leistung des Modells zu bewerten. Sie setzen eine Vielzahl von Metriken und übergreifenden Validierungstechniken ein, um Genauigkeit, Allgemeintauglichkeit und Robustheit zu messen. Auf diese Weise können sie Probleme erkennen und beheben, wie z. B. Überanpassung, bei der das Modell mit den Trainingsdaten gut abschneidet, aber bei neuen Daten versagt, oder auch Bias (Voreingenommenheit), der zu unfairen oder diskriminierenden Ergebnissen führen kann. Durch systematische Tests und Bewertungen stellen MLOps-Teams sicher, dass nur qualitativ hochwertige Modelle in die nächsten Entwicklungsphasen gelangen und einen positiven Beitrag zu realen Anwendungsfällen leisten.

Build-Definition und -Pipeline

Der nächste Schritt im MLOps-Prozess besteht darin, eine Build-Definition und -Pipeline zu erstellen – diese sind für die zuverlässige Bereitstellung von ML-Modellen in der Produktion von entscheidender Bedeutung. Teams bestimmen zunächst die Infrastruktur und die Ressourcen, die für die Modellbereitstellung erforderlich sind, und berücksichtigen dabei Faktoren wie Skalierbarkeit, Leistung und Sicherheit. Das kann die Auswahl geeigneter cloudbasierter oder lokaler Ressourcen oder die Konfiguration von Containern oder virtuellen Maschinen umfassen. Außerdem müssen Teams sicherstellen, dass die Umgebung die spezifischen Anforderungen des ML-Modells erfüllen kann.

Ebenso wichtig ist die Einrichtung einer Versionskontrolle für Code- und Modellartefakte. Versionskontrollsysteme werden eingesetzt, um Änderungen an Code und Modellen im Laufe der Zeit zu überwachen und so die Nachverfolgbarkeit und Reproduzierbarkeit sicherzustellen. Dies ist besonders wichtig in MLOps, wo Modelle mehrere Iterationen und Aktualisierungen durchlaufen. Durch den Aufbau einer effektiven Build-Pipeline können MLOps-Teams Modelle effizient von der Entwicklung in die Produktion überführen und Endbenutzern nützliche ML-Lösungen bereitstellen.

Release-Pipeline

Die Release-Pipeline, eine wichtige Komponente des MLOps-Frameworks, ist darauf ausgelegt, die Zuverlässigkeit und Integrität von ML-Modellen zu gewährleisten, bevor sie in Betriebsumgebungen implementiert werden. In dieser Phase werden Modelle sorgfältig getestet und validiert, um Leistungsabfälle oder Probleme rechtzeitig vor der Bereitstellung zu erkennen. Um das zu erreichen, setzen MLOps-Teams häufig Staging-Umgebungen ein, die die Produktionsumgebung imitieren. Hier können sie strenge Tests durchführen, ohne die eigentlichen Systeme zu beeinträchtigen.

Kontinuierliche Integrationspraktiken sind ein grundlegender Bestandteil der Release-Pipeline in MLOps. Sie umfassen die fortlaufende Integration von Code- und Modelländerungen in die gemeinsame Codebasis. Dieser Ansatz ermöglicht es Teams, Konflikte oder Inkonsistenzen frühzeitig im Entwicklungszyklus zu erkennen und zu lösen. So können sie sicherstellen, dass das endgültige Modell robust und produktionsbereit ist. Dieser proaktive Ansatz hilft dabei, Anomalien, Leistungsengpässe oder unerwartetes Verhalten im Modell zu erkennen und zu beheben und trägt so zur allgemeinen Stabilität des ML-Systems bei. Im Wesentlichen dient die Release-Pipeline in MLOps als Schutzmechanismus, da sie sicherstellt, dass nur gründlich geprüfte und validierte Modelle in die Produktion gelangen.

Bereitstellung

Die Bereitstellungsphase innerhalb des MLOps-Frameworks stellt den entscheidenden Moment dar: Hier gehen die ML-Modelle von der Entwicklungs- und Testphase in reale Produktionsumgebungen über. Sobald die Modelle die strengen Tests und Validierungen erfolgreich durchlaufen haben, sind sie bereit für die Bereitstellung – mit der Gewissheit, dass sie genau arbeiten. In dieser Phase sind DevOps Engineers maßgeblich an der Orchestrierung des Bereitstellungsprozesses beteiligt. In ihrer Rolle müssen sie die Infrastruktur konfigurieren und verwalten, die für das Hosting der Modelle erforderlich ist, müssen gewährleisten, dass sie skalierbar sind, um die Anforderungen der Produktionsumgebung zu erfüllen, und müssen die Modelle nahtlos in vorhandene Systeme integrieren.

Zuverlässigkeit ist ein Eckpfeiler der MLOps-Bereitstellung, und DevOps-Techniker arbeiten intensiv daran, redundante Mechanismen und Failover-Prozesse einzurichten, um Ausfallzeiten zu minimieren und die kontinuierliche Verfügbarkeit von ML-Services sicherzustellen. Skalierbarkeit ist ebenfalls eine Priorität, da Produktions-Workloads stark variieren können und Modelle in der Lage sein müssen, den erhöhten Datenverkehr ohne Leistungseinbußen zu bewältigen. DevOps-Teams nutzen Tools zur Containerisierung und Orchestrierung, um ML-Workloads effizient zu verwalten und zu skalieren. Im Wesentlichen sorgt die MLOps-Bereitstellung in Zusammenarbeit mit DevOps-Experten dafür, dass ML-Modelle in realen betrieblichen Kontexten einen greifbaren Nutzen bieten.

Scoring

Das Scoring ist der Höhepunkt des MLOps-Prozesses: Hier werden die ML-Modelle, die es erfolgreich durch Datenerfassung, Vorverarbeitung, Training, Validierung, Bereitstellung und Integration geschafft haben, aktiv genutzt, um Prognosen oder Bewertungen (Scores) für neue und eingehende Daten zu generieren. Diese Phase wird oft als Inferenz oder Scoring bezeichnet, da sie die Anwendung der trainierten Modelle auf reale Daten umfasst, um wertvolle Einblicke zu gewinnen oder Entscheidungen zu treffen.

Die Bewertungsanwendungen sind vielfältig und können auf spezifische Anwendungsfälle zugeschnitten werden, z. B. Empfehlungssysteme, die personalisierte Produkt- oder Inhaltsvorschläge bereitstellen, Betrugserkennungssysteme, die verdächtige Transaktionen in Echtzeit kennzeichnen, oder Bilderkennungsalgorithmen, die Bilder automatisch klassifizieren und kategorisieren. Durch die Integration dieser vorausschauenden Funktionen in betriebliche Workflows können Unternehmen die Entscheidungsfindung verbessern, Aufgaben automatisieren und ihren Benutzern oder Kunden personalisierte und effizientere Services bereitstellen.

Die Bewertung ist kein einmaliges Ereignis, sondern ein fortlaufender Prozess, der die Prognosekraft der Modelle kontinuierlich nutzt, während neue Daten einströmen. MLOps-Teams überwachen und pflegen die Scoring-Pipeline, um deren Genauigkeit und Effektivität im Laufe der Zeit sicherzustellen. Darüber hinaus ist die Feedbackschleife zwischen Bewertungsergebnissen und dem erneuten Training von Modellen von entscheidender Bedeutung, da die Einblicke, die aus der Modellleistung in realen Szenarien gewonnen werden, zu Verfeinerungen und Verbesserungen der ML-Modelle führen.

Geschäftsanwendungen im Handumdrehen entwickeln Die Now Platform™ ermöglicht No-Code- und Low-Code-Entwicklung, sodass Analysten aus dem Geschäftsbetrieb ihre eigenen Anwendungen, oder Prototypen davon, erstellen können, ohne auch nur eine Zeile Code zu schreiben. Zum E-Book
Warum brauchen Unternehmen MLOps?

Unternehmen brauchen MLOps, weil sie hiermit die besonderen Herausforderungen von KI-/ML-Projekten in Bereichen wie Projektmanagement, kontinuierliche Integration und kontinuierliche Bereitstellung (Continuous Integration und Continuous Deployment, CI/CD) und Qualitätssicherung meistern können. Durch die Anwendung von DevOps-Verfahren auf maschinelles Lernen optimiert MLOps die Entwicklung und Bereitstellung von ML-Modellen. Das führt zu kürzeren Bereitstellungszeiten, weniger Fehlern und einer höheren Produktivität von Data Science-Teams.

MLOps stellt sicher, dass KI-/ML-Projekte effizient verwaltet werden – mit klaren Workflows und Versionskontrolle für Code- und Modellartefakte. Es vereinfacht automatisierte Tests sowie automatische Validierung und Bereitstellung, minimiert Fehler und beschleunigt die Bereitstellung von ML-Lösungen. Darüber hinaus wird eine Feedbackschleife eingerichtet, die es Data Science-Teams ermöglicht, Modelle basierend auf der realen Leistung kontinuierlich zu verfeinern. So können sie sicherstellen, dass die Modelle im Laufe der Zeit genau und relevant bleiben.

Welche Ziele verfolgt MLOps?

Bereitstellung und Automatisierung

Eines der primären Ziele von MLOps besteht darin, die Bereitstellung von ML-Modellen in Produktionsumgebungen zu optimieren und gleichzeitig manuelle Eingriffe zu minimieren. Die Automatisierung stellt sicher, dass Modelle zuverlässig und einheitlich bereitgestellt werden können. So wird das Fehlerrisiko verringert und die Markteinführungszeit für KI-Anwendungen beschleunigt. Außerdem wird die effiziente Skalierung von Modellen erleichtert, um unterschiedliche Workloads zu bewältigen, und es wird sichergestellt, dass der Bereitstellungsprozess wiederholbar und verwaltbar ist.

Reproduzierbarkeit von Modellen und Vorhersagen

MLOps zielt darauf ab, die Herausforderung der Reproduzierbarkeit im maschinellen Lernen anzugehen. Hierzu wird eine robuste Versionskontrolle eingerichtet, Änderungen in der Modellentwicklung werden nachverfolgt, und der gesamte Modelllebenszyklus wird dokumentiert. Dieses Ziel ähnelt der Quellcodeverwaltung in der Software-Entwicklung, wodurch Inkonsistenzen vermieden und sichergestellt werden kann, dass Modelle genau reproduziert werden können. Reproduzierbarkeit ist nicht nur für Forschung und Experimente, sondern auch für Compliance und Audits von entscheidender Bedeutung.

Governance und Compliance

Im Kontext von MLOps bezieht sich Governance auf die Definition und Durchsetzung von Richtlinien, Standards und Best Practices für ML-Projekte. Dieses Ziel stellt sicher, dass ML-Initiativen den gesetzlichen Vorschriften, Datenschutzgesetzen und internen Compliance-Standards entsprechen. MLOps-Frameworks helfen Unternehmen dabei, Transparenz, Verantwortlichkeit und Nachverfolgbarkeit in ihren KI-Bereitstellungen zu gewährleisten.

Skalierbarkeit

Ein weiteres Ziel von MLOps besteht darin, ML-Modelle skalierbar zu machen, um den Anforderungen unterschiedlicher Workloads gerecht zu werden. Dazu gehört die Optimierung der Modellleistung, Ressourcenzuteilung und Infrastrukturbereitstellung, um sicherzustellen, dass KI-Anwendungen gesteigerte Datenvolumen und Benutzerinteraktionen ohne Beeinträchtigung der Qualität oder Reaktionsfähigkeit bewältigen können.

Zusammenarbeit

Zusammenarbeit ist ein zentrales Ziel in MLOps, um Barrieren zwischen Data Science-, Engineering- und Betriebsteams zu beseitigen. MLOps-Verfahren fördern aktiv die produktive Kommunikation und Zusammenarbeit und stellen sicher, dass alle Stakeholder harmonisch zusammenarbeiten, um erfolgreiche ML-Projekte zu erreichen.

Geschäftsanwendungen

MLOps richtet maschinelles Lernen an den Geschäftszielen aus und stellt sicher, dass KI-Modelle entwickelt und bereitgestellt werden, die spezifische Geschäftsbedürfnisse und Herausforderungen bewältigen. Es soll einen messbaren Wert liefern, sei es bei der Prozessoptimierung, der Verbesserung der Kunden-Experience oder der Generierung verwertbarer Erkenntnisse aus Daten.

Überwachung und Verwaltung

Die fortlaufende Überwachung und Verwaltung bereitgestellter ML-Modelle ist für MLOps von zentraler Bedeutung. Das umfasst die Nachverfolgung von Modellleistung, Datenabweichungen und Systemzustand, damit Unternehmen proaktiv auf Probleme reagieren und in Echtzeit auf neue Bedingungen eingehen können. Überwachung und Verwaltung sind für den langfristigen Erfolg und die Nachhaltigkeit von KI-Anwendungen in der Produktion unerlässlich.

Was macht ein MLOps Engineer?

MLOps Engineers spielen eine zentrale Rolle dabei, Data Science und Betrieb zusammenzubringen. Der Schwerpunkt liegt hierbei auf den betrieblichen Aspekten von ML-Modellen und -Prozessen. Ihre Hauptverantwortung besteht darin, sicherzustellen, dass ML-Modelle, -Algorithmen und -Workflows effizient und nahtlos in Produktionsumgebungen ausgeführt werden. Dazu gehört die Optimierung der von Data Scientists entwickelten Codes, um schnell Vorhersagen zu treffen und Latenzzeiten zu minimieren, insbesondere in Echtzeitanwendungen, bei denen zeitnahe Einblicke entscheidend sind.

Als MLOps Engineer nutzen sie eine Kombination aus Software-Engineering und DevOps-Fähigkeiten, um KI- und ML-Modelle zu operationalisieren. Dies beinhaltet die Erstellung automatisierter Pipelines für Modelltraining, -validierung und -bereitstellung, die Einrichtung leistungsstarker Versionskontroll- und Überwachungssysteme und die Optimierung der Infrastruktur, um die Rechenanforderungen von ML-Workloads zu bewältigen. MLOps Engineers sind ein wichtiges Bindeglied, das Data Science-Teams den Übergang von der Modellentwicklung zur Produktion ermöglicht und gleichzeitig sicherstellt, dass die Modelle in realen Szenarien weiterhin präzise und zuverlässig funktionieren. Ihre Rolle ist entscheidend, um den Wert und die Wirkung von maschinellem Lernen im Unternehmen zu maximieren und Endbenutzern verwertbare Einblicke zu liefern, ohne dabei Geschwindigkeit oder Qualität zu beeinträchtigen.

Wo liegt der Unterschied zwischen MLOps und DevOps?

Der Hauptunterschied zwischen MLOps und DevOps liegt in den jeweiligen Domänen und Schwerpunktbereichen. DevOps stammt aus der Software-Entwicklung und befasst sich hauptsächlich mit der Entwicklung und dem Betrieb groß angelegter Softwareproduktionen. Ziel ist es, einen schnellen, kontinuierlich iterativen Ansatz für die Anwendungsentwicklung aufzubauen, indem der Fokus auf Automatisierung, Zusammenarbeit und effiziente Bereitstellung gelegt wird.

MLOps hingegen umfasst eine Reihe von Engineering-Praktiken, die speziell für maschinelles Lernen konzipiert sind und die DevOps-Prinzipien auf die Welt der Datenwissenschaft ausweiten. MLOps umfasst den gesamten Lebenszyklus des maschinellen Lernens, von der Datenerfassung und -vorverarbeitung bis hin zur Modellentwicklung, -bewertung, -bereitstellung und dem kontinuierlichen Neutrainieren. Es vereint diese unterschiedlichen Prozesse in einer zusammenhängenden End-to-End-Pipeline und stellt sicher, dass ML-Modelle in Produktionsumgebungen effektiv entwickelt und verwaltet werden können. Sowohl MLOps als auch DevOps teilen die Prinzipien der Automatisierung und Zusammenarbeit, doch MLOps wendet sie auf die einzigartigen Herausforderungen und Anforderungen des maschinellen Lernens an.

Wo liegt der Unterschied zwischen MLOps und AIOps?

MLOps und AIOps sind unterschiedliche, aber komplementäre Disziplinen im Bereich von künstlicher Intelligenz und Betrieb. MLOps konzentriert sich in erster Linie auf die Verwaltung von ML-Modellen und -Workflows, um deren effiziente Bereitstellung, Überwachung und Wartung in Produktionsumgebungen zu gewährleisten. AIOps hingegen steht für „Artificial Intelligence for IT Operations“, also künstliche Intelligenz für den IT-Betrieb, und konzentriert sich auf den Einsatz von KI- und ML-Techniken, um das IT- und Infrastrukturmanagement zu verbessern. Dazu gehören Aufgaben wie die Automatisierung der Anomalie-Erkennung, Ursachenanalyse und vorausschauende Wartung. Während MLOps speziell auf ML-Modelle abzielt, ist AIOps stärker darauf ausgerichtet, die Verwaltung und Leistung von IT-Systemen und -Betrieb durch KI-gestützte Einblicke und Automatisierung zu optimieren.

ServiceNow-Preise ServiceNow bietet wettbewerbsfähige Produktpakete, die mit Ihrem Unternehmen wachsen und sich an Ihre Anforderungen anpassen. Zur Preisgestaltung
IT-Betriebsmanagement mit ServiceNow

ServiceNow ist eine führende Plattform für IT-Betriebsmanagement (IT Operations Management, ITOM) und bietet eine umfassende Suite von Tools und Lösungen zur Optimierung von IT-Prozessen in Unternehmen. Mit uns erhalten Sie einen zentralen Hub für die Verwaltung von IT-Services, die Automatisierung von Aufgaben und die Gewährleistung von Effizienz bei der Reaktion auf Incidents, der Problemlösung sowie beim Change-Management. Mit ServiceNow können Teams ihre betriebliche Effizienz verbessern, Endbenutzern bessere Services bereitstellen und wertvolle Einblicke durch Analysen und Berichte gewinnen. So können sie den IT-Betrieb auf die Geschäftsziele abstimmen und die digitale Transformation vorantreiben. Erfahren Sie mehr über IT Operations Management von den Experten bei ServiceNow.

Funktionen, die mit Ihrem Unternehmen mitwachsen Erkennen Sie mit ServiceNow Probleme, bevor sie entstehen. ITOM entdecken Kontakt
Ressourcen Artikel Was ist ServiceNow? Was ist Platform-as-a-Service (PaaS)? Was ist maschinelles Lernen? Analystenberichte Kurzinfo IDC: KI-Wert mit einer digitalen Plattform maximieren Datenblätter Now Platform® Predictive Intelligence Performance Analytics E-Books CIOs weisen den Weg Die neue Rolle des CIO Vier Schritte zur Automatisierung und Vernetzung Ihres Unternehmens Whitepaper Bericht von TM Forum: Führender Anbieter im Bereich offene APIs werden