MLOps (機械学習オペレーション) とは?

MLOps とは、Machine Learning Operations (機械学習オペレーション) の略で、ML エンジニアリングにおけるコラボレーション分野です。開発から展開まで、モデルのエンドツーエンドのライフサイクルを最適化し、データサイエンスチームとオペレーションチームを橋渡しすることで、効率的な実運用、メンテナンス、モニタリングを確実に実現します。

デモを依頼
MLOps (機械学習オペレーション) について知っておくべきこと
MLOps プロセスとは? 大規模組織が MLOps を必要とする理由 MLOps の目的 MLOps エンジニアの仕事とは? 何が違うのか:MLOps と DevOps の違い 何が違うのか:MLOps と AIOps の違い ServiceNow による IT Operations Management
すべて展開 すべて折りたたむ MLOps プロセスとは?

MLOps は、機械学習モデルのエンドツーエンドのライフサイクルを管理するための包括的でコラボレーティブなアプローチです。 データサイエンスチームと IT/オペレーションチームの間のギャップを埋めることで、実際の本番環境で機械学習モデルの効率的な開発、展開、メンテナンスを確実に行うことを目的としています。 このプロセスでは、データ準備から継続的なメンテナンスまで、機械学習プロジェクトのライフサイクル全体にわたり構造化フレームワークが提供されます。 これは、プロセスをより効率的で信頼性が高く、アジャイルなものにすることを目的としており、これにより組織は、機械学習の力を持続可能で説明責任のある方法で活用できるようになります。 以下は、プロセスの主要なコンポーネントの一部です。

データコンディショニング

MLOps プロセスにおけるこの基本的なステップは、機械学習のライフサイクル向けのデータを準備するうえで重要です。 再現性があり、編集や共有が可能なデータセットと可視化を実現するために、データの探索、共有、準備には細心の注意と反復アプローチが必要です。 データの品質と適合性が機械学習モデルのパフォーマンスと信頼性に大きく影響するため、このフェーズは不可欠です。

データコンディショニングは生データの取得から始まり、データエンジニアとデータサイエンティストが緊密に連携します。 データはさまざまなソースから収集され、エラーや不整合を取り除いてクリーンにし、モデルトレーニングにすぐに使用できる構造化形式に変換されます。 効果的なデータコンディショニングにより、機械学習パイプライン全体のステージが設定され、MLOps でのより正確で信頼性の高いモデルの開発と展開が可能となります。

モデルトレーニング

モデルトレーニングは、MLOps プロセスにおける次の重要なフェーズです。データサイエンティストは、ここでさまざまなツールやテクニックを活用し、正確な予測や分類を提供できる機械学習モデルを開発します。 この段階は通常、問題ドメインやデータセットの特性に基づいて、適切な機械学習アルゴリズムとテクニックを選択することから始まります。 一般的なオープンソースライブラリは、幅広いアルゴリズムと最適化方法を提供しており、データサイエンティストがモデルのパフォーマンスを向上させるためにさまざまなアプローチを試すことができるため、トレーニングプロセスを容易にするためによく使用されます。

従来の手作業によるモデルトレーニングに加えて、MLOps は AutoML (Automated Machine Learning、自動機械学習) のようなツールを使用した自動化を採用しています。 AutoML プラットフォームは、複数のアルゴリズム、ハイパーパラメーター構成、前処理技術による試行を自動的に行うことで、モデル開発プロセスを簡素化します。 この自動化は時間を節約するだけでなく、レビュー可能で展開可能なコードの作成にも役立ちます。 全体として、MLOps におけるモデルトレーニングは、人間の専門知識と自動化を組み合わせて、機械学習ライフサイクルの次のステージに向けた高性能モデルを作成するダイナミックなプロセスです。

モデルのテストと評価

モデルのテストと評価では、機械学習モデルを本番環境に展開する前に、その品質、信頼性、公平性を確保することに重点を置きます。 この段階では、モデルの系譜やバージョン、ライフサイクル全体にわたるモデルアーティファクトの管理を綿密に追跡します。

このフェーズでは、データサイエンティストはモデルのパフォーマンスを評価するために厳格なテスト手順を採用します。 さまざまな測定基準や交差検証技術を使用して、正確性、汎化性、堅牢性を測定します。 そうすることで、トレーニングデータではモデルがうまく機能するが、未知のデータではうまく機能しないという過剰適合などの問題や、不公平な結果や差別的な結果をもたらすバイアスなどの問題を特定して修正することができます。 体系的なテストと評価を通じて、MLOps チームは確実に、高品質のモデルのみが次の開発ステージに進み、実際のアプリケーションに積極的に貢献できるようにします。

ビルド定義とパイプライン

MLOps プロセスの次のステップは、ビルド定義とパイプラインを作成することです。これは、機械学習モデルを本番環境に確実に展開するために極めて重要です。 チームはまず、スケーラビリティ、パフォーマンス、セキュリティなどの要素を考慮しながら、モデル展開に必要なインフラストラクチャとリソースを決定します。 これには、適切なクラウドまたはオンプレミスのリソースの選択、コンテナまたは仮想マシンの構成、環境が機械学習モデル特有のニーズを満たすことができるようにすることが含まれます。

同様に重要なのは、コードアーティファクトとモデルアーティファクトの両方のバージョンコントロールを確立することです。 バージョンコントロールシステムは、コードとモデルの経時的な変更をモニタリングし、トレーサビリティと再現性を確保するために使用されます。 これは、モデルが何度も反復され更新される MLOps では特に重要です。 効果的なビルドパイプラインを構築することで、MLOps チームはモデルを開発から本番環境に効率的に移行し、価値ある機械学習ソリューションをエンドユーザーに提供できます。

リリースパイプライン

MLOps フレームワークの重要なコンポーネントであるリリースパイプラインは、機械学習モデルをオペレーション環境に展開する前に、その信頼性と整合性を保証するように設計されています。 このフェーズでは、モデルの綿密なテストと検証を行い、展開の前に回帰や問題を検出します。 これを実現するために、MLOps チームは本番環境を模倣したステージング環境を採用することが多く、本番システムに影響を与えることなく厳密にテストを実施できます。

継続的インテグレーションプラクティスは、MLOps のリリースパイプラインの基本的な部分です。 これには、コードやモデルの変更を共有コードベースに継続的に統合することが含まれます。 このアプローチにより、チームは開発サイクルの早い段階で競合や不整合を特定して解決することができ、最終モデルが堅牢で本番環境に対応可能なものとなります。 この事前対応型のアプローチは、モデルの異常、パフォーマンスのボトルネック、または予期せぬ動作を検出して修正するのに役立ち、機械学習システムの全体的な安定性に貢献します。 基本的に、MLOps のリリースパイプラインは、徹底的に吟味され検証されたモデルのみが本番環境に投入されることを保証するセーフガードとして機能します。

展開

MLOps フレームワーク内の展開フェーズは、機械学習モデルが開発やテストから実際の本番環境に移行する極めて重要な瞬間です。 モデルが厳密なテストと検証を無事通過すると、精度が保証された状態で展開の準備が整います。 この段階では、DevOps エンジニアが展開プロセスのオーケストレーションに力を発揮します。 その役割は、モデルをホストするために必要なインフラストラクチャの構成と管理、本番環境の需要に応じたスケーラビリティの確保、既存システムとのシームレスなモデルの統合などです。

信頼性は MLOps 展開の基盤です。DevOps エンジニアは冗長化とフェイルオーバーのメカニズムのセットアップに熱心に取り組み、ダウンタイムを最小限に抑え、機械学習サービスの継続的な可用性を確保します。 本番ワークロードは大きく異なる可能性があり、モデルはパフォーマンスを低下させることなくトラフィックの増大に対応できなければならないため、スケーラビリティも優先事項です。 DevOps チームはコンテナ化とオーケストレーションツールを活用して、機械学習のワークロードを効率的に管理し、拡張します。 すなわち、DevOps のエキスパートとのコラボレーションによる MLOps の展開により、実際のオペレーションコンテキスト内で機械学習モデルから具体的な価値を実現することができます。

スコアリング

スコアリングは、MLOps プロセスの集大成であり、データ取得、前処理、トレーニング、検証、展開、連携を無事に通過した機械学習モデルは、現在、新規データや受信データの予測やスコアの生成に積極的に使用されています。 このフェーズはモデル推論またはスコアリングと呼ばれ、トレーニングされたモデルを実際のデータに適用して貴重なインサイトや意思決定を導き出します。

スコアリングのアプリケーションは多様で、パーソナライズされた製品やコンテンツの提案を提供するレコメンドシステム、疑わしいトランザクションにリアルタイムでフラグを立てる不正検出システム、画像を自動的に分類してカテゴリ化を行う画像認識アルゴリズムなど、特定のユースケースに合わせてカスタマイズできます。 こうした予測機能を運用ワークフローに統合することで、組織は意思決定を強化し、タスクを自動化し、よりパーソナライズされた効率的なサービスをユーザーや顧客に提供することができます。

スコアリングは 1 回限りのイベントではなく、新規データが流れ込むたびにモデルの予測力を活用し続ける、継続的なプロセスです。 MLOps チームは、スコアリングパイプラインのモニタリングやメンテナンスを行い、その正確性と有効性を長期にわたり確保します。 さらに、スコアリング結果とモデルの再トレーニングの間のフィードバックループは極めて重要です。実際のシナリオでモデルのパフォーマンスから得られたインサイトが、機械学習モデルの改良と改善につながるからです。

簡単で素早く開発できるビジネスアプリケーション Now Platform™ によってノーコード/ローコード開発が可能となり、事業運営アナリストは、コーディングを一切することなく、独自アプリの構築やプロトタイプの作成ができます。 ダウンロード
大規模組織が MLOps を必要とする理由

組織に MLOps が必要なのは、プロジェクト管理、継続的インテグレーションと継続的展開 (CI/CD)、品質保証などの分野で、AI/ML プロジェクトがもたらす明確な課題に対処するためです。 DevOps プラクティスを機械学習に適用することで、MLOps は機械学習モデルの開発と展開を合理化し、納品時間の改善、不具合の削減、データサイエンスチームの生産性向上につながります。

MLOps は、コードアーティファクトとモデルアーティファクトの両方について明確なワークフローとバージョンコントロールにより、AI/ML プロジェクトを効率的に管理します。 テスト、検証、展開の自動化を促進し、エラーを最小限に抑え、機械学習ソリューションの提供を加速します。 さらに、フィードバックループを確立することで、データサイエンスチームは実際のパフォーマンスに基づいてモデルを継続的に改良することができ、長期にわたり正確で適切なモデルを維持することができます。

MLOps の目的

展開と自動化

MLOps の主な目的の 1 つは、手作業による介入を最小限に抑えながら、機械学習モデルの本番環境への展開を合理化することです。 自動化により、モデルを確実かつ一貫して展開できるようになり、エラーのリスクが軽減され、AI アプリケーションの商品化までの時間が短縮されます。 また、モデルの効率的なスケーリングが促進され、さまざまなワークロードに対応できるようになるため、展開プロセスの反復と管理が確かなものとなります。

モデルと予測の再現性

MLOps は、堅牢なバージョンコントロールを確立し、モデル開発における変更を追跡し、モデルのライフサイクル全体を文書化することで、機械学習の再現性という課題への対処を目指しています。 この目標は、ソフトウェア開発におけるソース管理と同様に、矛盾を防止し、モデルを正確に再現できるようにするのに役立ちます。 再現性は、研究や実験だけでなく、法令遵守や監査にも重要です。

ガバナンスと法令遵守

MLOps のコンテキストでは、ガバナンスとは、機械学習プロジェクトのポリシー、標準、ベストプラクティスを定義して適用することを指します。 この目標により、機械学習イニシアチブが規制要件、データプライバシー法、内部コンプライアンス基準を遵守できるようになります。 MLOps フレームワークは、AI 展開において組織が透明性、説明責任、トレーサビリティを維持するのに役立ちます。

スケーラビリティ

MLOps のもう 1 つの目標は、機械学習モデルをスケーラブルにして、さまざまなワークロードの要求に対応できるようにすることです。 これには、モデルのパフォーマンス、リソース割り当て、インフラストラクチャのプロビジョニングの最適化が含まれ、AI アプリケーションが品質や応答性を低下させることなく、データ量の増加やユーザーインタラクションに確実に対応することができます。

コラボレーション

コラボレーションは MLOps の中核的な目標で、データサイエンスチーム、エンジニアリングチーム、運用チーム間の障壁を取り除くことを目指しています。 MLOps プラクティスでは、生産的なコミュニケーションとコラボレーションを積極的に促進し、機械学習プロジェクトを成功させるためにすべてのステークホルダーが調和してオペレーションを行うことができるようにします。

ビジネス用途

MLOps は、機械学習プロジェクトを事業達成目標に合わせて調整し、特定のビジネスニーズや課題に対応するために AI モデルの開発と展開ができるようにします。 プロセスの最適化、カスタマーエクスペリエンスの向上、データからの実用的なインサイトの生成など、測定可能な価値を提供することを目指しています。

モニタリングと管理

展開された機械学習モデルの継続的なモニタリングと管理は、MLOps の中心です。 モデルのパフォーマンス、データドリフト、システムの健全性を追跡することで、組織は問題にプロアクティブに対処し、変化する状況にリアルタイムで対応できます。 モニタリングと管理は、本番環境における AI アプリケーションの長期的な成功と持続可能性にとって不可欠です。

MLOps エンジニアの仕事とは?

MLOps エンジニアは、機械学習モデルとプロセスのオペレーション面に主に焦点を当て、データサイエンスとオペレーションのギャップを埋めるうえで非常に重要な役割を果たします。 その中核となる責任は、機械学習モデル、アルゴリズム、ワークフローが本番環境で効率的かつシームレスに実行されるようにすることです。 これには、データサイエンティストが開発したコードを最適化して、迅速に予測を行い、レイテンシを最小限に抑えることが必要で、特に、タイムリーなインサイトが不可欠なリアルタイムアプリケーションでは重要です。

MLOps エンジニアは、ソフトウェアエンジニアリングと DevOps スキルを組み合わせて活用し、AI と ML モデルを運用します。 これには、モデルのトレーニング、検証、展開のための自動パイプラインの作成、強力なバージョンコントロールとモニタリングシステムの確立、機械学習ワークロードの計算需要に対処するためのインフラストラクチャの最適化などが含まれます。 MLOps エンジニアは、データサイエンスチームがモデル開発から本番環境に移行できるようにする一方で、モデルが実際のシナリオで正確かつ信頼性の高いパフォーマンスを継続できるようにする、重要なリンクとして機能します。 組織内で機械学習の価値と影響力を最大化し、スピードや品質を損なうことなく、実用的なインサイトをエンドユーザーに提供するためには、彼らの役割が不可欠です。

何が違うのか:MLOps と DevOps の違い

MLOps と DevOps の主な違いは、それぞれのドメインと重点分野にあります。 DevOps はソフトウェアエンジニアリングから生まれ、主に大規模なソフトウェア生産の開発と運用に関わっています。 自動化、コラボレーション、効率的なデリバリを重視することで、アプリケーションの出荷に迅速かつ継続的な反復アプローチを導入することを目指しています。

一方、MLOps は機械学習プロジェクトに特化した一連のエンジニアリングプラクティスであり、DevOps の原則をデータサイエンスの世界に拡張したものです。 MLOps には、データ収集や前処理から、モデル開発、評価、展開、継続的な再トレーニングまで、機械学習のライフサイクル全体が含まれます。 このような多様なプロセスを統合して、結束力のあるエンドツーエンドのパイプラインにすることで、機械学習モデルを開発し、本番環境で効果的にメンテナンスできるようにします。 MLOps と DevOps はどちらも自動化とコラボレーションの原則を共有していますが、MLOps はそれらを機械学習特有の課題と要件に適用します。

何が違うのか:MLOps と AIOps の違い

MLOps と AIOps は、人工知能とオペレーションの分野では別個のものですが、補完的な分野です。 MLOps は主に機械学習モデルとワークフローの管理に重点を置き、本番環境での効率的な展開、モニタリング、メンテナンスを確実に行います。 一方、AIOps は「Artificial Intelligence for IT Operations (IT 運用のための人工知能)」の略で、AI と機械学習の技術を使用して IT とインフラストラクチャの管理を強化することを中心に据えています。これには、異常検出の自動化、根本原因分析、予測メンテナンスなどのタスクが含まれます。 MLOps は特に機械学習モデルを扱っていますが、AIOps は AI 主導型のインサイトと自動化を通じて IT システムやオペレーションの管理とパフォーマンスを最適化することをより幅広く目指しています。

ServiceNow の価格設定 ServiceNow では、お客様の組織のビジネスの成長とニーズの変化に合わせて拡張可能な、競争力のある製品パッケージをご用意しています。 見積もりを依頼
ServiceNow による IT Operations Management

ServiceNow は、IT Operations Management (ITOM) 向けの業界をリードするプラットフォームで、組織内の IT プロセスを簡素化して最適化するための包括的なツールとソリューションをもたらします。IT サービスの管理、タスクの自動化、効率的なインシデント対応、問題解決、変更管理を実現するための一元化されたハブを提供します。ServiceNow を使用することで、チームは運用効率を高め、エンドユーザーに優れたサービスを提供し、分析とレポートを通じて貴重なインサイトを得ることができます。これにより、最終的には IT 運用を事業達成目標に合わせて調整し、デジタルトランスフォーメーションを推進することができます。詳細については、ServiceNow のエキスパートによる IT Operations Management (ITOM) の説明をご確認ください。

ビジネスに合わせて拡張できる機能 ServiceNow で問題を発生前に予測しましょう。 ITOM の詳細を見る お問い合わせ
リソース 記事 ServiceNow とは Platform as a Service (PaaS) とは? 機械学習とは? アナリストレポート IDC InfoBrief:デジタルプラットフォームで AI の価値を最大化 データシート Now Platform® 予測インテリジェンス パフォーマンスアナリティクス 電子書籍 CIO のリーダーシップを強化 CIO の役割の変化 組織における自動化と連携を実現する 4 つのステップ ホワイトペーパー TM Forum Report: How to lead in the open API economy (TM フォーラムレポート:オープン API エコノミーをリードする方法)