Che cosa sono le operazioni di machine learning (MLOps)?

MLOps, che è l'abbreviazione di Machine Learning Operations, è una disciplina collaborativa in ingegneria di Machine learning (ML) che ha lo scopo di ottimizzare il ciclo di vita end-to-end dei modelli dallo sviluppo alla distribuzione, e garantire l'efficacia nelle fasi di produzione, manutenzione e monitoraggio, collegando i team che si occupano di scienza dei dati e delle operazioni.

Ottieni demo
Informazioni utili sulle operazioni di machine learning
Che cos'è il processo di MLOps? Perché le grandi aziende hanno bisogno di MLOps? Quali sono gli obiettivi di MLOps? Di che cosa si occupano gli ingegneri di MLOps? Differenze: MLOps vs DevOps Differenze: MLOps vs AIOps Gestione operazioni IT con ServiceNow
Espandi tutto Comprimi tutto Che cos'è il processo di MLOps?

L'MLOps è un approccio completo e collaborativo alla gestione del ciclo di vita end-to-end dei modelli di machine learning. La disciplina ha l'obiettivo di colmare il divario tra la scienza dei dati e i team di operazioni IT, per garantire l'efficacia nelle fasi di sviluppo, implementazione e manutenzione dei modelli di machine learning in ambienti di produzione reali. Questo processo fornisce un framework strutturato che copre l'intero ciclo di vita del progetto di machine learning, dalla preparazione dei dati alla manutenzione continua. Si fissa di migliorare l'efficacia, l'affidabilità e l'agilità del processo, affinché le organizzazioni possano sfruttare la potenza del machine learning in modo sostenibile e responsabile. Di seguito sono indicati alcuni degli elementi chiave del processo.

Elaborazione dei dati

Questa fase fondamentale del processo di MLOps è necessaria per la preparazione dei dati al ciclo di vita del machine learning. Richiede un approccio meticoloso e iterativo all'esplorazione, la condivisione e la preparazione dei dati, per generare set di dati e visualizzazioni riproducibili, modificabili e condivisibili. Questa fase è essenziale perché la qualità e l'idoneità dei dati hanno ripercussioni profonde sulle prestazioni e sull'affidabilità dei modelli di machine learning.

L'elaborazione dei dati ha inizio con l'acquisizione di dati non elaborati e vede coinvolti ingegneri e data scientist che lavorano a stretto contatto. I dati vengono raccolti da varie fonti, puliti per rimuovere gli errori e le incoerenze e poi trasformati in un formato strutturato facilmente utilizzabile per la formazione dei modelli. L'elaborazione efficace dei dati costituisce la base per l'intera pipeline di machine learning perché consente di sviluppare e distribuire modelli più accurati e affidabili nel MLOps.

Formazione dei modelli

La formazione dei modelli è la fase successiva fondamentale nel processo di MLOps, in cui i data scientist utilizzano strumenti e tecniche diverse per sviluppare modelli di machine learning capaci di fornire previsioni o classificazioni accurate. Generalmente, questa fase comincia con la selezione di algoritmi e tecniche di machine learning adeguati in base al dominio del problema e alle caratteristiche dei dataset. Per facilitare il processo di formazione, spesso si utilizzano le librerie open source più comuni poiché offrono un'ampia gamma di algoritmi e metodi per l'ottimizzazione, che consentono ai data scientist di sperimentare diversi approcci per migliorare le prestazioni dei modelli.

Oltre alla tradizionale formazione dei modelli manuale, le operazioni di machine learning sfruttano l'automazione utilizzando strumenti come il Machine Learning automatizzato (AutoML). Le piattaforme AutoML semplificano il processo di sviluppo dei modelli mediante l'esecuzione automatica di prove con algoritmi multipli, configurazioni degli iperparametri e tecniche di pre-elaborazione. L'automazione del processo non solo fa risparmiare tempo, ma permette anche di creare un codice che può essere revisionato e distribuito. La formazione dei modelli nel MLOps è nel complesso un processo dinamico che unisce le competenze umane all'automazione per sviluppare modelli ad alte prestazioni pronti per le fasi successive del ciclo di vita del machine learning.

Test e valutazione dei modelli

Testare e valutare i modelli di machine learning serve a garantire la loro qualità, l'affidabilità e l'equità prima che vengano distribuiti in produzione. Questa fase prevede il monitoraggio attento delle derivazioni dei modelli e delle versioni, e la gestione degli artefatti del modello durante l'intero ciclo di vita.

In questa fase, i data scientist valutano le prestazioni dei modelli attraverso procedure rigorose. Utilizzano diversi parametri e tecniche di convalida incrociata per valutare la precisione, la generalizzazione e la robustezza dei modelli. Ciò permette di identificare e rettificare problemi come il sovradattamento, per il quale il modello mostra buone prestazioni sui dati di formazione, ma non altrettanto su quelli invisibili, esclusi dalla formazione, o sui pregiudizi che possono causare risultati ingiusti o discriminatori. Grazie a test e valutazioni sistematiche, i team di MLOps controllano che solo i modelli migliori passino alle fasi successive dello sviluppo per contribuire in modo positivo alle applicazioni nel mondo reale.

Definizione della compilazione e pipeline

La fase successiva del processo di MLOps consiste nella creazione di una definizione di compilazione e una pipeline, fondamentali per l'implementazione affidabile dei modelli di machine learning in produzione. Innanzitutto, i team determinano l'infrastruttura e le risorse necessarie per la distribuzione del modello, in base a fattori come la scalabilità, le prestazioni e la sicurezza. Questo passaggio può includere la selezione di risorse cloud o on premise adeguate, la configurazione di container o macchine virtuali e la verifica che l'ambiente sia in grado di soddisfare le esigenze specifiche del modello di machine learning.

Di vitale importanza è anche l'esecuzione del controllo di versione per gli artefatti sia del codice che del modello. I sistemi di controllo di versione si utilizzano per monitorare i cambiamenti apportati nel corso del tempo al codice e ai modelli, per garantirne la tracciabilità e la riproducibilità. Questo aspetto è particolarmente importante nel MLOps poiché i modelli vengono sottoposti a molte iterazioni e aggiornamenti. La creazione di una pipeline di versione efficace consente ai team di MLOps di far passare i modelli dalla fase di sviluppo a quella di produzione più facilmente, per offrire soluzioni valide di machine learning agli utenti finali.

Pipeline di versione

La pipeline di versione, un elemento fondamentale del framework di MLOps, è progettata per garantire l'affidabilità e l'integrità dei modelli di machine learning prima che vengano distribuiti negli ambienti operativi. Questa fase serve a testare attentamente e convalidare i modelli per rilevare eventuali regressioni o problemi ben prima che arrivino in distribuzione. Per rilevarli, i team di MLOps utilizzano spesso degli ambienti di gestione temporanea cioè che simulano l'ambiente di produzione, per condurre rigorosi test senza danneggiare i sistemi reali.

Le pratiche di integrazione continua costituiscono un aspetto fondamentale della pipeline di versione nel MLOps. Comportano l'integrazione continua di modifiche del codice e del modello nella codebase condivisa. Questo approccio consente ai team di identificare e risolvere conflitti o incoerenze nelle prime fasi del ciclo di sviluppo, garantendo che il modello finale sia solido e pronto per la produzione. Questo approccio proattivo aiuta a individuare e correggere eventuali anomalie, colli di bottiglia nelle prestazioni o comportamenti imprevisti nel modello, contribuendo alla stabilità complessiva del sistema di machine learning. Essenzialmente, la pipeline di versione in MLOps serve a garantire che solo modelli accuratamente controllati e convalidati entrino in produzione.

Distribuzione

La fase di distribuzione all'interno del framework MLOps rappresenta il momento cruciale in cui i modelli di machine learning passano dallo sviluppo e dal testing in ambienti di produzione reali. Una volta superati con successo rigorosi test e convalide, i modelli sono pronti per la distribuzione, con la garanzia di accuratezza. In questa fase, entrano in gioco gli ingegneri addetti alle DevOps, che si occupano di orchestrare il processo di distribuzione. Il loro ruolo consiste nella configurazione e nella gestione dell'infrastruttura necessaria per l'hosting dei modelli, in modo da garantire la scalabilità necessaria a soddisfare le esigenze dell'ambiente di produzione e integrare i modelli senza problemi con i sistemi esistenti.

L'affidabilità è un aspetto fondamentale della distribuzione di MLOps e gli ingegneri DevOps lavorano attentamente per configurare meccanismi ridondanti e di failover per ridurre al minimo i tempi di inattività e garantire la disponibilità continua dei servizi di machine learning. Anche la scalabilità è una priorità, poiché i carichi di lavoro di produzione possono variare in modo significativo e i modelli devono essere in grado di gestire l'aumento del traffico senza compromettere le prestazioni. I team di DevOps sfruttano gli strumenti di containerizzazione e orchestrazione per gestire e scalare in modo efficiente i carichi di lavoro del machine learning. In sostanza, la distribuzione di MLOps, con la collaborazione di esperti DevOps, consente di creare un valore tangibile all'interno di contesti operativi reali grazie ai modelli di machine learning.

Punteggio

Il punteggio rappresenta il culmine del processo MLOps, in cui i modelli di machine learning, avendo superato le fasi di acquisizione dei dati, pre-elaborazione, addestramento, convalida, distribuzione e integrazione, vengono utilizzati attivamente per generare previsioni o punteggi su dati nuovi e in entrata. Questa fase viene spesso definita come inferenza o punteggio del modello, in quanto comporta l'applicazione dei modelli addestrati ai dati del mondo reale per ricavare dati o decisioni preziose.

Le applicazioni del punteggio sono diverse e possono essere adattate a casi di utilizzo specifici, come i sistemi di raccomandazione che forniscono suggerimenti personalizzati su prodotti o contenuti, i sistemi di rilevazione delle frodi che segnalano le transazioni sospette in tempo reale o gli algoritmi di riconoscimento delle immagini che classificano e categorizzano automaticamente le immagini. Integrando queste funzionalità predittive nei workflow operativi, le organizzazioni possono migliorare il processo decisionale, automatizzare le attività e fornire servizi più personalizzati ed efficienti ai propri utenti o clienti.

Il punteggio non viene creato una tantum, ma è un processo continuo che sfrutta costantemente la potenza predittiva dei modelli man mano che entrano nuovi flussi di dati. I team MLOps monitorano e gestiscono la pipeline del punteggio per garantirne l'accuratezza e l'efficacia nel tempo. Inoltre, il ciclo di feedback tra i risultati del punteggio e il nuovo addestramento dei modelli è fondamentale, poiché le informazioni ricavate dalle prestazioni dei modelli negli scenari reali consentono di migliorare e perfezionare i modelli di machine learning.

Applicazioni aziendali semplici e veloci Now Platform™ consente uno sviluppo di tipo no/low code che gli analisti delle operazioni aziendali possono usare per realizzare app personalizzate, o crearne dei prototipi, senza scrivere una riga di codice. Scarica l'eBook
Perché le grandi aziende hanno bisogno di MLOps?

Le grandi aziende hanno bisogno delle operazioni MLOps perché si occupano delle sfide specifiche dei progetti di intelligenza artificiale/machine learning in ambiti come la gestione dei progetti, l'integrazione e la distribuzione continue (CI/CD) e il controllo qualità. Applicando le pratiche DevOps al machine learning, MLOps semplifica lo sviluppo e la distribuzione di modelli di machine learning, velocizzando i tempi di fornitura, riducendo i difetti e migliorando la produttività dei team di data science.

MLOps garantisce che i progetti di intelligenza artificiale/machine learning siano gestiti in modo efficiente, con workflow chiari e controllo delle versioni per gli artefatti dei codici e dei modelli. Facilita l'automazione di test, convalida e distribuzione riducendo al minimo gli errori e accelerando la fornitura delle soluzioni di machine learning. Inoltre, stabilisce un ciclo di feedback che consente ai team di data science di perfezionare continuamente i modelli sulla base delle prestazioni reali, garantendo che rimangano accurati e pertinenti nel tempo.

Quali sono gli obiettivi di MLOps?

Distribuzione e automazione

Uno degli obiettivi principali di MLOps è semplificare la distribuzione dei modelli di machine learning negli ambienti di produzione, riducendo al minimo l'intervento manuale. L'automazione garantisce che i modelli possano essere distribuiti in modo affidabile e coerente, riducendo il rischio di errori e accelerando il time-to-market delle applicazioni di intelligenza artificiale. Consente inoltre di scalare i modelli in modo efficiente per gestire carichi di lavoro variabili e garantisce che il processo di distribuzione sia ripetibile e gestibile.

Riproducibilità di modelli e previsioni

MLOps mira ad affrontare la sfida della riproducibilità nel machine learning stabilendo un solido controllo delle versioni, tenendo traccia delle modifiche nello sviluppo dei modelli e documentando l'intero ciclo di vita dei modelli. Simile al controllo origine nello sviluppo di software, questo obiettivo contribuisce a prevenire le incoerenze e garantisce che i modelli possano essere riprodotti in modo accurato. La riproducibilità è fondamentale non solo per la ricerca e la sperimentazione, ma anche per la conformità normativa e il controllo.

Governance e conformità alle normative

Nel contesto di MLOps, la governance si riferisce alla definizione e all'applicazione di norme, standard e best practice per i progetti di machine learning. Questo obiettivo garantisce che le iniziative di machine learning rispettino i requisiti normativi, le leggi sulla privacy dei dati e gli standard di conformità interni. I framework MLOps aiutano le organizzazioni a mantenere trasparenza, responsabilità e tracciabilità nell'implementazione dei progetti di intelligenza artificiale.

Scalabilità

Un altro obiettivo di MLOps è rendere scalabili i modelli di machine learning per soddisfare le diverse esigenze dei carichi di lavoro. Ciò comporta l'ottimizzazione delle prestazioni dei modelli, dell'allocazione delle risorse e dell'approvvigionamento dell'infrastruttura per garantire che le applicazioni di intelligenza artificiale possano gestire un volume di dati maggiore e più interazioni degli utenti senza compromettere la qualità o la reattività.

Collaborazione

La collaborazione è un obiettivo fondamentale in MLOps, poiché serve ad abbattere le barriere tra i team di data science, i team tecnici e le operazioni. Le pratiche MLOps promuovono attivamente la comunicazione e la collaborazione produttiva, garantendo che tutti gli stakeholder operino in modo armonioso creando progetti di machine learning di successo.

Usi aziendali

MLOps allinea i progetti di machine learning agli obiettivi di business, garantendo che i modelli di intelligenza artificiale siano sviluppati e distribuiti per rispondere a specifiche esigenze e sfide aziendali. Punta a fornire un valore misurabile, che si tratti di ottimizzare i processi, migliorare le esperienze dei clienti o generare informazioni utili a partire dai dati.

Monitoraggio e gestione

Il monitoraggio e la gestione continui dei modelli di machine learning distribuiti sono un aspetto fondamentale per MLOps. Ciò implica rilevare prestazioni dei modelli, deriva dei dati e stato del sistema, consentendo alle organizzazioni di affrontare in modo proattivo i problemi e di rispondere in tempo reale alle condizioni in evoluzione. Il monitoraggio e la gestione sono essenziali per il successo e la sostenibilità a lungo termine delle applicazioni di intelligenza artificiale in produzione.

Di che cosa si occupano gli ingegneri di MLOps?

Gli ingegneri MLOps svolgono un ruolo fondamentale nel colmare il divario tra data science e operazioni, poiché dedicano particolare attenzione agli aspetti operativi dei modelli e dei processi di machine learning. La loro principale responsabilità è garantire che modelli, algoritmi e workflow di machine learning funzionino in modo efficiente e senza problemi negli ambienti di produzione. Ciò comporta l'ottimizzazione dei codici sviluppati dai data scientist per realizzare previsioni rapide e ridurre al minimo la latenza, in particolare nelle applicazioni in tempo reale in cui le analisi tempestive sono fondamentali.

Gli ingegneri MLOps uniscono competenze di software engineering e di ambito DevOps per rendere operativi i modelli di intelligenza artificiale e machine learning. Ciò comporta la realizzazione di pipeline automatizzate per addestramento, convalida e distribuzione dei modelli, la creazione di potenti sistemi di controllo e monitoraggio delle versioni e l'ottimizzazione dell'infrastruttura per gestire le richieste computazionali dei carichi di lavoro del machine learning. Gli ingegneri MLOps svolgono un ruolo di collegamento cruciale, consentendo ai team di data science di passare dallo sviluppo dei modelli alla produzione e garantendo al contempo che i modelli continuino a funzionare in modo accurato e affidabile in scenari reali. Il loro ruolo è essenziale per massimizzare il valore e l'impatto del machine learning all'interno delle organizzazioni e per fornire dati utili agli utenti finali senza compromettere la velocità o la qualità.

Differenze: MLOps vs DevOps

La differenza principale tra MLOps e DevOps risiede nei rispettivi domini e aree di interesse. Le DevOps sono nate dal software engineering e si occupano principalmente dello sviluppo e delle operazioni di produzione di software su larga scala. Mirano a offrire un approccio rapido e continuamente iterativo alla distribuzione delle applicazioni, concentrandosi su automazione, collaborazione e distribuzione efficiente.

Le MLOps sono invece un insieme di pratiche ingegneristiche specifiche per i progetti di machine learning, che estendono i principi di DevOps al mondo della data science. Le MLOps comprendono l'intero ciclo di vita del machine learning, dalla raccolta e pre-elaborazione dei dati fino a sviluppo, valutazione, distribuzione e riaddestramento continuo dei modelli. Unisce questi diversi processi in una pipeline end-to-end coesa, garantendo che i modelli di machine learning possano essere sviluppati e mantenuti in modo efficace negli ambienti di produzione. Mentre sia MLOps che DevOps condividono i principi di automazione e collaborazione, MLOps li applica alle sfide e ai requisiti specifici del machine learning.

Differenze: MLOps vs AIOps

Nel campo dell'intelligenza artificiale e delle operazioni, MLOps e AIOps sono discipline distinte ma complementari. Le MLOps si concentrano principalmente sulla gestione dei modelli e dei workflow di machine learning, garantendone l'efficienza di distribuzione, monitoraggio e manutenzione negli ambienti di produzione. Le AIOps, invece, sono l'acronimo di Artificial Intelligence for IT Operations e si concentrano sull'uso dell'intelligenza artificiale e delle tecniche di machine learning per migliorare la gestione dell'IT e dell'infrastruttura, incluse attività come automazione del rilevamento delle anomalie, root cause analysis e manutenzione predittiva. Mentre le MLOps si occupano specificamente di modelli di machine learning, le AIOps si orientano maggiormente verso l'ottimizzazione della gestione e delle prestazioni dei sistemi e delle operazioni IT tramite dati e automazione basati sull'intelligenza artificiale.

Prezzi di ServiceNow ServiceNow offre pacchetti di prodotti competitivi che si ampliano man mano che la tua azienda cresce e le tue esigenze cambiano. Scopri i prezzi
Gestione operazioni IT con ServiceNow

ServiceNow è una piattaforma leader per la gestione delle operazioni IT (ITOM), che offre una suite completa di strumenti e soluzioni per semplificare e ottimizzare i processi IT all'interno delle organizzazioni. Fornisce un hub centralizzato per la gestione dei servizi IT, l'automazione delle attività e la garanzia di una risposta efficiente agli incidenti, la risoluzione dei problemi e la gestione dei cambiamenti. Con ServiceNow, i team possono migliorare l'efficienza operativa, fornire servizi migliori agli utenti finali e ottenere informazioni preziose tramite analisi e reporting, consentendo in ultima analisi di allineare le operazioni IT agli obiettivi di business e promuovere la trasformazione digitale. Scopri di più su Gestione operazioni IT dagli esperti di ServiceNow.

Funzionalità che crescono con la tua azienda Prevedi i problemi prima che si verifichino con ServiceNow. Scopri ITOM Contattaci
Riferimenti Articoli Cos'è ServiceNow? Che cos'è Platform as a Service (PaaS)? Che cos'è il machine learning? Report di analisi IDC Infobrief: Maximize AI Value with a Digital Platform (Infobrief IDC: Massimizza il valore dell'intelligenza artificiale con una piattaforma digitale) Schede dati Now Platform® Intelligenza predittiva Analisi delle prestazioni eBook Consentire ai CIO di assumere un ruolo guida Il mutevole ruolo del CIO Quattro passaggi per automatizzare e connettere la tua organizzazione White paper TM Forum Report: How to lead in the open API economy (Report Forum TM: Come guidare l'economia delle API aperte)