Intelligenza artificiale generativa in Azure Machine Learning Operazionalizzare lo sviluppo di app per la trasformazione dell’IA

Operazionalizzare lo sviluppo di app per la trasformazione dell'IA utilizzando l'intelligenza artificiale generativa in Azure Machine Learning

Nell’era dell’IA generativa, i leader si trovano all’incrocio tra innovazione e scopo. La domanda che risuona nelle sale riunioni e nelle conferenze di scienza dei dati è questa: come possono queste nuove tecnologie all’avanguardia essere sfruttate per promuovere gli obiettivi organizzativi con creatività e agilità aziendale, garantendo al contempo la responsabilità sociale? L’IA generativa non è solo uno strumento; la sua promessa, combinata con dati aziendali unici, alimenta il vantaggio competitivo.

Il team di Azure Machine Learning è stato all’avanguardia dell’innovazione, introducendo le capacità di IA generativa nella nostra piattaforma nell’ultimo anno, inclusa l’aggiunta di molti modelli OSS nel nostro catalogo di modelli. A Microsoft Inspire, abbiamo annunciato l’aggiunta dei modelli Llama 2 di Meta e dei modelli Falcon del Technology Innovation Institute.

Il campo di MLOps si è evoluto includendo LLMOps, l’atto di perfezionare e comprendere come selezionare, ottimizzare e gestire grandi modelli trasformatori per soddisfare una varietà di esigenze all’interno di un’organizzazione e, in particolare, come monitorare queste soluzioni su larga scala. Questo rappresenta un nuovo set di competenze operative per molte aziende. Abbiamo investito in questa area specializzata aggiungendo diverse funzionalità alla nostra piattaforma Azure Machine Learning.

Questo mese, siamo entusiasti di annunciare diverse nuove aggiunte al nostro portfolio di IA generativa in Azure Machine Learning.

Scopri, personalizza e distribuisci modelli di visione e multi-modalità nel catalogo di modelli di Azure Machine Learning

Siamo costantemente alla ricerca di nuovi modi efficaci per i professionisti dell’apprendimento automatico e gli sviluppatori di scoprire, generare prompt, ottimizzare e distribuire soluzioni di modelli di IA pre-addestrati su larga scala. A Build, abbiamo annunciato l’anteprima pubblica dei modelli foundation nel catalogo di modelli di Azure Machine Learning. Il catalogo di modelli funge da Hub centrale per esplorare collezioni di vari modelli foundation di Hugging Face, Meta e Azure OpenAI Service. Oggi segna un altro traguardo: l’anteprima di una variegata suite di nuovi modelli di visione open-source, che spaziano dalla classificazione delle immagini alla rilevazione degli oggetti e alla segmentazione delle immagini nel nostro catalogo di modelli.

Con queste nuove funzionalità, gli sviluppatori saranno in grado di integrare facilmente potenti modelli di visione nelle loro applicazioni e guidare l’innovazione dell’IA in settori come manutenzione predittiva, soluzioni intelligenti per il retail e veicoli autonomi.

thumbnail image 1 of blog post titled Generative AI in Azure Machine Learning: Operationalizing app development for AI transformation

Figura 1. Scopri i modelli di visione nel catalogo di modelli di Azure Machine Learning.

Inoltre, siamo lieti di annunciare importanti aggiornamenti di AutoML per immagini e NLP (elaborazione del linguaggio naturale), componenti integrali della suite di Azure Machine Learning. L’architettura aggiornata passa da un design monolitico a una pipeline di addestramento modulare basata su componenti, offrendo scalabilità, flessibilità, capacità di debug e affidabilità migliorate. Ora è possibile incorporare facilmente i modelli foundation più recenti nel catalogo di modelli nei propri progetti, personalizzare le pipeline per compiti specifici come la rilevazione degli oggetti o la classificazione del testo e risparmiare sui costi computazionali tramite un efficiente riutilizzo dei componenti. Che si stia perfezionando modelli esistenti o esplorando nuove architetture, questi aggiornamenti rendono più facile eseguire, monitorare e scalare i progetti di apprendimento automatico, sfruttando le ultime innovazioni nel panorama dell’IA.

– Leggi il blog dell’annuncio per ulteriori informazioni sui nuovi modelli di visione.

– Leggi il Blog su AutoML & NLP per approfondire gli aggiornamenti di AutoML.

Introduzione di un’esperienza di sviluppo basata su codice nel flusso di generazione prompt per uno sviluppo semplificato

I modelli di linguaggio di grandi dimensioni (LLM) hanno reso possibili molte attività intelligenti che in passato erano impossibili. Di conseguenza, c’è una forte necessità di creare applicazioni di intelligenza artificiale che sfruttino i LLM. Man mano che i LLM si evolvono rapidamente, l’ingegneria dei prompt e LLMOps svolgono un ruolo cruciale nel sfruttare pienamente il potenziale dei LLM con soluzioni su misura che soddisfano specifiche esigenze aziendali.

Per semplificare i processi iterativi di ottimizzazione della qualità tramite l’ingegneria dei prompt, abbiamo introdotto Azure Machine Learning prompt flow a Build 2023, un’esperienza di studio interattiva per progettare, sperimentare, valutare e distribuire flussi di lavoro LLM.

Prompt flow offre una serie di vantaggi che aiutano gli utenti a passare dall’ideazione alla sperimentazione e infine alle applicazioni pronte per la produzione arricchite da LLM. Quando parliamo con i clienti, le tre domande più comuni che sentiamo sono: come gestisco le versioni dei prompt, come integro i processi CI/CD e come esporto e distribuisco i miei flussi di prompt?

Per rispondere a queste domande ed estendere le capacità verso LLMOps più robuste, introduciamo un’esperienza di codifica iniziale nel prompt flow attraverso il nostro SDK, CLI, e l’estensione per VS Code, ora disponibile in anteprima. Ora, gli sviluppatori possono facilmente esportare una cartella di flussi dall’interfaccia utente del prompt flow e integrarla nel proprio repository di codice preferito, garantendo che i loro flussi di lavoro e prompt siano controllati e tracciati in modo efficiente. L’SDK del prompt flow non solo consente agli sviluppatori di testare localmente i flussi e ottenere output singoli, ma gli utenti possono anche inviare batch di esecuzione dei flussi a uno spazio di lavoro cloud e valutare rigorosamente i risultati dell’esecuzione, fornendo agli sviluppatori la capacità di gestire ampie scenari di test. Per facilitare un flusso continuo del pipeline di CI/CD, il prompt flow CLI e l’SDK offrono un’integrazione senza soluzione di continuità con Azure DevOps e GitHub Actions. L’estensione del prompt flow per VS Code migliora questa esperienza di sviluppo consentendo il test rapido, il perfezionamento e il debug dei flussi, il tutto in un’interfaccia che riflette l’interfaccia utente. Gli utenti possono anche importare semplicemente il proprio flusso locale direttamente nell’interfaccia utente di Azure Machine Learning o esportare una cartella di flussi con CLI in locale per realizzare una transizione fluida tra ambiente locale e cloud, assicurando che lo sviluppo locale sia sempre sincronizzato con il cloud e sfruttare appieno la potenza di Azure Machine Learning.

– Guarda questo video dimostrativo per capire come funzionano in pratica le esperienze di codifica iniziale nel prompt flow.

– Visita la nostra documentazione per saperne di più sul prompt flow.

Monitora le tue applicazioni AI generative in produzione con Azure Machine Learning

Il monitoraggio dei modelli in produzione è una parte essenziale del ciclo di vita dell’IA. I cambiamenti nei dati e nel comportamento dei consumatori possono influenzare la tua applicazione nel tempo, portando a sistemi di IA obsoleti, che possono produrre risultati indesiderati che possono influenzare negativamente i risultati aziendali e esporre le organizzazioni a rischi di conformità e reputazione. Purtroppo, il processo di monitoraggio delle applicazioni AI generative per la sicurezza, la qualità e le prestazioni è arduo senza strumenti predefiniti. A partire da oggi, in anteprima, Azure Machine Learning consente alle organizzazioni di monitorare le proprie applicazioni AI generative in produzione.

Ora gli utenti possono raccogliere dati di produzione utilizzando il Model Data Collector, analizzare metriche chiave di valutazione della sicurezza e della qualità su base ricorrente, ricevere avvisi tempestivi su problemi critici e visualizzare i risultati nel tempo in un ricco cruscotto all’interno dello studio di Azure Machine Learning.

Questa capacità si integra con le pipeline di valutazione, annotazione e misurazione predefinite di AzureML per valutare la sicurezza e la qualità della generazione. Ora puoi monitorare la tua applicazione per metriche chiave come coerenza, fluidità, pertinenza, rilevanza e similari, configurando anche le tue soglie personalizzate.

Per quanto riguarda le prestazioni, utilizzando le metriche di sistema del prompt flow, puoi anche visualizzare e tracciare i consumi di token per le tue applicazioni, come il numero totale di token di prompt e completamento per l’uso dell’applicazione.

Insieme, queste funzionalità possono aiutarti a identificare e diagnosticare meglio i problemi, comprendere i modelli di utilizzo e informare sull’ottimizzazione delle tue applicazioni con prompt engineering. In definitiva, il monitoraggio dei modelli di IA generativa consente applicazioni più precise, responsabili e conformi in produzione.

Visita la nostra documentazione per saperne di più su questa caratteristica.

immagine in anteprima 2 dell'articolo intitolato 'Generative AI in Azure Machine Learning: Sviluppo operativo dell'app per la trasformazione dell'IA'

Figura 2. Nella pagina di panoramica del monitoraggio, gli utenti possono configurare il monitoraggio per la propria applicazione, visualizzare le prestazioni complessive e rivedere le notifiche.

immagine in anteprima 3 dell'articolo intitolato 'Generative AI in Azure Machine Learning: Sviluppo operativo dell'app per la trasformazione dell'IA'

Figura 3. All’interno della pagina dei dettagli del monitoraggio, gli utenti possono visualizzare metriche a serie temporali, istogrammi, dettagli sulle prestazioni e risolvere le notifiche.

Prossimi passi

I nostri annunci questo mese mostrano come Azure Machine Learning sia in un ciclo continuo di miglioramento mentre ascoltiamo i nostri clienti e miglioriamo la nostra piattaforma. Tra alcuni mesi al Microsoft Ignite, sveleremo diverse nuove funzionalità che aiuteranno i data scientist e gli sviluppatori a sfruttare il potere dell’AI generativa all’interno delle loro organizzazioni. Speriamo che vi uniate a noi per saperne di più. Nel frattempo, provate Azure Machine Learning gratuitamente, e vi incoraggiamo ad aderire al nostro programma Insider. Se siete già clienti di Azure Machine Learning, visitate il nostro sito di documentazione per ulteriori informazioni.

Scopri di più qui!

Articolo originariamente pubblicato qui da Richard Tso. Ripubblicato con il permesso dell’autore.