Questa settimana in AI, 31 luglio 2023

AI news this week, July 31, 2023.

 

Benvenuti alla prima edizione di “Questa settimana nell’AI” su VoAGI. Questo post settimanale selezionato si propone di tenervi aggiornati sulle più interessanti novità nel mondo in continua evoluzione dell’intelligenza artificiale. Dai titoli rivoluzionari che plasmano la nostra comprensione del ruolo dell’AI nella società, agli articoli stimolanti, alle risorse di apprendimento utili e alla ricerca di spicco che spinge i confini delle nostre conoscenze, questo post offre una panoramica completa del panorama attuale dell’AI. Senza entrare ancora nei dettagli, aspettatevi di esplorare una vasta gamma di argomenti che riflettono la natura vasta e dinamica dell’AI. Ricordate, questa è solo la prima di tante aggiornamenti settimanali futuri, progettati per tenervi aggiornati e informati in questo campo in continua evoluzione. Restate sintonizzati e buona lettura!

 

Titoli

  La sezione “Titoli” discute le principali notizie e sviluppi della settimana scorsa nel campo dell’intelligenza artificiale. Le informazioni spaziano dalle politiche governative sull’IA ai progressi tecnologici e alle innovazioni aziendali nell’IA.

💡 I Giganti dell’AI si Impegnano per un’Innovazione Responsabile nell’Amministrazione Biden-Harris

L’Amministrazione Biden-Harris ha ottenuto impegni volontari da sette importanti aziende di AI – Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI – per garantire lo sviluppo sicuro, sicuro e trasparente della tecnologia dell’IA. Questi impegni sottolineano tre principi fondamentali per il futuro dell’IA: sicurezza, sicurezza e fiducia. Le aziende hanno accettato di condurre test di sicurezza interni ed esterni dei loro sistemi di IA prima del rilascio, condividere informazioni sulla gestione dei rischi dell’IA e investire nella sicurezza informatica. Si impegnano anche a sviluppare meccanismi tecnici per garantire agli utenti di sapere quando i contenuti sono generati dall’IA e a rendere pubbliche le capacità, i limiti e le aree di utilizzo appropriato e inappropriato dei loro sistemi di IA. Questa mossa fa parte di un impegno più ampio da parte dell’Amministrazione Biden-Harris per garantire che l’IA venga sviluppata in modo sicuro e responsabile e per proteggere gli americani da danni e discriminazioni.

  💡 Stability AI Svela Stable Beluga: i Nuovi Titan dell’IA Linguistica

Stability AI e il suo laboratorio CarperAI hanno annunciato il lancio di Stable Beluga 1 e Stable Beluga 2, due potenti modelli linguistici di grandi dimensioni (LLM) ad accesso aperto. Questi modelli, che dimostrano una straordinaria capacità di ragionamento su diversi benchmark, si basano rispettivamente sui modelli fondamentali originali LLaMA 65B e LLaMA 2 70B. Entrambi i modelli sono stati ottimizzati con un nuovo dataset generato in modo sintetico utilizzando il Supervised Fine-Tune (SFT) nel formato standard Alpaca. L’addestramento dei modelli Stable Beluga è stato ispirato dalla metodologia utilizzata da Microsoft nel suo documento: “Orca: Progressive Learning from Complex Explanation Traces of GPT-4”. Nonostante l’addestramento su un decimo delle dimensioni del campione del documento Orca originale, i modelli Stable Beluga mostrano prestazioni eccezionali su vari benchmark. Al 27 luglio 2023, Stable Beluga 2 è il modello migliore nella classifica, e Stable Beluga 1 è al quarto posto.

  💡 Il CEO di Spotify Suggerisce Futuri Capabilities di Personalizzazione e Pubblicità Basate sull’IA

Durante la call sugli utili del secondo trimestre di Spotify, il CEO Daniel Ek ha suggerito la possibile introduzione di funzionalità basate sull’IA aggiuntive al servizio di streaming. Ek ha suggerito che l’IA potrebbe essere utilizzata per creare esperienze più personalizzate, riassumere podcast e generare pubblicità. Ha evidenziato il successo della funzione DJ lanciata di recente, che offre una selezione curata di musica insieme a commenti basati sull’IA sui brani e sugli artisti. Ek ha anche menzionato l’utilizzo potenziale di un’IA generativa per riassumere i podcast, facilitando agli utenti la scoperta di nuovi contenuti. Inoltre, Ek ha discusso della possibilità di annunci audio generati dall’IA, che potrebbero ridurre significativamente i costi per gli inserzionisti nello sviluppare nuovi formati pubblicitari. Questi commenti arrivano mentre Spotify cerca un brevetto per un sistema di “sintesi testo-voce” basato sull’IA, in grado di convertire il testo in audio simile a una voce umana che incorpora emozioni e intenzioni.

 

Articoli

  La sezione “Articoli” presenta una serie di articoli stimolanti sull’intelligenza artificiale. Ogni articolo approfondisce un argomento specifico, offrendo ai lettori approfondimenti su vari aspetti dell’IA, tra cui nuove tecniche, approcci rivoluzionari e strumenti innovativi.

📰 ChatGPT Code Interpreter: Fai Data Science in Minuti

Questo articolo di VoAGI presenta il plugin Code Interpreter di ChatGPT, uno strumento in grado di analizzare dati, scrivere codice Python e costruire modelli di machine learning. L’autrice, Natassha Selvaraj, dimostra come il plugin possa essere utilizzato per automatizzare vari flussi di lavoro di data science, tra cui la sintesi dei dati, l’analisi esplorativa dei dati, la pre-elaborazione dei dati e la costruzione di modelli di machine learning. Il Code Interpreter può anche essere utilizzato per spiegare, debuggare e ottimizzare il codice. Natassha sottolinea che, sebbene lo strumento sia potente ed efficiente, dovrebbe essere utilizzato come base per i compiti di data science, poiché manca di conoscenze specifiche del dominio e non può gestire grandi dataset residenti in database SQL. Natassha suggerisce che gli scienziati dei dati di livello base e coloro che aspirano a diventarlo dovrebbero imparare come sfruttare strumenti come il Code Interpreter per rendere il loro lavoro più efficiente.

📰 I libri di testo sono tutto ciò di cui hai bisogno: un approccio rivoluzionario alla formazione dell’IA

Questo articolo di VoAGI discute un nuovo approccio alla formazione dell’IA proposto dai ricercatori di Microsoft, che prevede l’utilizzo di un libro di testo sintetico anziché di enormi set di dati. I ricercatori hanno addestrato un modello chiamato Phi-1 interamente su un libro di testo fatto su misura e hanno scoperto che si è comportato in modo molto impressionante nelle attività di codifica Python, nonostante fosse significativamente più piccolo rispetto a modelli come GPT-3. Ciò suggerisce che la qualità dei dati di addestramento può essere altrettanto importante quanto la dimensione del modello. Le prestazioni del modello Phi-1 sono migliorate anche quando è stato sottoposto a un’ottimizzazione mirata con esercizi e soluzioni sintetiche, il che indica che l’ottimizzazione mirata può migliorare le capacità di un modello oltre alle attività per cui è stato specificamente addestrato. Ciò suggerisce che questo approccio basato sui libri di testo potrebbe rivoluzionare la formazione dell’IA spostando l’attenzione dalla creazione di modelli più grandi alla cura di dati di addestramento migliori.

📰 Ultima tecnica di ingegneria delle istruzioni che trasforma in modo inventivo istruzioni imperfette in interazioni superbe per l’utilizzo di AI generative

L’articolo discute una nuova tecnica nell’ingegneria delle istruzioni che favorisce l’uso di istruzioni imperfette. L’autore sostiene che la ricerca di istruzioni perfette può essere controproducente e che spesso è più pratico puntare a istruzioni “abbastanza buone”. Le applicazioni di AI generative utilizzano metodi probabilistici e statistici per analizzare le istruzioni e generare risposte. Pertanto, anche se la stessa istruzione viene utilizzata più volte, l’IA probabilmente produrrà risposte diverse ogni volta. L’autore suggerisce che anziché cercare un’istruzione perfetta, gli utenti dovrebbero utilizzare istruzioni imperfette e aggregarle per creare istruzioni efficaci. L’articolo fa riferimento a uno studio di ricerca intitolato “Ask Me Anything: una semplice strategia per l’istruzione di modelli di linguaggio” che propone un metodo per trasformare istruzioni imperfette in robuste aggregando le predizioni di molte istruzioni efficaci, ma imperfette.

Risorse di apprendimento

La sezione “Risorse di apprendimento” elenca contenuti didattici utili per coloro che desiderano ampliare le proprie conoscenze nell’ambito dell’IA. Le risorse, che vanno dalle guide complete ai corsi specializzati, sono adatte sia ai principianti che ai professionisti esperti nel campo dell’IA.

📚 LLM University di Cohere: il tuo ingresso nel mondo dei modelli di linguaggio ampi

LLM University di Cohere è una risorsa didattica completa per sviluppatori interessati al Natural Language Processing (NLP) e ai Large Language Models (LLM). Il curriculum è progettato per fornire una solida base in NLP e LLM, per poi sviluppare su questa conoscenza applicazioni pratiche. Il curriculum è diviso in quattro moduli principali: “Che cosa sono i modelli di linguaggio ampi?”, “Rappresentazione del testo con Cohere Endpoints”, “Generazione del testo con Cohere Endpoints” e “Deployment”. Che tu sia un nuovo ingegnere di machine learning o un sviluppatore esperto desideroso di ampliare le tue competenze, LLM University di Cohere offre una guida completa al mondo del NLP e dei LLM.

Ricerca in primo piano

La sezione “Ricerca in primo piano” mette in evidenza ricerche significative nel campo dell’IA. La sezione include studi innovativi, esplorazioni di nuove teorie e discussioni sulle possibili implicazioni e direzioni future nel campo dell’IA.

🔍 Il ruolo dei modelli di linguaggio ampi nell’evoluzione dell’istruzione delle scienze dei dati

L’articolo di ricerca intitolato “Il ruolo dei modelli di linguaggio ampi nell’evoluzione dell’istruzione delle scienze dei dati” discute l’impatto trasformativo dei modelli di linguaggio ampi (LLM) sui ruoli e le responsabilità degli scienziati dei dati. Gli autori sostengono che la crescita dei LLM sta spostando l’attenzione degli scienziati dei dati dalla codifica pratica alla gestione e alla valutazione delle analisi eseguite da sistemi di AI automatizzati. Questo cambiamento richiede un’evoluzione significativa nell’istruzione delle scienze dei dati, con un maggiore enfasi sulla coltivazione di diverse competenze tra gli studenti. Queste includono la creatività informata dai LLM, il pensiero critico, la programmazione guidata dall’AI e la conoscenza interdisciplinare.

Gli autori propongono anche che i LLM possano svolgere un ruolo significativo in classe come strumenti interattivi di insegnamento e apprendimento. Possono contribuire all’istruzione personalizzata e arricchire le esperienze di apprendimento. Tuttavia, l’integrazione dei LLM nell’istruzione richiede una considerazione attenta per bilanciare i benefici dei LLM mentre si favorisce l’expertise umana e l’innovazione complementare. L’articolo suggerisce che il futuro dell’istruzione delle scienze dei dati probabilmente coinvolgerà una relazione simbiotica tra studenti umani e modelli di AI, in cui entrambe entità imparano e migliorano le rispettive capacità reciprocamente.