Questa newsletter di intelligenza artificiale è tutto ciò di cui hai bisogno #76

La newsletter di intelligenza artificiale imperdibile, l'edizione n.76!

Cosa è successo questa settimana nell’IA di Louie

Questa settimana, ci siamo concentrati su importanti sviluppi nell’IA al di là del campo dei trasformatori e dei grandi modelli di linguaggio (LLM). Mentre il recente slancio nel rilascio di nuovi modelli di generazione video basati sulla diffusione continuava, ciò che ci ha entusiasmato di più è il nuovo modello di materiali di DeepMind, GNoME.

GNoME è una nuova rete neurale grafica su larga scala progettata per scoprire nuove strutture di materiali cristallini che aumentano notevolmente la velocità e l’efficienza della scoperta. I risultati del modello sono stati annunciati e resi disponibili da Deepmind questa settimana. Incredibilmente, questo ha aumentato il numero di materiali stabili conosciuti dall’umanità di circa 10 volte a settimana! La scoperta di GNoME di 2,2 milioni di materiali equivale a circa 800 anni di conoscenza. Dei suoi 2,2 milioni di previsioni, si stima che 380.000 siano stabili, rendendoli promettenti candidati per la sintesi sperimentale. Nonostante questa enorme avanzata nella conoscenza umana, c’è ancora un collo di bottiglia nel numero di laboratori ed esperti disponibili per produrre questi materiali e testarli per proprietà utili. In modo positivo a questo proposito, è stato pubblicato un secondo articolo che dimostra come l’IA possa anche essere utilizzata per aiutare a produrre questi materiali.

Perché dovresti interessarti?

https://deepmind.google/it/discover/blog/millions-of-new-materials-discovered-with-deep-learning/

La storia umana è stata regolarmente segmentata e descritta dai nuovi materiali scoperti e utilizzati, e ancora oggi molte nuove tecnologie possono essere guidate dalla scoperta di nuovi materiali, dall’energia pulita ai chip per computer, dall’energia di fusione ai superconduttori a temperatura ambiente. Pensiamo che ci sia una alta probabilità che ci sia un nuovo materiale rivoluzionario contenuto nella nuova versione dei dati di Deepmind; tuttavia, ci vorrà comunque molto tempo per scoprire quali nuovi materiali hanno proprietà utili e sono prodotti in modo economico su scala. In modo più ampio, il successo nel ridimensionamento delle reti neurali grafiche qui suggerisce che il recente sviluppo delle GPU di intelligenza artificiale condurrà a progressi al di là del mondo della ridimensionamento dei LLM.

– Louie Peters – Co-fondatore e CEO di Towards AI

Ultime notizie

  1. Meta introduce Seamless: una traduzione multilingue espressiva in tempo reale

Meta ha introdotto una famiglia di modelli che consentono traduzioni multilingue e espressive end-to-end, SeamlessM4T v2. Seamless è un sistema che rivoluziona la traduzione automatica del discorso. Questo modello avanzato traduce in 76 lingue e preserva lo stile vocale e la prosodia unici del parlante, rendendo le conversazioni più naturali.

2. Introduzione di SDXL Turbo: un modello di generazione di testo-immagine in tempo reale

Stability AI introduce SDXL Turbo, un nuovo modello di testo-immagine che utilizza la distillazione di diffusione avversaria (ADD) per generare immagini di alta qualità in un solo passaggio rapidamente. Consente la creazione rapida e precisa di immagini di 512 x 512 in poco più di 200 millisecondi.

3. Pika sorprende nel suo debutto come generatore di video AI che prende di mira i giganti della tecnologia

Pika Labs ha pubblicato Pika 1.0, un impressionante strumento di generazione di video AI. Ha funzioni avanzate come la conversione da testo a video e da immagini a video. L’azienda ha anche raccolto 55 milioni di dollari di finanziamenti per competere contro i giganti Meta, Adobe e Stability AI.

4. Starling-7B: Aumentare l’efficacia e l’innocuità degli LLM con RLAIF

Berkeley ha presentato Starling-7B, un potente modello di linguaggio che utilizza il Reinforcement Learning from AI Feedback (RLAIF). Sfrutta la potenza del nuovo set di dati di classificazione etichettato di Berkeley, Nectar. Il modello supera tutti i modelli finora su MT-Bench ad eccezione di GPT-4 e GPT-4 Turbo di OpenAI.

5. Amazon presenta nuovi chip per addestrare ed eseguire modelli di intelligenza artificiale

AWS ha presentato la sua prossima generazione di chip di intelligenza artificiale – Graviton4 e Trainium 2, per l’addestramento e l’inferenza dei modelli. Trainium 2 è progettato per offrire prestazioni fino a 4 volte migliori e un’efficienza energetica il doppio superiore, mentre Graviton4 offre prestazioni di calcolo fino al 30% migliori, il 50% in più di core e il 75% in più di larghezza di banda della memoria rispetto alla generazione precedente.

Questa settimana sono stati rilasciati diversi nuovi modelli generativi per la generazione di immagini, audio e video. Quale ti sembra il più promettente e perché? Condividilo nei commenti.

Cinque letture/video di 5 minuti per continuare a imparare

  1. Visualizzazioni LLM

Questo articolo presenta rappresentazioni visive e interattive di rinomate architetture di trasformazione, tra cui nano GPT, GPT2 e GPT3. Fornisce chiare visualizzazioni ed illustra le connessioni tra tutti i blocchi.

2. Come migliorare il tuo LLM?

Questo video guida gli sviluppatori e gli appassionati di intelligenza artificiale a migliorare i LLM, offrendo metodi per miglioramenti minori e significativi. Aiuta anche a scegliere tra l’addestramento da zero, il fine-tuning, l’ingegneria delle soluzioni (avanzata) e la generazione basata su Recupero arricchita da Memoria (RAG) con il Deep Memory di Activeloop.

3. Guardando indietro a un anno di trasformazioni per l’intelligenza artificiale

È passato un anno da quando OpenAI ha lanciato silenziosamente ChatGPT. Questo articolo ripercorre la timeline dell’evoluzione dell’intelligenza artificiale nell’ultimo anno e come queste tecnologie potrebbero ribaltare il lavoro creativo e di conoscenza come lo conosciamo.

4. Perché gli AI Wrappers hanno una cattiva reputazione?

Gli AI Wrappers sono strumenti pratici che sfruttano le API dell’intelligenza artificiale per generare output e si sono dimostrati finanziariamente gratificanti per i creatori. Esempi come Formula Bot e PhotoAI hanno ricavi annuali che vanno da $200k a $900k.

5. 5 Modi per sfruttare l’intelligenza artificiale nella tecnologia

Prasad Ramakrishnan, CIO di Freshworks, mette in evidenza diversi casi pratici di utilizzo dell’intelligenza artificiale per le startup. Questo articolo esplora cinque modi in cui le organizzazioni sfruttano l’intelligenza artificiale per la risoluzione efficace dei problemi, dal miglioramento dell’esperienza utente allo streamlining dei processi di onboarding e all’ottimizzazione delle piattaforme dati.

Repository e strumenti

  1. Whisper Zero di Gladia è un ripensamento completo di Whisper ASR per eliminare le allucinazioni.
  2. Taipy è una libreria Python open-source per la creazione di applicazioni web front-end e back-end.
  3. GPT-fast è una generazione di testo con trasformatori semplice ed efficiente nativa PyTorch in meno di 1000 righe di codice Python.
  4. GitBook è una piattaforma di gestione delle conoscenze tecniche che centralizza la base di conoscenza per i team.

I migliori articoli della settimana

  1. I modelli di fondazione generalisti possono competere con quelli specializzati? Uno studio di caso in campo medico

GPT-4 ha superato Med-PaLM 2 nel rispondere a domande mediche utilizzando una nuova metodologia chiamata Medprompt. Sfruttando tre strategie avanzate di prompt, GPT-4 ha raggiunto un notevole tasso di accuratezza del 90,2% sul dataset MedQA.

2. Merlin: Potenziare gli LLM multimodali con menti preveggenti

“Merlin”, un nuovo MLLM supportato da FPT e FIT, dimostra una migliore comprensione visiva, ragionamento futuro e analisi multimodale di input multi-immagine. I ricercatori propongono di aggiungere una modellizzazione futura agli LLM multimodali (MLLM) per migliorare la comprensione dei principi fondamentali e delle intenzioni degli oggetti. Utilizzano le tecniche di pre-formazione della preveggenza (FPT) e di accordatura dell’istruzione della preveggenza (FIT) ispirate ai paradigmi di apprendimento esistenti.

3. Dolphins: Modello multilingua multimodale per la guida

Dolphins è un modello di visione-linguaggio progettato come assistente di guida conversazionale. Allenato utilizzando dati video, istruzioni di testo e segnali di controllo storico, offre una comprensione completa delle situazioni di guida difficili per i veicoli autonomi.

4. Modelli di diffusione senza attenzione

Questo articolo introduce il Modello dello spazio di stato di diffusione (DiffuSSM), un’architettura che sostituisce i meccanismi di attenzione con un modello di spazio di stato più scalabile. Questo approccio gestisce efficacemente risoluzioni più elevate senza compressione globale, preservando così la rappresentazione dettagliata dell’immagine durante il processo di diffusione.

5. L’ascesa e il potenziale degli agenti basati su grandi modelli di lingua: un sondaggio

Si tratta di un sondaggio completo sugli agenti basati su grandi modelli di lingua. Ripercorre il concetto di agenti dalle sue origini filosofiche al suo sviluppo nell’IA e spiega perché gli LLM sono basi adatte per gli agenti. Presenta anche un quadro generale per gli agenti basati su LLM, che comprende tre componenti principali: cervello, percezione e azione.

  1. Alibaba Cloud presenta Tongyi Qianwen, un modello di linguaggio IA con 72 miliardi di parametri. Qwen-72B compete con ChatGPT di OpenAI e si distingue nell’inglese, nel cinese, nella matematica e nella programmazione.
  2. Il CEO di Nvidia, Jensen Huang, ha guidato la crescita dell’azienda, che ha portato a un aumento di valore di 200 miliardi di dollari. Con un forte focus sull’IA e le sue applicazioni in vari settori, Nvidia ha superato importanti aziende come Walmart.
  3. Google sta rispondendo alla pressione degli strumenti di intelligenza artificiale generativa e delle battaglie legali apportando modifiche alla sua esperienza di ricerca. Stanno testando una funzione “Note” per i commenti pubblici sui risultati di ricerca e introducendo un’opzione “Segui”, che consente agli utenti di iscriversi a argomenti specifici di ricerca.

Chi sta assumendo nell’ambito dell’IA

Scienziato dell’IA applicata presso Gusto, Inc. (San Francisco, CA, USA)

Ingegnere senior LLM presso RYTE Corporation (Parigi, Francia/Freelancer)

Ingegnere di apprendimento automatico presso LiveChat (Remoto)

Sviluppatore applicazione – Esperto – K0714 presso TLA-LLC (Virginia, USA)

Data Analyst @Empowerly (Remoto)

Consulente (Data & Process Analytics) @Celonis (Danimarca)

Responsabile dell’Ingegneria QA @Brightflag (Remoto)

Interessato/a a condividere un’opportunità di lavoro qui? Contatta .

Se stai preparando il tuo prossimo colloquio di lavoro sul machine learning, non esitare a visitare il nostro sito leader nella preparazione ai colloqui, confetti!

https://www.confetti.ai/

Pensi che un amico possa essere interessato/a anche lui/lei? Condividi la newsletter e faglielo/leelo sapere.