Questa newsletter sull’AI è tutto ciò di cui hai bisogno #56

Newsletter AI #56 tutto ciò di cui hai bisogno

Cosa è successo questa settimana nell’ambito dell’IA con Louie

Questa settimana abbiamo visto diversi nuovi concorrenti nel mondo delle LLM, sia modelli open-source che chiusi. Nonostante le sue impressionanti capacità, la prima versione del modello LLaMA aveva delle limitazioni di licenza che ne restrindevano l’uso esclusivamente in scenari accademici, considerato uno dei suoi svantaggi. Ora, Meta ha recentemente presentato LLaMA 2, che viene fornito con una licenza per uso commerciale. Il nuovo modello è stato allenato su un ulteriore 40% di dati, pari a 2 trilioni di token, e possiede il doppio della lunghezza di contesto, raggiungendo un impressionante totale di 4096 token. LLaMA 2 supera modelli come MPT e Falcon quando valutati rispetto ai benchmark scelti. Il modello sarà disponibile per il pubblico tramite Amazon AWS, Microsoft Azure e Huggingface in tre diverse dimensioni (7B, 13B, 70B).

In altre notizie, dopo aver condotto un lungo test privato del loro modello iniziale Claude, Anthropic ha reso ora disponibile pubblicamente il modello linguistico Claude 2. Si tratta di un concorrente di ChatGPT accessibile tramite l’indirizzo claude.ai. Il loro modello ha riportato un punteggio del 76,5% all’esame di Bar (un miglioramento del 3,5%) e si è posizionato al 90° percentile nel GRE. Inoltre, il modello è ora accessibile tramite API, consentendo a aziende e privati di sfruttarlo come base per le proprie applicazioni e progetti. L’analisi del modello rivela che eccelle nel fornire risposte innocue, mostrando un miglioramento del doppio. Questo risultato si allinea con la visione dei fondatori di Anthropic al momento della loro partenza da OpenAI. Come parte della loro esplorazione in corso, attualmente stanno studiando la fattibilità di modelli allineati all’addestramento. A tal fine, stanno conducendo un esperimento che coinvolge l’addestramento di una variante “Decepticon” di Claude. L’obiettivo è identificare la specifica fonte di inganno all’interno dei modelli.

All’inizio della settimana, Elon Musk ha annunciato la creazione di xAI, una nuova azienda che compete direttamente con OpenAI. L’obiettivo principale di xAI è lo sviluppo di Intelligenza Artificiale Generale (AGI) per ottenere una comprensione più profonda della vera natura dell’universo. L’azienda ha riunito un impressionante team di talentuosi individui provenienti da rinomate organizzazioni come DeepMind, OpenAI, Google e Microsoft. Al momento, non ci sono informazioni specifiche sull’azienda. Tuttavia, riteniamo che il suo forte team, il sostegno finanziario e l’ambizione significhino che è probabile diventare un importante contributore nel settore.

– Louie Peters — Co-fondatore e CEO di Towards AI

Ultime notizie

  1. Anthropic lancia Claude 2

Anthropic ha lanciato Claude 2, un modello AI avanzato che supera Claude 1.3 in diverse valutazioni, ottenendo punteggi impressionanti su Codex HumanEval e GSM8k. Claude 2 eccelle nella programmazione, nella matematica e ha ottenuto punteggi più alti anche all’esame di Bar. Inoltre, offre una maggiore efficacia nella generazione di risposte innocue e può gestire input fino a 100.000 token.

2. Elon Musk lancia l’azienda di intelligenza artificiale xAI mentre si prepara a sfidare OpenAI

La nuova startup di Elon Musk, xAI, sta reclutando top ingegneri da giganti della tecnologia come Google e Microsoft per sviluppare un’IA “massimamente curiosa”. Sebbene separata da X Corp, xAI collaborerà strettamente con aziende come Twitter e Tesla, mirando a portare innovazioni e progressi nel campo dell’IA attraverso sforzi sinergici.

3. Ultimo aggiornamento di Bard: più funzionalità, lingue e paesi

Bard, un modello linguistico, ha ampliato la sua disponibilità a livello mondiale e ora supporta più lingue. Le nuove funzionalità includono la possibilità di ascoltare le risposte di Bard, personalizzare il tono e lo stile delle sue risposte, fissare e rinominare conversazioni passate, esportare codice Python su Replit e Google Colab e utilizzare immagini nelle richieste con l’aiuto dell’integrazione di Google Lens.

4. I programmi per rilevare l’IA discriminano i non madrelingua inglesi

I ricercatori di Stanford hanno scoperto che oltre il 50% degli elaborati scritti da non madrelingua è stato segnalato come generato da un’IA, sottolineando la necessità di affrontare la discriminazione che i non madrelingua scrittori affrontano utilizzando i rilevatori di IA. Ciò ha implicazioni per le applicazioni universitarie e lavorative, nonché per gli algoritmi dei motori di ricerca, potenzialmente danneggiando le carriere accademiche e il benessere psicologico.

5. Shutterstock amplia l’accordo con OpenAI per sviluppare strumenti generativi di IA

Shutterstock ha annunciato i suoi piani per ampliare l’accordo esistente con OpenAI per fornire all’azienda dati di addestramento per i suoi modelli di IA. In cambio, Shutterstock otterrà “accesso prioritario” alle più recenti tecnologie di OpenAI e nuove capacità di editing. Inoltre, Shutterstock sta lavorando per diventare un leader nell’IA generativa collaborando con le migliori aziende di IA e compensando gli artisti per il loro contributo all’addestramento dell’IA.

Cinque letture/video di 5 minuti per continuare a imparare

  1. Allenare LLMs utilizzando QLoRA su Amazon SageMaker

Questa guida spiega come utilizzare QLoRA su Amazon SageMaker per il fine-tuning di grandi modelli di linguaggio. Sottolinea l’uso di strumenti come Hugging Face Transformers, Accelerate e la libreria PEFT per adattare modelli di linguaggio pre-addestrati a diverse applicazioni senza il fine-tuning di tutti i parametri. Sottolinea anche i vantaggi di QLoRA.

2. La guida definitiva ai LLM e all’NLP per il content marketing

L’NLP svolge un ruolo cruciale nel content marketing in quanto automatizza la generazione di contenuti, li ottimizza per i motori di ricerca, valuta il sentimento, segmenta il pubblico, alimenta chatbot e assistenti virtuali, svolge l’ascolto dei social media e aiuta nella cura dei contenuti. Questo articolo fornisce una panoramica su come utilizzare in modo efficace l’NLP per scalare il content marketing.

3. Guida per sviluppatori all’ingegneria delle prompt e ai LLM

Questo articolo condivide gli sforzi di GitHub con i LLM per aiutare gli sviluppatori a sfruttare al massimo la tecnologia. Fornisce una panoramica di alto livello su come funzionano i LLM e offre indicazioni sulla costruzione di applicazioni basate su LLM. Utilizza il completamento del codice di GitHub Copilot come illustrazione principale di un’applicazione basata su LLM.

4. Può l’IA inventare?

L’articolo esplora il recente rilascio di un brevetto a un sistema di intelligenza artificiale, suscitando interrogativi sulle implicazioni legali ed etiche legate al riconoscimento dei diritti di proprietà intellettuale a entità non umane.

5. Come utilizzare l’IA per fare cose: una guida opinabile

Stanno uscendo sistemi di intelligenza artificiale sempre più potenti a un ritmo accelerato. Questo articolo serve come orientamento sullo stato attuale dell’IA. È un articolo di opinione che trae ispirazione dall’esperienza dell’autore e si concentra sulla selezione degli strumenti appropriati per diverse attività.

Articoli e repository

  1. Mining di istruzioni: selezione di dati di istruzioni di alta qualità per grandi modelli di linguaggio

Questo articolo propone il Mining di Istruzioni, una regola lineare per valutare la qualità dei dati di istruzioni seguite. Con un miglioramento del 42,5% rispetto ai modelli che utilizzano dati non filtrati, questo approccio sottolinea l’importanza della qualità dei dati nel fine-tuning dei LLM per un’interpretazione efficace delle istruzioni. Il processo di selezione utilizza indicatori del linguaggio naturale come naturalità, coerenza e comprensibilità.

2. Preallenamento generativo nella multimodalità

L’articolo introduce Emu, un modello fondamentale multimodale basato su Transformer in grado di generare immagini e testi in un contesto multimodale. Può gestire diversi tipi di input di dati, tra cui immagini, testo e video, e supera altri grandi modelli multimodali in compiti come la didascalia delle immagini, la risposta alle domande visive e la generazione di testo da immagine.

3. Diventare Auto-Istruito: Introduzione di criteri di stop anticipato per il tuning minimale delle istruzioni

Questo articolo introduce il Punteggio di Seguimento delle Istruzioni (IFS), una metrica che rileva la capacità dei modelli di linguaggio di seguire le istruzioni. Aiuta a distinguere tra modelli di base e modelli di istruzioni, evitando così il fine-tuning non necessario che potrebbe alterare la semantica di un modello. Inoltre, i ricercatori hanno osservato che si verificano cambiamenti semantici significativi quando l’IFS si stabilizza, sottolineando la relazione tra il seguire le istruzioni e la semantica del modello.

4. Discesa del gradiente più veloce in modo provabile tramite passi lunghi

Questo lavoro stabilisce tassi di convergenza provabilmente più veloci per la discesa del gradiente attraverso l’utilizzo di una tecnica di analisi assistita dal computer. Il tasso di convergenza dei metodi di ottimizzazione rappresenta il limite matematico della velocità con cui un modello può identificare la soluzione ottimale sotto la guida di quel particolare metodo di ottimizzazione. I tassi di apprendimento ciclici possono essere migliorati prendendo occasionalmente passi sostanziali.

5. GPT4RoI: Modellazione del linguaggio di grandi dimensioni con accordo sulle regioni di interesse

GPT4RoI è un modello innovativo che migliora le attività di visione-linguaggio incorporando regioni di interesse. Questa incorporazione consente un allineamento preciso tra le caratteristiche visive e gli embedding linguistici, consentendo agli utenti di interagire con il modello attraverso istruzioni linguistiche e spaziali.

Ti piacciono questi articoli e riepiloghi di notizie? Ricevi un riassunto giornaliero nella tua casella di posta!

La sezione Comunità Impariamo l’IA Insieme!

Podcast settimanale sull’IA

Nell’episodio di questa settimana del podcast “What’s AI”, Louis Bouchard intervista Aleksa Gordić, un ex ingegnere di ricerca presso DeepMind che ha intrapreso il suo percorso imprenditoriale. Esplorano vari aspetti della sua vita professionale, discutendo argomenti come le sue priorità attuali, il suo lavoro presso DeepMind, l’abbandono del programma di laurea magistrale e l’ottenimento di un ruolo di ingegnere del software nel machine learning senza una laurea formale. Aleksa condivide le sue esperienze e fornisce preziosi spunti per chiunque sia interessato all’IA. Sottolinea l’importanza dell’esperienza pratica, della partecipazione a competizioni e dell’autoapprendimento. Inoltre, discute dei ruoli diversificati all’interno di aziende come DeepMind e sottolinea il valore della motivazione personale e di un solido portfolio di progetti. Per approfondire la comprensione del percorso di Aleksa ed esplorare il mondo dell’IA, sintonizzati su YouTube, Spotify o Apple Podcasts.

Meme della settimana!

Meme condiviso da dimkiriakos

Post della community in evidenza dal Discord

Operand ha rilasciato una libreria Python open-source per l’integrazione degli agenti, mirata a integrare le librerie esistenti come HF Agent API e LangChain. Questa libreria serve come framework per la connessione di agenti, sistemi software e utenti umani. Raggiunge questo obiettivo definendo azioni, callback e politiche di accesso che facilitano la connessione, il monitoraggio, il controllo e l’interazione con gli agenti. Dai un’occhiata su GitHub e supporta un membro della community. Condividi le tue opinioni su questo progetto nel thread qui.

Sondaggio di intelligenza artificiale della settimana!

Unisciti alla discussione su Discord.

Sezione curata di TAI

Articolo della settimana

Top Computer Vision Papers durante la settimana dal 3/7 al 9/7 di Youssef Hosni

Questo articolo offre una panoramica completa dei papers più importanti pubblicati nella prima settimana di luglio 2023, concentrandosi sulle ultime ricerche e avanzamenti nella computer vision. Che tu sia un ricercatore, un professionista o un appassionato, questo articolo mira a fornire preziose intuizioni sulle tecniche e gli strumenti all’avanguardia nel campo della computer vision.

I nostri articoli da leggere assolutamente

ChatGPT Code Interpreter è ora disponibile per tutti gli utenti Plus di Gencay I.

Smessa di ignorare Julia! Imparala adesso e ringrazia il tuo io più giovane in futuro di Bex T.

Attribuzione di modelli di Markov Chain di Snehal Nair

Se sei interessato a pubblicare su Towards AI, controlla le nostre linee guida e iscriviti. Pubblicheremo il tuo lavoro sulla nostra rete se rispetta le nostre politiche editoriali e gli standard.

Offerte di lavoro

Software Development Team Lead @Computronics Solutions (Sofia, Bulgaria)

Junior Software QA Engineer (Manuale) @CoverGo (Remoto)

Ingegnere del software @Toku (Santiago, Cile)

Sviluppatore Java (m/f/d) @UBench (Turnhout, Belgio)

Ingegnere del software (Java) @Compass Education (Hawthorn, Australia)

Senior Software Developer @TherapyNotes.com (Remoto)

Sviluppatore del software @Servus Credit Union (Remoto)

Se sei interessato a condividere un’opportunità di lavoro qui, contatta [email protected].

Se stai preparando il tuo prossimo colloquio di machine learning, non esitare a dare un’occhiata al nostro sito leader nella preparazione agli interviste, confetti!

https://www.confetti.ai/