Impara a Costruire – Towards AI Community Newsletter #2

Impara a Costruire - La newsletter della community Towards AI #2

Che weekend e settimana nell’ambito dell’Intelligenza Artificiale…

Hai perso qualcosa se non hai seguito il dramma di OpenAI negli ultimi giorni. È successo qualcosa di incredibile. La maggior parte dei dipendenti ha deciso di firmare e inviare una lettera al consiglio direttivo di OpenAI per riportare indietro Sam Altman (CEO di OpenAI) che è stato appena licenziato lo scorso venerdì, o avrebbero lasciato anche loro. Hai mai sentito una storia del genere? Parliamo di una comunità. Sam Altman, Greg Brockman e OpenAI hanno costruito qualcosa di potente come una famiglia.

Questo è il potere delle comunità quando vengono gestite correttamente. Possono sconfiggere entità dominanti, anche se più piccole o meno potenti. Ed è anche per questo che sono incredibilmente orgoglioso di far parte di questa comunità con persone straordinarie nel settore dell’Intelligenza Artificiale.

P.S. Se questa saga ti interessa e non l’hai seguita online, leggi di più nella nostra ultima newsletter.

Ora, passiamo alle notizie di questa settimana dalla nostra stessa famiglia e a quello a cui ci siamo dedicati tutti, cominciando con una fantastica conversazione con il CEO e un mio amico di MindStudio sul futuro dell’Intelligenza Artificiale, lo sviluppo di LLMs, l’uso e altro ancora…

– Louis-François Bouchard, Co-fondatore di Towards AI e Responsabile della Comunità

What’s AI Weekly

Nell’episodio di What’s AI Podcast di questa settimana, Louis Bouchard ha intervistato Dmitry Shapiro, che ha lavorato in precedenza per Google ed è stato CTO di MySpace Music. Ora, Dmitry sta costruendo qualcosa di estremamente ambizioso per democratizzare l’intelligenza artificiale. In questo episodio, discutono della sua piattaforma, YouAI e Mindstudio, insieme a consigli applicabili per creare migliori app di intelligenza artificiale, come la selezione del modello, i prompting, RAG e altro ancora. Se sei curioso della prospettiva degli utenti, della democratizzazione dell’IA e del futuro dell’IA, sintonizzati su YouTube, Spotify e Apple Podcasts!

Sezione della community Learn AI Together!

Post della community in evidenza da Discord

Mateomd_dev ha costruito qualcosa di utile per tutti noi! Code Project Helper aiuta nell’apprendimento di un linguaggio di programmazione raccomandando progetti basati sulle loro caratteristiche e casi d’uso unici. Fornendo il nome di un linguaggio di programmazione che ti interessa apprendere, il GPT ti darà una breve descrizione del linguaggio, esempi e idee per il progetto. Provalo qui e sostieni un membro della comunità. Condividi la tua esperienza e feedback nel thread!

Sondaggio AI della settimana!

Dato che la maggior parte di voi ha votato per capire ‘Cos’è RAG?’ Ecco una breve spiegazione:

Il RAG, o architettura di generazione con recupero aumentato, ha superato efficientemente il limite di lunghezza di input di LLM e il problema del taglio delle conoscenze. In parole semplici, RAG è un framework di Intelligenza Artificiale che migliora la qualità dell’output di LLM incorporando fonti di conoscenza esterne. Questo ha anche il vantaggio di ridurre le allucinazioni del modello. Se disponi di una base di conoscenza (in altre parole, un dataset di testo), dovresti utilizzare RAG!

Condividi le tue domande o intuizioni per la community nel thread!

Opportunità di collaborazione

La community Learn AI Together è ricca di opportunità di collaborazione. Se sei entusiasta di approfondire l’AI applicata, vuoi un compagno di studio o anche trovare un partner per il tuo progetto passionale, unisciti al canale di collaborazione! Tieni d’occhio anche questa sezione – condividiamo interessanti opportunità ogni settimana!

  1. Louis Bouchard ha condiviso un’ottima opportunità di lavoro presso Towards AI come AI Technical Writer e Developer per LLMs. Sono alla ricerca di persone nel campo che ci aiutino a creare risorse di apprendimento tecniche e applicate. Si tratta principalmente di un’opportunità retribuita che prevede la creazione di contenuti basati su LLM e la scrittura di tutorial/progetti di corsi. Trova maggiori informazioni nel thread qui.
  2. Cozzy ha implementato Lunar Lander con DQN e DDQN e ora sta cercando di aggiungere Duel DQN e confrontare tra i 3. Al momento stanno cercando collaboratori per il repository. Se sei interessato, mettiti in contatto con loro nel thread.
  3. Adhishta sta cercando un compagno di studio per sviluppare competenze come pulizia dei dati, EDA, visualizzazione e altro. Se sei entusiasta di imparare ed esplorare vari dataset, raggiungilo nel thread qui.

Meme della settimana!

Meme condiviso da ghost_in_the_machine

Sezione curata da TAI

Articolo della settimana

LangChain Cheatsheet – Tutti i segreti in una sola pagina di Ivan Reznikov

LangChain consente di configurare facilmente modelli di generazione di testo con metodi di ottimizzazione delle prestazioni come quantizzazione e CUDA. Vuoi approfondire l’ottimizzazione delle prestazioni del modello di linguaggio? L’autore ha creato un riassunto in una pagina di base di LangChain. In questo articolo, attraversa sezioni di codice e descrive il pacchetto di avvio di cui hai bisogno per padroneggiare LangChain.

I nostri articoli da leggere assolutamente

  1. Inside Ghostbuster: Il nuovo metodo dell’Università di Berkeley per rilevare contenuti generati da AI di Jesus Rodriguez

Ghostbuster di Berkeley è una svolta per rilevare testi generati da AI e distinguere tra contenuti scritti da persone e da macchine senza conoscere il modello AI utilizzato. Ghostbuster trasforma le parole in vettori con modelli di linguaggio per addestrare un classificatore che distingue gli umani dai testi AI, ottenendo un punteggio F1 di precisione del 99,0% su diversi domini.

2. OpenAI API Dev Day Upgrades Are Mindblowing: Ecco DALL-E 3, GPT-4 Vision e GPT-4 Turbo in Azione di Kris Ograbek

I nuovi sviluppi dell’API di OpenAI potenziano le capacità di AI, offrendo visione e creatività avanzate attraverso upgrade come DALL-E 3, GPT-4 Vision e GPT-4 Turbo per applicazioni AI migliorate. Per coloro che sono pronti a sporcare le mani, l’articolo fornisce esempi di codice aggiornati in modo da poter testare queste nuove funzionalità tu stesso.

3. Parla solo di ciò che hai letto: gli LLM possono generalizzare oltre ai dati del loro addestramento? di Salvatore Raieli

L’apprendimento contestuale degli Large Language Model consente loro di rispondere in modo intelligente agli esempi forniti. I ricercatori esplorano l’estensione e l’origine di questa capacità e il suo impatto sull’intelligenza artificiale generale. Scopri l’apprendimento contestuale degli Large Language Model per comprendere il loro futuro nell’IA, offrendo spunti sul panorama tecnologico in continua evoluzione.

Se desideri pubblicare su Towards AI, consulta le nostre linee guida e registrati. Pubblicheremo il tuo lavoro sulla nostra rete se rispetta le nostre politiche editoriali e gli standard.

Pensi che anche un amico potrebbe trovare interessante questo articolo? Condividi la newsletter e invitalo a partecipare alla conversazione.