Questa newsletter sull’IA è tutto ciò di cui hai bisogno #58

Newsletter IA #58, tutto ciò di cui hai bisogno

Cosa è successo questa settimana nell’IA di Louie

Questa settimana siamo stati entusiasti di vedere due nuovi sviluppi nell’IA al di fuori del campo dell’NLP. L’ultimo sviluppo da parte di Meta AI riguarda la presentazione della loro applicazione Open Catalyst simulator, che è stata appena rilasciata come demo. Sfruttando la potenza dell’IA, questa applicazione può prevedere la reattività dei materiali catalizzatori con una velocità sorprendente, superando i metodi esistenti di quasi 1000 volte. Il team ritiene che questa tecnologia abbia il potenziale per accelerare significativamente la scoperta di materiali economici. Sebbene pensiamo che la scienza dei materiali sia un argomento più complesso per l’apprendimento automatico rispetto alle proteine (e AlphaFold), vediamo molto potenziale per modelli simili nell’aiutare i ricercatori a cercare materiali potenzialmente interessanti nello spazio. In futuro, ci aspettiamo anche di vedere modelli rilasciati per contribuire alla ricerca di superconduttori, argomento di attualità questa settimana in cui si è verificato un potenziale avanzamento!

In un altro annuncio entusiasmante, Google ha introdotto il modello Robotics Transformer 2 (RT-2), che definiscono il primo modello visione-linguaggio-azione (VLA) al mondo. La rete viene addestrata utilizzando testo e immagini estratte dal web, consentendole di produrre direttamente azioni robotiche come output con una piccola quantità di dati di addestramento del robot. Il modello dimostra una notevole capacità di comprendere comandi complessi, come “gettare via la spazzatura”. Ciò lo raggiunge attraverso un ragionamento complesso. Ad esempio, riconoscendo che una buccia di banana diventa spazzatura dopo essere stata consumata e capendo autonomamente il concetto di smaltire la spazzatura, anche senza un addestramento esplicito sul compito specifico. Durante le prove, il modello RT-2 ha dimostrato un significativo miglioramento delle prestazioni su scenari non visti, raggiungendo il doppio dell’efficacia rispetto alla sua versione precedente.

Mentre siamo circondati dal costante flusso di notizie entusiasmanti nell’NLP, è rinfrescante assistere a due progressi altrettanto entusiasmanti in altre applicazioni dell’IA questa settimana, in particolare nei settori della robotica e delle scienze dei materiali. Siamo lieti di vedere i recenti progressi e l’onda di investimenti nell’NLP iniziare ad accelerare i progressi in altre aree.

– Louie Peters – Co-fondatore e CEO di Towards AI

Ultime notizie

  1. Incontra FreeWilly, i nostri grandi e potenti modelli fine-tuning di istruzioni

Stability AI e il suo laboratorio CarperAI hanno rilasciato Stable Beluga 1 e il suo successore, Stable Beluga 2 (in precedenza chiamato FreeWilly). Stable Beluga 1 sfrutta il modello di base originale LLaMA 65B ed è stato ottimizzato utilizzando tecniche di fine-tuning supervisionato (SFT). Allo stesso modo, Stable Beluga 2 si basa sul modello di base LLaMA 2 70B. Entrambi i modelli sono pubblicamente disponibili con una licenza non commerciale.

2. Stability AI annuncia Stable Diffusion XL 1.0

Stability AI ha annunciato il rilascio di Stable Diffusion XL (SDXL) 1.0, l’ultima e più avanzata versione della sua suite di modelli di testo-immagine di punta. SDXL è un modello di immagine ad accesso aperto con un incredibile insieme di pipeline di modelli con 6,6 miliardi di parametri, dimostrando miglioramenti significativi nel colore, nel contrasto, nell’illuminazione e nell’ombra.

3. Stack Overflow annuncia OverflowAI

Stack Overflow sta integrando l’IA generativa nella sua piattaforma con OverflowAI. Ciò include la ricerca semantica e i risultati personalizzati utilizzando un database vettoriale. Inoltre, stanno potenziando le capacità di ricerca su diverse piattaforme e introducendo una funzionalità di acquisizione delle conoscenze aziendali per Stack Overflow for Teams.

4. Presentazione del modello di linguaggio Bittensor – Un modello di 3 miliardi di parametri all’avanguardia per dispositivi mobili e edge

La Fondazione Opentensor e Cerebras sono lieti di annunciare il modello di linguaggio Bittensor (BTLM), un nuovo modello di linguaggio all’avanguardia con 3 miliardi di parametri che raggiunge un’accuratezza eccezionale in una dozzina di benchmark di intelligenza artificiale. Funziona in modo efficiente su dispositivi mobili e edge con RAM limitata, riducendo la necessità di infrastrutture cloud centralizzate.

5. OpenAI abbandona il rilevatore di testo scritto dall’IA a causa di una “bassa percentuale di accuratezza”

OpenAI ha deciso di ritirare il suo classificatore di IA a causa della sua bassa percentuale di accuratezza nel rilevare il testo generato dall’IA. Lo sviluppo rapido di modelli di linguaggio di grandi dimensioni ha reso difficile identificare in modo efficace le caratteristiche o i modelli.

Cinque letture/video di 5 minuti per continuare a imparare

  1. La storia degli LLM open-source: modelli di base migliori

Questo articolo è la seconda parte di una serie di tre parti sulla storia degli LLM open-source. Copre argomenti come i primi giorni degli LLM open-source, la rivoluzione attuale nella costruzione di modelli di base migliori e le tendenze attuali e future degli LLM open-source.

2. Costruire applicazioni di AI generative con Gradio

Hugging Face e DeepLearning.ai hanno lanciato un nuovo corso breve sulla creazione di applicazioni di AI generative con Gradio. Il corso si concentra sulla creazione di app user-friendly utilizzando modelli di linguaggio open-source, con progetti che vanno dalla sintesi del testo all’analisi e alla generazione di immagini.

3. Costruire un Generatore di Grafici AI che si Adatta a Qualsiasi Tipo di Dataset, con soli 50 righe

Questo è un tutorial per lo sviluppo di un generatore di grafici automatizzato. Con questo tutorial, gli sviluppatori possono facilmente creare generatori di grafici AI utilizzando GPT-3.5 o GPT-4 con Langchain, richiedendo solo 50 righe di codice.

4. Automatizzare la Ricerca sul Web

Questo articolo esplora lo sviluppo di agenti di ricerca sul web. L’approccio prevede l’utilizzo di un LLM per generare query di ricerca, eseguire ricerche, estrarre pagine, indicizzare documenti e trovare i risultati più rilevanti per ciascuna query.

5. Creare un Generatore Automatico di Verbali di Riunioni con Whisper e GPT-4

Questa guida esplora lo sviluppo di un tool per la generazione automatica di verbali di riunioni che sfrutta Whisper e GPT-4 per riassumere efficientemente le discussioni, estrarre dettagli importanti e analizzare i sentimenti.

Articoli e Repository

  1. karpathy/llama2.c: Inferenza Llama 2 in un solo file di C puro

Andrew Karpathy ha rilasciato un’implementazione didattica di inferenza LLaMA 2 in C puro. Questo progetto consente di addestrare un’architettura LLaMA 2 LLM in PyTorch e quindi caricare i pesi in un singolo file C per un’efficiente inferenza.

2. Attacchi Universali e Trasferibili su Modelli di Linguaggio Allineati

Uno studio recente esplora la costruzione automatica di attacchi avversari su modelli di linguaggio open-source e closed-source, rendendoli suscettibili a comandi dannosi. Questi attacchi si trasferiscono anche a chatbot ampiamente utilizzati, sollevando preoccupazioni sulla patching efficace di queste vulnerabilità.

3. FLASK: Valutazione Fine-grained dei Modelli di Linguaggio basata su Set di Abilità di Allineamento

Questo paper introduce FLASK, un protocollo di valutazione specificamente progettato per la valutazione delle performance dei LLMs. Scompone le valutazioni in 12 diverse abilità, consentendo un’analisi dettagliata delle performance di un modello basata su abilità specifiche come la robustezza logica, la factualità e la comprensione.

4. Un WebAgent del Mondo Reale con Pianificazione, Comprensione del Contesto a Lungo Termine e Sintesi di Programmi

WebAgent, un agente basato su LLM, utilizza Flan-U-PaLM e HTML-T5 per migliorare la navigazione web autonoma e il completamento delle attività su siti web reali. Scomponendo le istruzioni, riassumendo i documenti HTML e generando programmi Python, raggiunge un aumento del 50% nelle percentuali di successo rispetto ai modelli precedenti.

5. WebArena: un Ambiente Web Realistico per la Creazione di Agenti Autonomi

WebArena è un ambiente web realistico che consente agli agenti autonomi di sviluppare le proprie competenze in compiti legati al commercio elettronico, ai forum sociali, allo sviluppo software e alla gestione dei contenuti. Fornisce benchmark per valutare il completamento delle attività e evidenzia la necessità di agenti migliorati, poiché anche modelli avanzati come GPT-4 hanno un tasso di successo di soli 10,59%.

Ti piacciono questi articoli e riassunti di news? Ricevi un riassunto giornaliero nella tua casella di posta!

La sezione della Comunità Learn AI Together!

AI4 2023: La Conferenza di AI Leader del Settore

Un promemoria per unirti a noi ad Ai4 2023, la conferenza di AI leader del settore, che si terrà a Las Vegas dal 7 al 9 agosto presso il MGM Grand. Leggi di più su come la crescita di Ai4 riflette l’adozione dell’AI da parte del settore e unisciti a 2200+ leader di AI, 240 relatori e 100 espositori di AI all’avanguardia. Richiedi un pass gratuito.

Data: 7-9 agosto 2023 (MGM Grand, Las Vegas)

Meme della settimana!

Meme condiviso da archiesnake

Post in evidenza della Community da Discord

Operand ha condiviso la sua libreria Python open-source per l’integrazione degli agenti, progettata per integrarsi con librerie esistenti come HF Agent API e LangChain. La libreria ti consente di connettere gli agenti con i sistemi software e gli utenti umani definendo azioni, callback e politiche di accesso, semplificando l’integrazione, il monitoraggio e il controllo dei tuoi agenti. L’agenzia gestisce i dettagli della comunicazione e consente la scoperta e l’invocazione di azioni tra le parti. Dai un’occhiata su GitHub e supporta un membro della comunità. Condividi il tuo feedback e come lo utilizzi nella discussione qui.

Sondaggio IA della settimana!

Unisciti alla discussione su Discord.

Sezione TAI selezionata

Articolo della settimana

LangChain 101: Parte 1. Costruzione di un’applicazione Q&A semplice di Ivan Reznikov

LangChain è un framework potente per la creazione di applicazioni che generano testo, rispondono a domande, traducono lingue e svolgono molte altre attività legate al testo. Questo articolo segna l’inizio del corso LangChain 101. A partire da questo articolo, l’autore discute concetti, pratiche ed esperienze mostrandoti come costruire le tue applicazioni LangChain.

I nostri articoli da leggere assolutamente

NLP moderno: una panoramica dettagliata. Parte 3: BERT di Abhijit Roy

Dimentica i 32K di GPT4: LongNet ha un contesto di un miliardo di token di Dr. Mandar Karhade, MD, Ph.D.

Spiegazione del paper Graph Attention Networks con illustrazioni e implementazione in PyTorch di Ebrahim Pichka

Se sei interessato a pubblicare su Towards AI, consulta le nostre linee guida e iscriviti. Pubblicheremo il tuo lavoro nella nostra rete se rispetta le nostre politiche editoriali e gli standard.

Offerte di lavoro

Ingegnere software III (Drupal) @Clarity Innovations, Inc. (Remoto)

Ingegnere software di sistemi distribuiti @INSHUR (Brighton, Regno Unito)

Stagista – Tirocinanti ingegneri software – ACI 01 @Activate Interactive Pte Ltd (Singapore)

Ingegnere di Machine Learning (Rischio) @SHIELD (Singapore)

Ingegnere di Machine Learning @Robotec.ai sp. z o.o. (Varsavia, Polonia / Freelancer)

Ingegnere di Machine Learning, Inferenza Veloce Ottimizzata @Hugging Face (US Remote)

Interessato a condividere un’opportunità di lavoro qui? Contatta [email protected].

Se stai preparando il tuo prossimo colloquio di machine learning, non esitare a visitare il nostro sito web leader nella preparazione ai colloqui, confetti!

https://www.confetti.ai/