Questa newsletter sull’IA è tutto ciò di cui hai bisogno #55

Questa newsletter sull'IA è tutto ciò di cui hai bisogno #55' can be condensed as 'Newsletter IA #55'.

Cosa è successo questa settimana nell’AI di Louie

Questa settimana siamo stati entusiasti di poter finalmente testare il Code Interpreter di Open AI, una nuova funzionalità di GPT-4 all’interno di ChatGPT. OpenAI è stata anche attiva con altri annunci, tra cui la rivelazione dei suoi piani per creare un team dedicato al raggiungimento della superallineamento entro i prossimi quattro anni.

Dopo un rilascio alpha iniziale, la funzionalità Code Interpreter, che include capacità di codifica e visualizzazione dei dati, è ora disponibile in modalità beta per tutti gli utenti ChatGPT Plus. Il Code Interpreter potenzia ChatGPT con una serie di funzioni, tra cui l’analisi dei dati, la creazione di grafici, il caricamento e la modifica di file, le operazioni matematiche e l’esecuzione del codice.

L’utilizzo del Code Interpreter è relativamente semplice per la maggior parte dei casi d’uso, soprattutto se affrontato come analista. I dati, inclusi file compressi come archivi ZIP, possono essere facilmente caricati facendo clic sul pulsante più. Il prompt iniziale può essere minimale, poiché l’IA eccelle nel comprendere il significato dei dati e la loro struttura solo dal contesto. Una volta caricati, l’IA gestisce automaticamente compiti come la fusione dei dati e la pulizia sofisticata dei dati. Ethan Mollick ha documentato molti casi d’uso interessanti di Code Interpreter sul suo account Twitter e in questo blog. Particolarmente potente è la capacità di riconoscere errori (a causa dell’esecuzione del codice fallita) e di iterare per correggerli.

La funzionalità può essere utilizzata per molte applicazioni uniche e le persone hanno documentato utilizzi tra cui analisi e visualizzazione dei dati, identificazione delle tendenze, analisi dei temi, esame dei modelli di coinvolgimento, ottimizzazione SEO, analisi dei KPI, creazione di video e persino creazione di set di dati e modelli di apprendimento automatico. Le possibilità sono estese e si stanno ampliando man mano che aumenta l’accesso al Code Interpreter. Ci sono stati segnali recenti di un calo dell’interesse per ChatGPT (segno che ci sono meno visitatori sul sito, sebbene GPT-Turbo e GPT-4 siano stati lanciati su larga scala attraverso l’API altrove), quindi questa nuova funzionalità arriva al momento giusto per OpenAI.

Pensiamo che il Code Interpreter sblocchi molte altre capacità dagli LLM e possa essere estremamente utile, riducendo di gran lunga i costi e le barriere all’ingresso dell’analisi dei dati di base. Tuttavia, ha ancora bisogno di supervisione umana e di immaginazione umana per porre le domande giuste e ottenere il massimo dei risultati. Ci aspettiamo molti progressi in questa direzione nei prossimi mesi e anni, mentre agli LLM vengono forniti strumenti sempre più potenti con cui lavorare.

In altre notizie sull’AI, Kinnu, la startup educativa basata sull’IA generativa che abbiamo presentato lo scorso ottobre, ha raccolto con successo un round di finanziamento di 6,5 milioni di dollari. Kinnu è principalmente dedicata agli adulti appassionati di apprendimento e utilizza l’IA per ottimizzare i contenuti per ogni singolo apprendista. “Abbiamo sempre trovato strano che la maggior parte delle offerte di formazione online semplicemente aumentasse gli aspetti peggiori dell’istruzione tradizionale”, dichiara Christopher Kahler, co-fondatore e CEO di Kinnu. “Crediamo che ci sia un’opportunità significativa per l’apprendimento basato sull’IA che si concentra sull’accelerazione del ritmo di apprendimento umano stesso”. Siamo entusiasti dei progressi compiuti da Kinnu e concordiamo sul potenziale dell’IA per contribuire a un’istruzione migliorata.

– Louie Peters – Co-fondatore e CEO di Towards AI

Ultime notizie

  1. Introduzione del Superalignment

OpenAI ha introdotto il concetto di Superalignment, sottolineando la necessità di progressi scientifici e tecnici per garantire che i sistemi AI altamente intelligenti si allineino con le intenzioni umane. L’organizzazione sottolinea l’importanza di istituire istituzioni di governo innovative ed esplorare approcci nuovi per raggiungere questo allineamento.

2. Miner sposta 38.000 GPU dalla criptovaluta all’AI

L’azienda di criptominazione Hive Blockchain sta spostando la sua attenzione dalla minazione di Ethereum ai carichi di lavoro dell’AI. Con 38.000 GPU a loro disposizione, intendono generare entrate continuando a utilizzare parte della potenza delle GPU per la criptominazione. Tuttavia, il passaggio al calcolo dell’IA presenta sfide, poiché le vecchie GPU di mining di ETH hanno un valore limitato in questo mercato.

3. AWS lancia il Centro di Innovazione Generativa AI da 100 milioni di dollari

AWS ha annunciato un investimento consistente nell’avanzamento dell’IA generativa. Con un impegno di 100 milioni di dollari, il nuovo AWS Generative AI Innovation Center si propone di aiutare i clienti e i partner in tutto il mondo a sfruttare il potenziale dell’IA generativa. Il Centro di Innovazione sta già collaborando con aziende come Highspot, Lonely Planet, Ryanair e Twilio per soluzioni di IA generativa.

4. Il chatbot AI medico di Google viene già testato negli ospedali

Il Med-PaLM 2 di Google, uno strumento AI sviluppato per fornire risposte riguardanti informazioni mediche, è stato sottoposto a test presso l’ospedale di ricerca Mayo Clinic. Come variante del modello linguistico PaLM 2, Med-PaLM 2 ha mostrato risultati promettenti in termini di ragionamento, consegna di risposte supportate dal consenso e comprensione, anche se persistono alcuni problemi di precisione.

5. Alibaba lancia uno strumento di intelligenza artificiale per generare immagini da testo

Il gigante tecnologico cinese Alibaba ha lanciato Tongyi Wanxiang, uno strumento di intelligenza artificiale in grado di generare immagini da prompt. Lo strumento consente agli utenti di inserire prompt sia in mandarino che in inglese, e genera immagini in vari stili, tra cui illustrazioni 2D, schizzi e cartoni animati 3D.

Cinque letture/video di 5 minuti per continuare a imparare

  1. Proprietà affascinanti della quantizzazione a scala

Ricerche recenti rivelano che la qualità della quantizzazione post-training (PTQ) di Large Language Models è fortemente influenzata dagli iperparametri di pre-training. Lo studio indica che le scelte di ottimizzazione, tra cui la penalità di peso, il clipping del gradiente e la selezione del tipo di dati, hanno un impatto significativo sulle prestazioni del PTQ, con float16 e bfloat16 che mostrano un’influenza notevole. La ricerca sottolinea l’importanza delle scelte di ottimizzazione nello sviluppo di modelli di linguaggio robusti.

2. Migliori GPU per l’apprendimento automatico per il tuo prossimo progetto

Questo articolo mette in evidenza l’uso sempre più diffuso delle GPU nell’apprendimento automatico e fornisce una guida sulla scelta delle migliori GPU per le applicazioni di intelligenza artificiale. Vengono menzionati fattori chiave da considerare, come la compatibilità e la capacità di memoria, e vengono identificate le migliori opzioni di GPU di NVIDIA, tra cui la Titan RTX e la Tesla V100. Vengono anche suggerite alternative economiche come l’EVGA GeForce GTX 1080 e le GPU AMD Radeon.

3. I pesi dell’intelligenza artificiale non sono “open source”

L’articolo approfondisce il problema dei pesi dei modelli di intelligenza artificiale e della loro disponibilità come open source. Sostiene che sebbene il codice sorgente dei modelli di intelligenza artificiale possa essere aperto, i pesi, che comprendono la conoscenza effettivamente appresa, di solito non vengono condivisi apertamente per vari motivi, come preoccupazioni legate alla proprietà intellettuale, alla privacy e agli interessi commerciali.

4. Glossario sull’intelligenza artificiale: più di 60 termini da conoscere

L’intelligenza artificiale sta crescendo in modo esponenziale e ci sono diversi livelli di consapevolezza ad essa associati. Questo glossario si propone come una risorsa per coloro che si stanno appena avvicinando all’intelligenza artificiale e per coloro che cercano un riferimento o un ripasso del vocabolario.

5. Iniziare con l’interprete di codice in ChatGPT

In questo articolo, Ethan Mollick ha documentato numerosi casi d’uso interessanti dell’interprete di codice su Twitter. Ha anche evidenziato le sue caratteristiche, il processo di utilizzo e altro ancora.

Articoli e repository

  1. Una panoramica sulla valutazione dei grandi modelli di linguaggio

Questo articolo fornisce una revisione completa dei metodi di valutazione per i modelli di linguaggio. Si concentra su cosa valutare (incluse varie dimensioni come il ragionamento, l’etica e le applicazioni), dove valutare (sia benchmark generali che specifici) e come valutare (incluse valutazioni umane rispetto a valutazioni automatiche).

2. DreamDiffusion: Generazione di immagini di alta qualità da segnali EEG cerebrali

Questo paper introduce DreamDiffusion, un metodo innovativo per generare immagini di alta qualità direttamente dai segnali elettroencefalografici (EEG) cerebrali, senza la necessità di tradurre i pensieri in testo. Utilizzando modelli pre-addestrati e tecniche avanzate di modellazione del segnale, supera sfide come l’informazione limitata e il rumore.

3. LongNet: Scalare i Transformer a 1.000.000.000 di token

Questo lavoro introduce LongNet, una variante di Transformer che può scalare la lunghezza della sequenza a più di 1 miliardo di token senza sacrificare le prestazioni sulle sequenze più brevi. Utilizza attenzione dilatata per elaborare efficientemente sequenze più lunghe mantenendo al contempo le prestazioni su quelle più brevi. Uno dei principali vantaggi di questa tecnica è la sua compatibilità con gli approcci di ottimizzazione esistenti. Si integra in modo trasparente con qualsiasi altro metodo già in uso, ampliando la gamma di opzioni disponibili per l’ottimizzazione.

4. La maledizione della ricorsione: addestrare i modelli sui dati generati fa dimenticare loro

I ricercatori esplorano il “collasso del modello”, la scomparsa della distribuzione originale dei contenuti quando i modelli vengono addestrati utilizzando contenuti provenienti da altri modelli. Questo fenomeno influenza i Large Language Models (LLM), gli Autoencoder Variazionali e i Modelli a Mistura Gaussiana, sottolineando la necessità di comprendere e preservare i dati provenienti dalle interazioni umane genuine per mantenere i vantaggi dei dati raccolti dal web.

5. ChatLaw: Modello di linguaggio legale open-source con basi di conoscenza esterne integrate

ChatLaw è un modello di linguaggio legale open-source appositamente progettato per il dominio legale cinese. Utilizza una combinazione di tecniche di recupero di vettori e parole chiave per affrontare le allucinazioni del modello durante il recupero dei dati, ottenendo risposte più accurate. Si utilizza l’autoattenzione per migliorare l’accuratezza e la affidabilità nei dati di riferimento.

Ti piacciono questi articoli e riassunti di notizie? Ricevi un riassunto giornaliero nella tua casella di posta!

La sezione della comunità Learn AI Together!

Podcast settimanale sull’Intelligenza Artificiale

Nell’episodio di questa settimana del podcast “What’s AI”, Louis Bouchard intervista Petar Veličković, ricercatore presso DeepMind e docente associato presso Cambridge. Petar condivide approfondimenti sul valore del dottorato di ricerca, sottolineando il suo ruolo come porta d’accesso alla ricerca e le opportunità che offre per costruire connessioni e adattabilità. Sottolinea inoltre il panorama in evoluzione della ricerca sull’IA, evidenziando l’importanza di background e contributi diversificati. L’intervista fornisce preziose prospettive sull’accademia rispetto all’industria, sul ruolo di un ricercatore, sul lavoro presso DeepMind, sull’insegnamento e sull’importanza della curiosità nel guidare una ricerca di impatto. Sintonizzati su YouTube, Spotify o Apple Podcasts se sei interessato alla ricerca sull’IA!

Meme della settimana!

Meme condiviso da mrobino

Post in evidenza dalla community su Discord

weaver159#1651 ha recentemente presentato un nuovo progetto chiamato MetisFL, un framework di apprendimento federato progettato per consentire agli sviluppatori di federare facilmente i loro flussi di lavoro di machine learning e addestrare modelli su dati distribuiti, senza la necessità di centralizzare i dati. Il cuore del framework è scritto in C++ e si concentra sulla scalabilità, la velocità e la resilienza. Attualmente, il progetto sta passando da una versione privata sperimentale a una fase beta pubblica. Dai un’occhiata su GitHub e supporta un membro della community. Condividi le tue opinioni su questo progetto nel thread qui.

Sondaggio sull’IA della settimana!

Partecipa alla discussione su Discord.

Sezione selezionata da TAI

Articolo della settimana

Migliore di GPT-4 per le query SQL: NSQL (completamente open source) di Dr. Mandar Karhade, MD. PhD.

SQL è ancora il linguaggio più comunemente utilizzato. Non sarebbe fantastico se potessimo scrivere query SQL ponendo domande a un grande modello di linguaggio? Ciò ridurrebbe gran parte del lavoro e probabilmente democratizzerebbe l’accesso alle informazioni per quasi tutti coloro che ne hanno bisogno in azienda. In questo articolo, l’autore parla di NSQL, che è una nuova famiglia di modelli di base (FMs) open source progettati appositamente per compiti di generazione SQL.

I nostri articoli da leggere assolutamente

Metriche di classificazione chiaramente spiegate! di Jose D. Hernandez-Betancur

Rivelare approfondimenti sui dati: padroneggiare l’IA per un’analisi potente di Amit Kumar

Incontra Fully OpenSource Foundation Model di Salesforce XGen-7B di Dr. Mandar Karhade, MD. PhD.

Se desideri pubblicare su Towards AI, consulta le nostre linee guida e iscriviti. Pubblicheremo il tuo lavoro sulla nostra rete se rispetta le nostre politiche editoriali e gli standard.

Offerte di lavoro

Data Architect @ShyftLabs (Toronto, Canada)

Esperto di Machine Learning – Sistemi legali @Uni Systems (Bruxelles, Belgio)

Sviluppatore di ricerca AI per grafica @Plain Concepts (Remoto)

Data Engineer @Tomorrow (Freelance/Romania)

Growth Manager, Data & Analytics @WillowTree (Remoto)

Ingegnere di piattaforma client @Chainalysis (Remoto)

Stagista – Stagisti di ingegneria del software – ACST @Activate Interactive Pte Ltd (Singapore)

Interessato a condividere un’opportunità di lavoro qui? Contatta [email protected].

Se stai preparando il tuo prossimo colloquio di machine learning, non esitare a visitare il nostro sito web leader nella preparazione ai colloqui, confetti!

https://www.confetti.ai/