Questa newsletter sull’AI è tutto ciò di cui hai bisogno #63

Newsletter AI #63, tutto ciò di cui hai bisogno

Cosa è successo questa settimana nell’ambito dell’IA di Louie

Questa settimana nell’ambito dell’IA, mettiamo in evidenza ulteriori prove dell’adozione dei modelli di linguaggio di grande dimensione (LLM) che guidano una significativa crescita dei ricavi nel mercato occidentale, così come l’introduzione di nuovi modelli di intelligenza artificiale in Cina.

Si dice che OpenAI abbia raggiunto un tasso di fatturato di 1 miliardo di dollari, segnando un aumento sostanziale e rapido rispetto ai 28 milioni registrati nel 2022. Tutti gli occhi sono anche puntati sui nuovi chip GPU H100 di Nvidia, il cui tasso di fatturato si dice ora essere nell’ordine delle decine di miliardi. I LLM non sono più confinati a settori di ricerca di nicchia e ChatGPT ha scatenato un enorme cambiamento nella domanda di prodotti e infrastrutture LLM che generano consistenti ricavi. Quest’onda di interesse ha anche scatenato un significativo afflusso di investimenti di venture capital nel settore dell’IA. Tuttavia, resta da vedere quanto rapidamente questa ondata di investimenti in API e infrastrutture dell’IA si tradurrà in prodotti per i consumatori con un’adozione duratura.

Le aziende tecnologiche e le università cinesi hanno anche effettuato consistenti investimenti nell’IA negli ultimi anni e hanno dato un contributo significativo all’apprendimento automatico. Tuttavia, a differenza di altre nazioni, la Cina impone alle aziende di sottoporsi a valutazioni di sicurezza e ottenere l’autorizzazione per i modelli di intelligenza artificiale. Questa politica aveva precedentemente ritardato il rilascio pubblico dei chatbot LLM in Cina. Tuttavia, questa settimana è segnata da un importante sviluppo poiché la Cina ha approvato il rilascio di nuovi modelli da parte di 11 aziende. Stiamo osservando per vedere l’adozione di questi prodotti in Cina e come si confrontano con i modelli dei concorrenti occidentali.

Mentre gli sviluppi dell’IA in Cina sono promettenti, il governo degli Stati Uniti ha intensificato le sanzioni sulla fornitura di chip AI di punta alla Cina. Ciò solleva interrogativi sul potenziale impatto sui progressi. Non è ancora chiaro quanto estese saranno queste restrizioni e come i progetti di IA cinesi saranno in grado di compensare con chip meno efficienti, progettazioni di chip interne o fabbricazione di chip cinesi, ma ci aspettiamo che diventi una sfida sempre più grande per addestrare i modelli con la maggiore intensità di calcolo in futuro.

– Louie Peters – Co-fondatore e CEO di Towards AI

Questo numero ti è offerto grazie a invideo AI:

Trasforma Qualsiasi Idea in un Video con un Solo Strumento AI

Immagina di avere un copilota per creare video, ecco invideo AI.

Trasforma le tue idee in meravigliose immagini in modo istantaneo. Instruisci l’IA con comandi di testo e ottieni un video pronto all’uso, comprensivo di sceneggiatura, media di stock, doppiaggio e sottotitoli.

Esegui modifiche e regolazioni con semplici comandi di testo. La creazione è diventata 100 volte più facile per creatori di contenuti, YouTuber e marketer.

Provalo ora, senza alcun costo!

Ultime Notizie

  1. La Politica sulla Privacy di X Conferma che Utilizzerà Dati Pubblici per Addestrare Modelli di IA

La recente aggiornamento della politica sulla privacy di X ha informato gli utenti che ora verranno raccolti dati biometrici, nonché informazioni sul lavoro e sulla formazione degli utenti, per aiutare ad addestrare modelli di IA e apprendimento automatico. Alcuni rapporti ipotizzano che Elon Musk potrebbe aver acquisito Twitter in parte per la sua vasta quantità di dati di addestramento proprietari, che potrebbero essere utilizzati per addestrare sistemi per la sua nuova azienda di IA.

2. Google punta tutto sull’IA in Cloud

Google ha recentemente presentato un ecosistema ampliato che comprende sia i sistemisti globali che i fornitori di servizi cloud più piccoli, promuovendo l’adozione diffusa delle offerte di Google in tutto il mondo. Sebbene Google rimanga terzo distante nella corsa all’infrastruttura come servizio/piattaforma come servizio, sta adottando una strategia a lungo termine e investendo pesantemente nell’IA come motore chiave del suo futuro nel cloud computing.

3. WeatherBench 2: Un Benchmark per la Prossima Generazione di Modelli Meteo Basati sui Dati

Google ha rilasciato il dataset WeatherBench 2, che sta attirando l’attenzione nel campo della previsione del tempo basata sull’IA. I metodi di apprendimento automatico stanno dimostrando di essere altrettanto efficaci dei modelli basati sulla fisica, ma con il vantaggio di previsioni più veloci utilizzando hardware conveniente. Il dataset WeatherBench 2 mira a migliorare la ricerca di IA nella previsione del tempo.

4. Ideogram lancia un Generatore di Immagini con un’impressionante capacità tipografica

Ideogram è un’alternativa strumento di IA che eccelle nella generazione di immagini con forti capacità tipografiche. Offre una funzionalità unica di generare testo all’interno delle immagini, affrontando efficacemente la sfida comune affrontata dai popolari generatori di immagini basati su IA.

5. L’IA potrebbe soffocare con i suoi stessi eccessi mentre riempie il web

Gli esperti prevedono che i contenuti generati dall’IA presto domineranno il web, ma ciò comporta rischi come il sovraccarico di informazioni e degrado. Una preoccupazione significativa è rappresentata dal “Collasso del Modello”, in cui i modelli di IA si affidano eccessivamente a scelte di parole prevedibili, potenzialmente portando a una perdita della loro capacità di produrre contenuti interessanti e sfumati.

Cinque letture/video di 5 minuti per continuare a imparare

  1. Le trasformazioni hanno rivoluzionato l’Intelligenza Artificiale. Cosa le sostituirà?

Se l’Intelligenza Artificiale moderna dovesse avere un documento fondativo, sarebbe il paper di ricerca del 2017 di Google, “Attention Is All You Need”. Questo articolo approfondisce il concetto delle trasformazioni, ne illustra i limiti e discute potenziali alternative per superare queste lacune. Presenta alternative convincenti supportate da una logica solida.

2. Glossario di ChatGPT: 41 termini di Intelligenza Artificiale che tutti dovrebbero conoscere

Con il ritmo degli sviluppi nell’Intelligenza Artificiale, può essere difficile tenersi aggiornati con il linguaggio tecnico più recente. Questo glossario serve come risorsa per coloro che si stanno appena avvicinando all’IA e per coloro che cercano un riferimento o un ripasso del vocabolario.

3. Scegliere la strategia giusta di GPU per il tuo progetto di Intelligenza Artificiale

Questa guida approfondisce la decisione se affittare o acquistare una GPU per il tuo progetto di IA. Possedere una GPU offre stabilità, mentre l’affitto offre flessibilità. I freelance possono trovare vantaggioso l’affitto per progetti a breve termine, mentre i ricercatori a lungo termine possono scoprire che il possesso è più conveniente dal punto di vista economico.

4. Opzioni per risolvere le allucinazioni nell’IA generativa

Questo articolo affronta il problema delle allucinazioni dell’IA nei modelli generativi e introduce una soluzione nota come Generazione con Recupero Potenziato (RAG). RAG mitiga efficacemente le allucinazioni recuperando contesto pertinente durante la generazione dei dati, rendendolo una scelta preferita per le aziende di IA.

5. Vertex AI LLM Reinforcement Learning From Human Feedback

L’articolo offre una guida completa per implementare l’Apprendimento per Rinforzo con Feedback Umano (RLHF) su Google Cloud utilizzando Vertex AI.

Articoli e Repository

  1. RLAIF: Espandere l’Apprendimento per Rinforzo dal Feedback Umano con il Feedback dell’IA

Nuove scoperte di Google suggeriscono che l’Apprendimento per Rinforzo dal Feedback dell’IA (RLAIF) potrebbe rappresentare un’alternativa valida all’Apprendimento per Rinforzo con etichette di preferenza umane di alta qualità (RLHF). RLAIF utilizza un modello di linguaggio pronto all’uso per etichettare le preferenze e ha il potenziale per affrontare le limitazioni di scalabilità e migliorare l’efficienza dei LLM.

2. YaRN: Estensione efficiente della finestra di contesto dei grandi modelli di linguaggio

Questo articolo introduce YaRN, un metodo computazionalmente efficiente per estendere la finestra di contesto di tali modelli, richiedendo 10 volte meno token e 2,5 volte meno passaggi di addestramento rispetto ai metodi precedenti. È stato utilizzato con successo per il fine-tuning dei modelli LLaMa 2 7B e 13B con finestre di contesto di 64k e 128k.

3. Qwen-VL: Un potente modello di Visione-Linguaggio con capacità versatili

Alibaba Cloud introduce Qwen-VL, un potente modello di visione-linguaggio progettato per applicazioni di chat. Qwen-VL combina input di immagini e testo per generare testo accurato e output di bounding box, migliorando compiti come la descrizione delle immagini, la risposta alle domande, la localizzazione e la comprensione testo-immagine.

4. MedAlign: Un dataset generato da clinici per l’analisi dei Registri Elettronici di Salute

MedAlign è un prezioso dataset composto da 983 istruzioni per l’analisi dei dati dei Registri Elettronici di Salute (EHR). I ricercatori hanno utilizzato questo dataset per valutare le prestazioni di sei modelli di linguaggio a dominio generale. Hanno identificato tassi di errore significativi, con GPT-4 che presenta un tasso di errore del 35%, e MPT-7B-Instruct con un tasso di errore del 68%.

5. OpenBMB / ChatDev

ChatDev è una società di software virtuale che opera attraverso più agenti intelligenti, ognuno con ruoli diversi, tra cui CEO, CTO, Programmatore, Tester e altri. Questi agenti all’interno di ChatDev collaborano partecipando a seminari funzionali specializzati, che comprendono attività come il design, la codifica, i test e la documentazione.

Ti piacciono questi articoli e riassunti di notizie? Ricevi un riassunto giornaliero nella tua casella di posta!

La sezione della Community di “Learn AI Together”!

Meme della settimana!

Meme condiviso da neuralink

Post in evidenza della Community su Discord

Well.job ha introdotto la Ricerca Semantica Multilingue, offrendo capacità di ricerca semantica con open source o OpenAI. Questa soluzione è progettata per funzionare con qualsiasi lingua e offre un modo semplice ed efficiente per condurre ricerche semantiche, utilizzando la libreria FAISS in diverse lingue. Scopri di più su GitHub e supporta un membro della community. Condividi le tue domande e il tuo feedback nel thread qui.

Sondaggio AI della settimana!

Unisciti alla discussione su Discord.

Sezione selezionata TAI

Articolo della settimana

10 cose interessanti che puoi fare con gli embeddings! [Parte 1] di Zubia Mansoor

Allontanandosi dal machine learning classico (ML), gli embeddings sono al centro della maggior parte dei casi d’uso del deep learning (DL). Comprendere questo concetto ti consente di svolgere attività flessibili nello spazio delle caratteristiche e di riformulare problemi di ML/DL in modo diverso, specialmente con dati ad alta dimensionalità in Computer Vision e Natural Language Processing.

I nostri articoli imperdibili

Evoluzione nel tuo codice: comprensione e programmazione di un algoritmo genetico da zero — Parte 1 di Francis Adrian Viernes

Reinforcement Learning: Programmazione dinamica e Monte Carlo — Parte 2 di Tan Pengshi Alvin

Machine Learning su larga scala: Parallelismo modello contro parallelismo dei dati di Shubham Saboo

Discesa più ripida e Metodo di Newton in Python, da zero: un confronto di Nicolo Cosimo Albanese

Se sei interessato a pubblicare su Towards AI, controlla le nostre linee guida e iscriviti. Pubblicheremo il tuo lavoro sulla nostra rete se rispetta le nostre politiche editoriali e gli standard.

Offerte di lavoro

Responsabile del team, Ingegneria del software @Persado (Remoto)

Consulente di prova software QA — USA @ReVisionz (Remoto)

Ingegnere software principale — Vue.JS @Creative Chaos (Remoto)

Ingegnere dei dati @Mercari (Remoto)

Internship di ricerca sui dati @Clarity AI (Madrid, Spagna)

Ingegnere dei dati @Decathlon (Singapore)

Stage per sviluppatori software — Estate 2023/24 @Phocas Software (Christchurch, Nuova Zelanda)

Interessato a condividere un’opportunità di lavoro qui? Contatta [email protected].

Se stai preparando il tuo prossimo colloquio di machine learning, non esitare a visitare il nostro sito web leader nella preparazione agli interviste, confetti!

https://www.confetti.ai/