Questa newsletter sull’IA è tutto ciò che ti serve #73

Questa newsletter sull'IA è tutto ciò che ti serve #73 scopri le ultime novità!

Cosa è successo questa settimana nell’ambito dell’IA a cura di Louie

Immagine: Crediti all'IA Report di Retool

La conversazione di questa settimana è stata ancora dominata dalle conseguenze del Devday di OpenAI, dai nuovi lanci di prodotti e dalle speculazioni sul potenziale futuro del GPTStore, con già oltre 10.000 GPT creati. Ma siamo anche stati interessati a vedere diversi nuovi studi pubblicati in questa settimana sullo stato dell’IA e sulla sua adozione nell’economia.

Uno studio recente ha esaminato l’impatto del lancio di ChatGPT sulle perdite di lavoro e sui guadagni nei settori freelance come la copywriting e la grafica. Lo studio ha rivelato che non solo ChatGPT ha ridotto significativamente il numero di lavori disponibili per le persone, ma ha anche depreciato il valore del lavoro. Uno studio separato condotto dal Boston Consulting Group (BCG) indica che i dipendenti con accesso a GPT-4 hanno svolto il 12% in più di compiti a un ritmo del 25% più veloce, con un miglioramento del 40% nella qualità. Lo studio ha evidenziato una significativa crescita delle prestazioni tra i membri più giovani del team che hanno potuto sfruttare le conoscenze di GPT-4 per integrare le loro competenze.

Inoltre, l’indagine “Lo stato dell’IA 2023” di Retool.com, che ha coinvolto circa 1600 partecipanti, mostra dati interessanti sui sentimenti verso l’IA, la sua adozione e i leader attuali. (Abbiamo evidenziato alcune scoperte affascinanti in questo riassunto e ti incoraggiamo vivamente a leggere il rapporto completo.) La maggior parte dei partecipanti ha condiviso una comune convinzione riguardo all’impatto previsto dell’IA sulla propria carriera nei prossimi cinque anni. Inoltre, si nota una preferenza per l’assunzione di ingegneri competenti nell’utilizzo di strumenti di IA come ChatGPT/Copilot. Interessante notare che l’80% dei partecipanti utilizza varie iterazioni di ChatGPT (inclusi GPT-3, 3.5 e 4). Nel frattempo, le principali preoccupazioni ruotano attorno all’accuratezza del modello e alle allucinazioni, con il 67% dei partecipanti che esprime preoccupazione. Per quanto riguarda gli strumenti per sviluppatori, attualmente il dominio di mercato è detenuto da Huggingface, LangChain e LlamaIndex. Infine, secondo i partecipanti all’indagine, i risultati dell’indagine indicano che GitHub Copilot, ChatGPT e Google Bard sono gli strumenti più preziosi.

Perché dovresti interessarti?

È facile lasciarsi coinvolgere dal ritmo incredibile dei nuovi modelli di IA e dai miglioramenti delle capacità. Tuttavia, a volte è difficile valutare come questi strumenti stiano venendo adottati in modo più ampio e se stiano iniziando ad avere un impatto sull’economia. Perciò, riteniamo che sia fondamentale vedere studi dettagliati sull’adozione dell’IA tra le diverse industrie in modo da poter iniziare a pianificare gli impatti positivi e negativi di questa tecnologia. Chiaramente, in alcune aree, l’adozione di LLM sta già influenzando significativamente i dipendenti, sia in modo negativo (riduzione del salario) che positivo (miglioramento della produttività e della qualità). Ma in altri modi, l’adozione è ancora agli inizi e le aziende stanno solo iniziando ad adattarsi alle nuove capacità. Forse l’ultimo prodotto GPT di OpenAI e una migliore interfaccia utente per condividere prompt e idee per i casi d’uso di LLM accelereranno ulteriormente questi trend.

– Louie Peters — Co-fondatore e CEO di Towards AI

Ultime Notizie

  1. NVIDIA rende i Pandas molto più veloci sfruttando le GPU

NVIDIA ha notevolmente migliorato la libreria Pandas, ottenendo prestazioni fino a 150 volte più veloci sfruttando le GPU. Con il nuovo modulo cudf.pandas, le operazioni vengono eseguite in modo fluido sulla GPU o sulla CPU, offrendo la sincronizzazione automatica e un efficiente passaggio tra le due.

2. IA e Open Source nel 2023

Nel 2023, la ricerca e l’industria dell’IA si sono focalizzate sul miglioramento delle tecnologie esistenti come GPT e DALL-E piuttosto che su innovazioni radicali. Le aziende sono diventate più protettive delle loro informazioni proprietarie, risultando in una minore divulgazione pubblica di documenti di ricerca. Tuttavia, ci sono state significative avanzamenti nell’open source, con Fuyu-8B che ha portato a modelli più piccoli ed efficienti. L’IA si è dimostrata utile in vari settori, ma le preoccupazioni etiche e le insidie devono essere affrontate in futuro.

3. Copilot Trasforma GitHub nella piattaforma di sviluppo basata sull’IA

GitHub sta implementando la tecnologia dell’IA attraverso Copilot e Copilot Chat, con l’obiettivo di rivoluzionare lo sviluppo software fornendo comprensione del codice, suggerimenti, correzioni di sicurezza e un’esperienza di sviluppo migliorata. Copilot Chat sarà alimentato dal modello GPT-4 di OpenAI e sarà disponibile a partire da dicembre 2023.

4. OpenAI vuole collaborare con le organizzazioni per costruire nuovi set di dati di addestramento AI

OpenAI ha annunciato uno sforzo chiamato Data Partnerships, con l’obiettivo di collaborare con organizzazioni di terze parti per costruire set di dati pubblici e privati per l’addestramento dei modelli AI. Questo sforzo mira a rendere i modelli più pratici per varie organizzazioni. Il focus principale del programma è raccogliere dati estesi non facilmente disponibili su Internet, con particolare enfasi sui dati che riflettono l’intenzione umana in diverse lingue, argomenti e formati.

5. Presentazione di Adept Experiments

Adept apre l’accesso a Adept Experiments, un generatore di flussi di lavoro basato sull’IA che consente agli utenti di automatizzare compiti complessi o noiosi su diverse piattaforme software con semplici comandi linguistici. Aiuta a delegare compiti ripetitivi di conoscenza e a trasformare dati non strutturati in dati strutturati, e persino a ordinare la cena.

Questa settimana nell’AI si è concentrata sul perfezionamento delle tecnologie, dei dati e del calcolo esistenti. Qual è la tua opinione: costruire qualcosa di nuovo o perfezionare ciò che c’è già? Condividilo nei commenti!

Cinque letture/video di 5 minuti per continuare a imparare

  1. L’evoluzione dell’IA: da IBM e AWS a OpenAI e Anthropic

Questo saggio è una splendida esplorazione del panorama dell’intelligenza artificiale e della sua evoluzione nel tempo. L’articolo mappa gli eventi chiave che hanno plasmato l’IA nel suo stato attuale, con aziende influenti come Google, IBM e OpenAI che hanno svolto un ruolo di rilievo nell’accelerare l’innovazione. Parla anche del futuro di un’IA responsabile, dell’IA per i consumatori e altro ancora.

2. Stimolare GPT-4 per l’analisi delle immagini dei grafici: è all’altezza della sfida?

La versione più recente di GPT, GPT-4, ha introdotto capacità di analisi delle immagini, comprese le immagini dei grafici. Sebbene possa fornire un’analisi generale delle immagini dei grafici, c’è ancora spazio per un miglioramento significativo, specialmente nella quantificazione accurata dei dati. Questo articolo utilizza alcuni tipi di grafici per valutare quanto sia buono (o cattivo) GPT-4 nell’analisi delle immagini dei grafici.

3. Misurare le allucinazioni nei sistemi RAG

L’Hallucination Evaluation Model (HEM) è uno strumento open-source sviluppato per misurare la frequenza delle allucinazioni nei sistemi Retrieval Augmented Generation (RAG). Valuta l’affidabilità dell’IA valutando la capacità dei modelli generativi LLM di riassumere i risultati in modo accurato senza produrre output non correlati o distorti.

4. Le novità di DALL·E-3?

DALL·E-3 è una versione migliorata dei modelli di testo-immagine DALL-E, che mostrano una qualità dell’immagine superiore in vari ambiti. Alcune caratteristiche degne di nota includono la riscrittura delle richieste utilizzando GPT-4 per risultati migliorati, parametri regolabili per la qualità dell’immagine e dimensioni flessibili. Questo articolo si concentra sulle nuove funzionalità e capacità di DALL·E-3 con alcuni esempi di quali nuovi prodotti possono essere creati con l’API.

5. Ottimizzazione dei collegamenti temporali

Questa guida copre le caratteristiche legate all’ottimizzazione dei collegamenti temporali, concentrandosi su catene di strumenti comuni per linguaggi come C e Rust, che tipicamente utilizzano la compilazione e il collegamento anticipati (AOT).

Repository e strumenti

  1. XTTS v2

XTTS è un modello di text-to-speech che consente agli utenti di clonare voci in diverse lingue. Supporta 16 lingue ed è lo stesso modello che alimenta la nostra applicazione creativa, Coqui Studio, e la Coqui API.

2. Giskard AI

Giskard è una libreria Python che rileva automaticamente le vulnerabilità dei modelli di intelligenza artificiale, dai modelli tabulari a LLM, inclusi i bias di prestazione, la perdita di dati, la correlazione spuria, l’allucinazione e molti altri.

3. Monaspace

Il sistema di tipi Monaspace è una super-famiglia di font monospaziati per il codice. È composto da cinque tipi di carattere con assi variabili; ognuno ha una voce distinta, ma sono tutti compatibili tra loro in termini di metriche, consentendo agli utenti di mixarli per ottenere una tavolozza tipografica più espressiva.

4. MindStudio

MindStudio consente agli utenti di creare app personalizzate di intelligenza artificiale senza codice utilizzando qualsiasi modello e comando. Consente agli utenti di allenare l’IA su dati esterni e distribuire le loro app pubblicamente o privatamente.

5. Graphlit

Graphlit è una piattaforma di sviluppo API-first per la creazione di applicazioni con LLM (Large Language Models). Utilizzando il pattern RAG, Graphlit sfrutta la potenza dei LLM come GPT-3.5 e GPT-4 di OpenAI per trasformare dati complessi in un grafo di conoscenza cercabile e conversazionale.

I migliori articoli della settimana

  1. OtterHD: A High-Resolution Multi-modality Model

Questo articolo presenta OtterHD-8B, un modello multimodale innovativo sviluppato da Fuyu-8B e appositamente progettato per interpretare input visivi ad alta risoluzione. Può accettare immagini nella loro risoluzione nativa, permettendo al modello di cogliere anche i dettagli più minuti. Con dimensioni dei parametri simili, OtterHD-8 B supera altri LMM su MagnifierBench, come InstructBLIP, LLaVA e Qwen-VL.

2. Battle of the Backbones: A Large-Scale Comparison of Pretrained Models across Computer Vision Tasks

Questo articolo confronta modelli preaddestrati per compiti di visione artificiale e scopre che ConvNeXT, un ConvNet ispirato ai Vision Transformers, offre le migliori prestazioni in diversi compiti. Mentre i vision transformers e l’apprendimento auto-supervisionato sono popolari, le reti neurali convoluzionali preaddestrate supervisionate offrono ancora prestazioni superiori nella maggior parte dei casi.

3. TEAL: Tokenize and Embed ALL for Multi-modal Large Language Models

Questo lavoro propone TEAL (Tokenize and Embed ALL), un sistema che semplifica la modellazione delle interazioni tra input multi-modali e genera modalità non testuali. Tratta l’input da qualsiasi modalità come una sequenza di token e apprende uno spazio di embedding congiunto per tutte le modalità. Ciò consente ai modelli di grande scala di prevedere i token multi-modali in modo più efficace, consentendo compiti con modalità non testuali come immagini e audio.

4. Levels of AGI: Operationalizing Progress on the Path to AGI

DeepMind ha introdotto un framework chiamato “Levels of AGI” che categorizza l’intelligenza artificiale in intelligenza “angusta” e “generale”. Tale framework identifica cinque livelli di prestazioni dell’IA, da emergente a sovrumano, in base alla loro capacità di apprendere, ragionare e applicare conoscenza. Questo framework potrebbe essere utile in modo analogo ai livelli di guida autonoma, fornendo un linguaggio comune per confrontare modelli, valutare i rischi e misurare il progresso verso l’AGI.

5. JARVIS-1: Open-World Multi-task Agents with Memory-Augmented Multimodal Language Models

Questo articolo presenta JARVIS-1, un agente open-world che può percepire input multimodali (osservazioni visive e istruzioni umane), generare piani sofisticati e gestire il controllo incarnato, tutto all’interno dell’universo popolare ma impegnativo di Minecraft. Negli esperimenti, JARVIS-1 mostra prestazioni quasi perfette su oltre 200 compiti variabili che vanno dai livelli base a quelli intermedi.

  1. Google è in trattative per investire centinaia di milioni di dollari in Character.AI mentre la start-up di chatbot con intelligenza artificiale in rapida crescita cerca capitale per addestrare modelli e far fronte alla domanda degli utenti.
  2. IBM ha annunciato che sta lanciando un fondo di venture da 500 milioni di dollari per investire in una serie di aziende di intelligenza artificiale, da start-up in fase iniziale a quelle ad alto tasso di crescita, focalizzate sull’accelerazione della tecnologia e della ricerca di AI generativa per le imprese.
  3. Due ex vice presidenti di Coca-Cola si sono uniti per portare sul mercato un sistema di intelligenza artificiale (AI) che sta già aiutando diverse importanti aziende Fortune 500 a perfezionare le loro strategie di sostenibilità: AMR Noureldin, vicepresidente della tecnologia presso LXT.
  4. La nuova arma di OpenAI nella guerra dei talenti con Google: pacchetti di 10 milioni di dollari per i ricercatori.
  5. L’azienda con sede in California Iterate ha lanciato AppCoder LLM, un modello sviluppato per generare istantaneamente codice funzionante e aggiornato per applicazioni di intelligenza artificiale pronte per la produzione utilizzando comandi in linguaggio naturale.

Chi Sta Assumendo nell’IA

Scrittore Tecnico e Sviluppatore di Grandi Modelli Linguistici @ Towards AI Inc (Remote)

Practice Manager, Data Science, AI & ML @ Rackspace (US/Remote)

Ingegnere DevOps HPC (Junior) @ Recursion (Remote)

Responsabile della Qualità dell’IA @ Welocalize (Pechino, Cina)

Sviluppatore di Machine Learning dell’IA @ FullStack Labs (America Latina/Remote)

Architetto di IA @ Tibra Capital (Sydney, Australia)

Scienziato/Ricercatore di Machine Learning @ Anyon Systems Inc. (Montreal, Quebec, Canada)

Interessato a condividere un’opportunità di lavoro qui? Contatta .

Se stai preparando il tuo prossimo colloquio di machine learning, non esitare a dare un’occhiata al nostro principale sito web di preparazione ai colloqui, confetti!

https://www.confetti.ai/

Pensi che anche un amico possa apprezzarlo? Condividi la newsletter e lascia che si uniscano alla conversazione.