Questa newsletter di intelligenza artificiale è tutto ciò di cui hai bisogno n. 71

La speranza della newsletter di intelligenza artificiale n. 71 tutto ciò di cui hai bisogno

Cosa è successo questa settimana nell’IA secondo Louie

Questa settimana, il presidente Joe Biden ha riportato l’attenzione sulla regolamentazione dell’Intelligenza Artificiale firmando un ordine esecutivo per supervisionare l’intelligenza artificiale. Questa direttiva invita diverse agenzie governative a stabilire nuove linee guida riguardanti la sicurezza dell’IA, la privacy dei dati e la cybersecurity. Una parte significativa dell’ordine consiste nell’assegnare fondi per la ricerca sulla conservazione della privacy. Il governo sta evidentemente enfatizzando la regolamentazione in ambiti come la privacy, l’equità e i diritti civili. È importante notare che senza l’appoggio del Congresso, questo ordine esecutivo non ha la forza di legge. Nei prossimi mesi potremmo essere testimoni di iniziative da parte dell’Unione Europea e abbiamo già osservato regolamentazioni rigorose provenienti dalla Cina.

La notizia ha suscitato dibattiti su X (precedentemente Twitter), dove prominenti ricercatori di intelligenza artificiale hanno espresso le loro preoccupazioni riguardo alla regolamentazione dell’IA e agli eventuali effetti dannosi sui progetti open-source. Andrew Ng ha commentato: “Ci sono sicuramente grandi aziende tecnologiche che preferirebbero non dover competere con l’open source”. Nel frattempo, Yann LeCun, Chief Data Scientist presso Meta, ha dichiarato: “Se… le campagne allarmistiche avranno successo, ciò porterà inevitabilmente… a una catastrofe: un piccolo numero di aziende controllerà l’IA”. È evidente che trovare il giusto equilibrio tra mitigare i rischi dell’IA e prevenire ostacoli che favoriscano solo le grandi entità è una sfida.

– Louie Peters – Co-fondatore e CEO di Towards AI

Ultime news

  1. Le startup di IA temono che l’ordine esecutivo di Biden sull’IA possa soffocare l’innovazione

Il presidente degli Stati Uniti Joe Biden sta cercando di ridurre i rischi dell’IA per i consumatori, i lavoratori, i gruppi minoritari e la sicurezza nazionale con un nuovo ordine esecutivo. Mentre alcune startup hanno accolto con favore l’ordine, alcuni CEO hanno espresso preoccupazioni sul fatto che possa ostacolare le aziende più piccole e soffocare l’innovazione.

2. Jina AI presenta il primo embedding di testo open-source in 8K, che fa concorrenza a OpenAI

Jina AI ha introdotto jina-embeddings-v2, un modello di embedding open-source che supporta una lunghezza di contesto di 8K. Corrisponde al modello di 8K di OpenAI in aree critiche come Classification Average, Reranking Average, Retrieval Average e Summarization Average nella leaderboard di MTEB.

3. Google investe $2 miliardi in Anthropic

Google ha impegnato un notevole investimento in Anthropic, un concorrente di OpenAI, stanziando fino a $2 miliardi per la startup di IA. Anthropic è lo sviluppatore di Claude 2, un chatbot utilizzato da aziende come Slack, Notion e Quora.

4. Anthropic, Google, Microsoft e OpenAI annunciano oltre $10 milioni per un nuovo fondo in materia di sicurezza dell’IA

Anthropic, Google, Microsoft e OpenAI hanno investito oltre $10 milioni per creare un nuovo fondo di sicurezza dell’IA, con l’obiettivo di promuovere la ricerca nello sviluppo responsabile e sicuro di modelli avanzati di IA. Questa mossa rappresenta uno sforzo dell’intero settore per aumentare gli standard di sicurezza e affrontare in modo proattivo le sfide poste dai sistemi avanzati di IA.

5. ChatGPT raggiunge tutti gli strumenti in un unico posto con l’aggiornamento

OpenAI ha iniziato a lanciare una nuova versione di ChatGPT che combina tutte le funzionalità di GPT-4 – Navigazione, DALL-E 3 e Analisi dei dati – senza la necessità di passare tra le modalità. L’aggiornamento consente di accedere a tutte le funzionalità di ChatGPT all’interno dell’interfaccia principale, senza dover passare tra diverse modalità.

Cinque letture/video di 5 minuti per continuare a imparare

  1. Master LLM: le migliori strategie per valutare le prestazioni di LLM

Questa guida illustra come valutare e confrontare in modo efficace i Large Language Models (LLM). Scopri di più sulla perplessità, le altre metriche di valutazione e le selezionate linee guida per confrontare le prestazioni dei LLM. Include inoltre strumenti pratici per selezionare il modello più adatto alle tue esigenze e attività.

2. Valutare le Uscite dei LLM

Questo post del blog esamina alcune tecniche per valutare le uscite generate da un LLM. Condivide anche un’analisi delle tecniche come il feedback degli utenti e gli annotatori umani, nonché la replicazione dei metodi di valutazione umana utilizzando i LLM.

3. Come Funziona un Chatbot LLM: Esplorando la Chat Con Generazione Potenziata da Recupero (RAG)

Questo articolo si concentra sulla costruzione della parte generativa di un chatbot, migliorando i chatbot LLM con RAG, un componente fondamentale del punto di accesso alla chat che consente di connettere l’API ai dati esterni per la generazione potenziata.

4. L’Ordine Conta: Come l’IA Lotta con il Reverse

Questo articolo si concentra su come e perché la maledizione del reverse influisce sui large language models. A differenza degli esseri umani, i LLM possono avere difficoltà a rispondere efficacemente a domande che coinvolgono l’inversione delle informazioni. Inoltre, è stato riscontrato che i LLM inciampano in aree in cui la competenza umana è forte.

5. Secondo Aristotele, Potrebbe ChatGPT Essere in Grado di Pensare?

Questo post affronta la questione filosofica se i grandi modelli di linguaggio come ChatGPT, noti come LLM, abbiano le capacità ragionatorie del Sillogismo di Aristotele. Esplora la connessione tra l’IA e la filosofia, in particolare nel ragionamento logico.

Articoli e Repository

  1. QMoE: Soluzione pratica per la compressione a meno di 1 bit per parametro dei modelli da trilioni di parametri

QMoE è una soluzione pratica per la compressione dei modelli da trilioni di parametri come lo SwitchTransformer a <1 bit/parametro, riducendo notevolmente la richiesta di memoria. Raggiunge un tasso di compressione 20 volte superiore con una minima perdita di precisione e può funzionare in modo efficiente su hardware accessibile.

2. JudgeLM: I grandi modelli di linguaggio sintonizzati sono giudici scalabili

JudgeLM è un metodo che migliora la valutazione dei grandi modelli di linguaggio mediante la loro sintonizzazione come giudici scalabili. Compilando un dataset e utilizzando tecniche di aumento, JudgeLM affronta le distorsioni e si comporta bene su benchmark. Supera il giudizio umano e dimostra versatilità in diversi formati.

3. Contrastive Preference Learning: Apprendimento dalla Retroazione Umana senza RL

Contrastive Preference Learning (CPL) è un nuovo approccio all’apprendimento per rinforzo dalla retroazione umana (RLHF) che evita la necessità dei metodi tradizionali di RL. Concentrandosi sul rimpianto anziché sulla ricompensa, CPL semplifica il processo di apprendimento e ha il potenziale per essere applicato in modo efficace in scenari RLHF di dimensioni superiori.

4. I ConvNets eguagliano in scala i Vision Transformers

Google DeepMind ha condotto uno studio in cui ha confrontato i Convolutional Neural Networks (ConvNets) e i Vision Transformers (ViTs) per la classificazione di immagini su larga scala. In sintesi, i ConvNets e i ViTs hanno prestazioni simili quando si dispone di risorse comparabili.

5. HallusionBench: Tu Vedi Ciò che Pensi? O Pensi Ciò che Vedi?

HallusionBench è un nuovo benchmark curato progettato per studiare l’allucinazione del linguaggio e l’illusione visiva nei modelli visione-linguaggio come GPT4-V e LLaVA-1.5. Questo benchmark mette alla prova la capacità dei modelli di ragionare con il contesto delle immagini e mette in luce eventuali punti deboli nei loro moduli di visione.

Godetevi questi articoli e riepiloghi delle notizie? Ricevete un riassunto giornaliero nella vostra casella email!

La sezione “Imparare l’AI insieme” della community!

Meme della settimana!

Meme condiviso da rucha8062

Articolo in evidenza dalla community di Discord

NYLee ha lanciato LLMwarre, un framework unificato, aperto ed estensibile per i modelli di applicazione basati su LLM, inclusa la generazione assistita da recupero (RAG). Questo progetto fornisce un set completo di strumenti che chiunque può utilizzare, dai principianti agli sviluppatori AI più sofisticati. Include il parsing di documenti in formato PDF e Office, l’analisi del testo, l’incorporamento di vettori utilizzando Milvus, FAISS o Pinecone e la ricerca ibrida. Guardalo su GitHub e supporta un membro della community. Condividi il tuo feedback nel thread qui!

Sondaggio AI della settimana!

Unisciti alla discussione su Discord.

Sezione curata da TAI

Articolo della settimana

Guida completa per creare un assistente AI per riassumere i video di YouTube – Parte 1 di Amin Kamali

Questo articolo è il primo di una serie di tre articoli che spiegano passo dopo passo come costruire un assistente AI per riassumere i video di YouTube. Inizia questa serie con istruzioni dettagliate per catturare la trascrizione di un video di YouTube utilizzando Whisper di OpenAI, seguito dalla riassunzione del testo utilizzando Langchain e dalla dimostrazione di un prototipo di soluzione utilizzando Gradio e Hugging Face Spaces.

I nostri articoli da leggere assolutamente

L’ordine conta: come l’AI si scontra con il Reverse di Salvatore Raieli

Comprendere completamente la regressione ElasticNet con Python di Amit Chauhan

Se sei interessato a pubblicare con Towards AI, consulta le nostre linee guida e iscriviti. Pubblicheremo il tuo lavoro sulla nostra rete se rispetta le nostre politiche editoriali e gli standard.

Offerte di lavoro

Jr. Machine Learning Engineer @BreederDAO (Remoto)

Machine Learning Engineer @CloudHire (Remoto)

Machine Learning/AI Engineer @Imagine.io (Remoto)

AI Machine Learning Scientist @PayPal (San Jose, CA, USA)

Ethical Red Teamer — Computer Vision @Salesforce (Remoto)

Stagista estivo 2024 — Scienza dei dati, Data & Analytics @Salesforce (Remoto)

Architetto delle soluzioni, LLM @NVIDIA (Remoto)

Interessato a condividere un’opportunità di lavoro qui? Contatta .

Se stai preparando il tuo prossimo colloquio di lavoro in ambito machine learning, non esitare a visitare il nostro sito web leader nella preparazione al colloquio, confetti!

https://www.confetti.ai/