Lab Sessions Una nuova serie di collaborazioni sperimentali di intelligenza artificiale

Lab Sessions una nuova serie sperimentale di IA.

Se stiamo sviluppando prodotti, avanzando l’hardware o conducendo nuove ricerche, sappiamo che la cosa più importante è mettere la tecnologia nelle mani delle persone reali. Da anni collaboriamo con individui e comunità in vari campi per plasmare le tecnologie emergenti in modo da soddisfare le loro esigenze uniche.

Labs.google è un luogo in cui continuiamo a sperimentare con l’intelligenza artificiale: testando ipotesi, imparando gli uni dagli altri e creando nuove tecnologie insieme. Ma vogliamo anche creare un modo per mostrare le nostre collaborazioni esistenti e future in tutte le discipline.

Ecco perché annunciamo Lab Sessions, una serie di collaborazioni sperimentali nell’ambito dell’intelligenza artificiale con visionari – da artisti ad accademici, da scienziati a studenti, da creatori ad imprenditori. Puoi vedere le nostre prime tre sessioni qui di seguito o su labs.google/sessions.

Dan Deacon x Intelligenza artificiale generativa

Una delle nostre Sessioni più recenti è stata con il compositore e musicista digitale Dan Deacon. Dan ha collaborato con i ricercatori di Google per creare una performance pre-show per Google I/O 2023. Dan ha sperimentato con il nostro modello di testo-musica, MusicLM, per creare nuovi suoni per una nuova canzone. Ha utilizzato Bard, la nostra intelligenza artificiale conversazionale, per aiutarlo a scrivere una meditazione guidata. E ha esplorato il nostro modello video generativo, Phenaki, trasformando i suoi testi in immagini proiettate sul palco. Sperimenta Bard e MusicLM tu stesso.

10:25

Lupe Fiasco x Modelli di linguaggio estesi

Abbiamo anche collaborato con il rapper e studioso ospite del MIT, Lupe Fiasco, per vedere come l’intelligenza artificiale potesse migliorare il suo processo creativo. Mentre iniziavamo a sperimentare con l’API PaLM e MakerSuite, è diventato chiaro che Lupe non voleva che l’IA scrivesse rap per lui. Invece, voleva strumenti di intelligenza artificiale che potessero aiutarlo nel suo processo di scrittura personale.

Quindi abbiamo deciso di costruire insieme un nuovo set di strumenti personalizzati. Le tecniche liriche e linguistiche di Lupe hanno portato una prospettiva del tutto nuova al modo in cui sollecitiamo e creiamo con i grandi modelli di linguaggio. Il risultato finale è un’esperimento chiamato TextFX, dove troverai 10 strumenti alimentati dall’IA per scrittori, rapper e paroleggiatori di ogni tipo. Provalo e se vuoi dare un’occhiata più da vicino a come è stato costruito l’esperimento, leggi questo post sul blog o il codice open source.

10:25

Georgia Tech e RIT/NTID x Riconoscimento della lingua dei segni

Dallo scorso anno, stiamo lavorando con un gruppo di studenti del Georgia Institute of Technology e del National Technical Institute for the Deaf (NTID) presso il Rochester Institute of Technology (RIT) per esplorare come i modelli di visione artificiale dell’IA possano aiutare le persone a imparare la lingua dei segni in nuovi modi.

Insieme ai ricercatori di Google e alla comunità di Kaggle, gli studenti hanno creato un gioco chiamato PopSignAI. Questo gioco di lancio di bolle insegna 250 segni della lingua dei segni americana (ASL) basati sugli Inventari di Sviluppo Comunicativo MacArthur-Bates, che sono i primi concetti utilizzati per insegnare una lingua a un bambino. Il novantacinque per cento dei neonati sordi nasce da genitori udenti, che spesso non conoscono l’ASL.

Puoi scaricare il gioco su Play Store e iOS app store per provarlo tu stesso o visitare popsign.org per saperne di più.

10:25

Guardando avanti

Occorrono persone con curiosità, creatività e compassione per sfruttare il potenziale dell’IA. Siamo entusiasti di condividere altre Lab Sessions e vedere dove possiamo arrivare insieme con l’IA.