DeepMind AI potenzia l’esposizione di YouTube Shorts generando automaticamente descrizioni per milioni di video

DeepMind AI potenzia YouTube Shorts con descrizioni automatiche per milioni di video.

DeepMind, in collaborazione con YouTube, ha presentato un modello di intelligenza artificiale all’avanguardia, chiamato Flamingo, progettato per migliorare la ricerca dei video di YouTube Shorts. Questi brevi video clip, simili alla popolare piattaforma TikTok, spesso necessitano di testi più descrittivi e titoli significativi, rendendo più facile per gli utenti trovare contenuti specifici. Tuttavia, grazie all’introduzione di Flamingo, gli utenti avranno ora un modo più semplice per scoprire questi video.

Flamingo utilizza il suo avanzato modello di linguaggio visivo per generare testi esplicativi analizzando i primi fotogrammi dei video di YouTube Shorts. Ad esempio, può descrivere la scena come “un gatto che gioca con una pallina di lana”. Questo testo generato viene salvato come metadati, consentendo una classificazione video più efficiente e facilitando l’accessibilità dei motori di ricerca.

L’impatto di Flamingo si è già fatto sentire, poiché centinaia di migliaia di video Shorts appena caricati hanno beneficiato di descrizioni generate dall’intelligenza artificiale. YouTube ha l’intenzione di implementare gradualmente questa tecnologia su tutti i video Shorts, rendendoli più facili da trovare per gli utenti di tutto il mondo.

Flamingo rappresenta l’ultima collaborazione tra DeepMind e YouTube, consolidando ulteriormente la fusione tra DeepMind e Google Brain in un unico gruppo aziendale di intelligenza artificiale, come annunciato da Google ad aprile. Le loro precedenti iniziative congiunte includono l’utilizzo del modello di intelligenza artificiale di DeepMind, MuZero, per migliorare il codec VP9 di YouTube per la trasmissione compressa. Inoltre, DeepMind e YouTube si sono alleati nel 2018 per educare i creatori di video a massimizzare i ricavi allineando gli annunci pubblicitari alle politiche di YouTube. Questa partnership ha portato allo sviluppo di un modello di qualità delle etichette (LQM), garantendo un’etichettatura dei contenuti più accurata per una precisione pubblicitaria migliorata e favorendo la fiducia tra spettatori, creatori e inserzionisti sulla piattaforma.

Continuando la loro fruttuosa collaborazione, DeepMind e YouTube hanno lavorato per migliorare l’esperienza utente introducendo i capitoli dei video. Questo sviluppo ha portato alla creazione di un sistema di intelligenza artificiale in grado di elaborare autonomamente trascrizioni di contenuti video e audio, fornendo suggerimenti per la segmentazione dei capitoli e i titoli. Questa funzione rivoluzionaria, nota come AutoChapters, è stata presentata dal CEO Sundar Pichai durante il Google I/O 2022. Con AutoChapters, gli utenti non devono più cercare pazientemente all’interno di lunghi video, poiché il sistema di intelligenza artificiale identifica rapidamente le sezioni chiave. Questa funzione è già utilizzata in 8 milioni di video e DeepMind prevede di estenderne l’implementazione a 80 milioni di video nell’anno prossimo.

Riguardo a Flamingo, il team di produzione di YouTube Shorts ha chiarito che i metadati generati dal modello di intelligenza artificiale non saranno visibili ai creatori. Il focus principale è migliorare significativamente l’accuratezza della ricerca. Inoltre, Google assicura che il testo prodotto da Flamingo si attenga ai suoi rigidi standard di responsabilità, evitando qualsiasi rappresentazione negativa dei contenuti video.

Mentre Flamingo inizia il suo percorso per rivoluzionare la ricerca dei video di YouTube Shorts, l’accuratezza delle sue capacità di etichettatura basate sull’intelligenza artificiale verrà osservata da vicino. In quest’era di avanzate tecnologie di intelligenza artificiale, Flamingo è una testimonianza della collaborazione tra DeepMind e YouTube. Attraverso i loro sforzi congiunti, continuano a ridefinire i confini dell’innovazione dell’intelligenza artificiale, creando un ambiente più coinvolgente e accessibile per creatori e spettatori.