Migliorare l’accessibilità dei podcast una guida per evidenziare il testo dell’LLM

Migliorare l'accessibilità dei podcast una guida per evidenziare il testo dell'LLM

Introduzione

Immagina di amare un podcast e desiderare di ricordare i migliori momenti, ma è tutto audio, senza testo. Cosa fai? Ecco dove entrano in gioco strumenti interessanti come LLMs e traduttori Audio-to-Text. Trasformano magicamente le parole pronunciate in appunti scritti, permettendoti di individuare facilmente i punti salienti e creare comode liste puntate. Quindi, i momenti preferiti del tuo podcast sono a un passo dalla trascrizione! Da quando è stato presentato per la prima volta nel novembre 2022, LLM è stato molto in voga. LLM può essere utilizzato per varie attività, e la sintesi del testo è un’applicazione essenziale. Possiamo fare sintesi anche per altre modalità oltre al testo, come l’audio e il video. Possiamo utilizzare LLM per migliorare l’accessibilità dei podcast e generare punti salienti in forma di elenco per facilità d’uso o prendere appunti per riferimenti futuri.

PaLM (Pathways Language LLM) è una LLM fondamentale introdotta da Google AI lo scorso anno, nell’aprile 2022. Quest’anno, nel marzo 2023, è stata rilasciata la seconda versione di PaLM 2, una versione migliorata e più aggiornata. Ha la capacità di essere superiore nella traduzione biligui, nel coding e nelle abilità di pensiero. Il vantaggio nell’utilizzare l’API di PaLM 2 LLM rispetto alle altre LLMs è che il suo API è liberamente disponibile. A differenza del ChatGPT di OpenAI, ha prestazioni migliori e capacità di ragionamento migliorate rispetto ad altre LLM.

In questo articolo, impareremo come utilizzare questi strumenti, in particolare l’API di PaLM 2 e Maker Suite, per creare un semplice evidenziatore di testo per i podcast e impareremo come ottimizzare le impostazioni del modello LLM per generare riassunti bullet migliore. Scopriremo le caratteristiche di questi strumenti e cercheremo di comprendere diversi casi d’uso in cui possono essere utilizzati. Quindi iniziamo!

Obiettivi di apprendimento

  • Comprendere il modello PaLM e le sue caratteristiche.
  • Informarsi sulle impostazioni del modello PaLM.
  • Implementare un progetto Python che genera un riassunto bullet di un podcast audio.

Questo articolo è stato pubblicato come parte del Data Science Blogathon.

Panoramica di PaLM 2

PALM 2 è un enorme modello NN con 540 miliardi di parametri, scalato utilizzando il metodo Pathways per raggiungere prestazioni straordinarie. PaLM 540B supera lo stato attuale dell’arte in una varietà di compiti di ragionamento a più passaggi e supera le prestazioni medie umane sul benchmark BIG-bench appena rilasciato, ottenendo risultati straordinari. Apprende la relazione tra parole e frasi e può utilizzare questa conoscenza per svolgere diverse attività.

Architettura Pathways AI

Pathways è un nuovo modo di pensare all’architettura dell’Intelligenza Artificiale che affronta molte delle debolezze dei sistemi esistenti. I modelli di apprendimento automatico tendono a specializzarsi eccessivamente in singoli compiti quando potrebbero eccellere in molti. Di seguito sono riportati i concetti fondamentali di questa architettura:

  • Multiplo Task: L’idea di base è invece di addestrare migliaia di modelli diversi per svolgere compiti diversi da zero.Altre LLMs rispetto alle altre LLMs.
  • Multimodale: Pathways potrebbe abilitare simultaneamente modelli multimodali che comprendono visione, udito e comprensione del linguaggio. Quindi, che il modello stia processando la parola “leopardo”, il suono di qualcuno che pronuncia “leopardo” o un video di un leopardo che corre, la stessa risposta viene attivata internamente: il concetto di un leopardo. Il risultato è un modello più approfondito e meno incline a errori e pregiudizi.
  • Scarsità ed Efficienza: Potremmo creare un singolo modello che sia “sparso” attivo, il che significa che solo alcuni canali all’interno della rete vengono attivati solo quando necessario. In realtà, il modello apprende dinamicamente quali parti della rete sono valide per compiti specifici: sa come instradare i compiti attraverso le sezioni più critiche del modello. Poiché non coinvolgiamo la rete completa per ogni attività, questo tipo di architettura non solo ha una capacità straordinaria di apprendere un’ampia gamma di compiti, ma è anche più veloce e molto più efficiente dal punto di vista energetico.

Caratteristiche di PaLM 2

Palm 2 è stato addestrato in oltre 100 lingue ed è in grado di superare gli esami di competenza linguistica a livello di esperto. È il secondo modello più grande in termini di parametri; il primo è GPT-4 con 1 trilione di parametri. Ha un addestramento altamente efficiente su 6.000 chip (TPU v4) su 2 pod o cluster. PaLM utilizza un’architettura di modello Transformer standard solo per il decodificatore.

Attivazioni SwiGLU

Viene utilizzato nei livelli intermedi di MLP, che hanno una migliore qualità delle prestazioni rispetto a ReLU, GeLU o Swish. Le attivazioni SwiGLU sono più efficienti delle funzioni di attivazione tradizionali e contribuiscono anche a migliorare la stabilità degli LLM. SwiGLU utilizza un meccanismo di gating, che gli consente di attivare selettivamente i neuroni in base all’input che riceve. Ciò può contribuire a ridurre l’overfitting e migliorare la generalizzazione. La funzione di attivazione SwiGLU è una funzione lineare a tratti definita come segue:

SwiGLU(x) = max(x, 0) + min(α(x – ReLU(x)), 0)

dove x è l’input per la funzione, ReLU(x) è la funzione dell’unità lineare rettificata (cioè max(x, 0)), e α è un parametro regolabile che controlla la forma della parte negativa della funzione.

La funzione di attivazione SwiGLU è progettata per affrontare alcune delle limitazioni della funzione ReLU, che possono portare a neuroni “morti” che non contribuiscono all’output di una rete neurale. Introducendo un’inclinazione negativa lineare a tratti, la funzione SwiGLU può contribuire a prevenire questo problema e migliorare le prestazioni delle reti neurali.

Differenza tra ReLU e SwiGLU - Fonte

Formazioni parallele

Una formulazione parallela viene utilizzata in ogni blocco di transformer anziché quella serializzata utilizzata nella formulazione standard. La formulazione parallela consente un addestramento più rapido del 15% su scale più ampie. La formulazione parallela è un nuovo modo di addestrare gli LLM che consente di addestrarli molto più velocemente rispetto agli LLM tradizionali. Gli LLM tradizionali vengono addestrati su una singola GPU, che può richiedere molto tempo. La formulazione parallela consentirà agli LLM di essere addestrati contemporaneamente su più GPU, accelerando notevolmente il processo di addestramento. Ecco un esempio di come funziona la formulazione parallela. Immaginiamo di avere un LLM addestrato su una singola GPU. L’LLM ha un vocabolario di 10.000 parole e viene rappresentato da un vettore di 100 dimensioni per ogni parola. L’LLM viene addestrato su un set di dati di 1 milione di frasi.

Dobbiamo iterare sul set di dati e aggiornare i parametri dell’LLM per ogni frase per addestrarlo. Questo processo può richiedere molto tempo, soprattutto se il set di dati è ampio. Con la formulazione parallela, possiamo preparare l’LLM su più GPU contemporaneamente. Possiamo dividere il set di dati in 1000 batch e ogni batch può essere addestrato su una GPU separata. Questo velocizza notevolmente il processo di addestramento perché possiamo preparare contemporaneamente l’LLM su 1000 batch.

Attenzione multi-query

La chiave/valore viene condivisa per ogni “head” anziché solo uno, il che comporta risparmi di costo durante la decodifica autoregressiva. Possiamo dire che nell’attenzione multi-head, l’intero calcolo dell’attenzione viene replicato h volte, mentre nell’attenzione multi-query, ogni “head” del valore di query Q ha la stessa trasformazione K e V applicata ad esso. La quantità di calcolo eseguita da MQA incrementale è simile a quella di MHA incrementale. La differenza critica è la quantità ridotta di dati letti/scritti dalla memoria con MQA.

RoPE Embeddings

Rotary Positional Embedding è un nuovo tipo di embedding posizionale che unisce approcci assoluti e relativi e produce risultati superiori. Incorpora le posizioni “relative” di due token anziché posizioni assolute durante il calcolo dell’attenzione self. I transformer utilizzano meccanismi di auto-attenzione o attenzione incrociata che sono agnostici all’ordine dei token. Ciò significa che il modello percepirà i token di input come un insieme anziché una sequenza. Pertanto, perde informazioni cruciali sulle relazioni tra i token in base alle loro posizioni nella sequenza. Per mitigare questo problema, gli encoding posizionali incorporano informazioni sulle posizioni dei token direttamente nel modello.

Questo tipo di embedding di posizione utilizza una matrice di rotazione per includere una dipendenza esplicita delle posizioni relative nella formulazione dell’auto-attenzione. Gli embedding rotativi sono essenziali per il processing del linguaggio naturale perché consentono ai modelli di comprendere meglio il contesto in cui vengono utilizzate le parole. Quando un modello ha una migliore idea della posizione dei token di input, può produrre previsioni più accurate. Ad esempio, un modello di linguaggio che utilizza RoPE potrebbe comprendere meglio che “Amo la pizza” e “La pizza è ciò che amo” hanno significati diversi a causa della posizione delle parole. Un modello può effettuare previsioni più sfumate con una migliore comprensione del posizionamento relativo.

Nessuna Preferenza

Non sono state applicate preferenze nelle norme densa e di strato, che hanno aumentato la stabilità durante l’addestramento per i modelli di grandi dimensioni. Ciò aumenta l’efficienza e la stabilità dell’addestramento di LLM e consente loro di ridurre i parametri ridondanti e aumentare l’utilizzo dello spazio e la scalabilità.

Varianti del Modello

Palm fornisce molte varianti diverse del modello di diverse dimensioni. Hanno denominato vari modelli basati sui nomi degli animali e sulle loro dimensioni.

  • Gecko è il modello più piccolo e veloce che può funzionare su dispositivi mobili anche quando offline.
  • Otter – Più grande di Gecko e in grado di svolgere compiti complessi
  • Unicorn è più grande di otter e può essere utilizzato per chat, testo, ecc.
  • Bison è il modello più grande e stabile di Palm ed è ampiamente utilizzato per chat testuali.

Impostazioni dei Parametri del Modello

I parametri del modello ci aiutano a modificare e generare diverse risposte per la nostra richiesta. Cerchiamo di capirli uno per uno:

Temperatura

Questo influenza la casualità delle risposte del modello. Una temperatura elevata vicino a 1 produce un’uscita più varia e risposte creative anziché un insieme di definizioni secche. Supponiamo di voler capire il significato di una parola particolare e il suo utilizzo, in questo caso, non è necessaria una risposta creativa ma un significato di dizionario, quindi possiamo mantenere una temperatura vicino a 0 (risposte deterministiche). Se vogliamo scrivere un articolo o una storia innovativa, possiamo mantenere la temperatura vicino a 1.

Esempio di Temperatura con valore 0.5
Esempio di Temperatura con valore 1

Limite dei Token

Un token si riferisce a un blocco di testo e determina quanto testo un modello può elaborare. Un limite di token più grande consente al modello di acquisire un’ampia gamma di informazioni contemporaneamente, mentre un limite più piccolo limita la quantità di token che può gestire. Esempio: Palm 2 può ora gestire contemporaneamente 8.000 token come input.

Confronto del limite dei token per diversi modelli LLM

Top – K

Nella generazione di testo, il modello considera molte possibili parole da aggiungere alla parola corrente. La selezione top-k limita le scelte delle parole successive alle k parole più probabili. Un valore di k inferiore rende il contenuto più prevedibile, mentre un numero più alto lo rende più diversificato.

Esempio di come funzionano i parametri top-k e temperatura di LLM

Top – p

È la soglia di probabilità per considerare le parole e controlla la diversità dell’output. Il modello continua a considerare la parola successiva tra le migliori k scelte fino a quando la probabilità totale raggiunge il valore top-p. Ciò significa che, invece di concentrarsi solo sulle poche parole più probabili, il modello potrebbe accettare parole meno probabili se raggiungono insieme la probabilità top-p, ottenendo un output più diversificato. Una probabilità più alta produce una combinazione più diversificata.

Output Massimi

Questo indica il numero di output generati per una particolare input, ovvero possiamo specificare se vogliamo vedere più di un output della risposta del modello e considerare di conseguenza quale scegliere. Di seguito nell’immagine, possiamo vedere l’esempio in cui otteniamo 2 risposte per lo stesso input quando impostiamo Max Output a 2.

Esempio di risposta LLM quando l'output massimo è impostato su 2

Implementazione Python dell’Highlighter Testo Podcast

Flusso di un'implementazione Python

1: Scarica l’audio del Podcast

Puoi scaricare qualsiasi audio del podcast usando questo link incollando l’url del nostro podcast. Qui, utilizziamo l’url del podcast Indian Express url.

2: Carica e Installa le Librerie

!pip install openai-whisperimport whisper

3: Trascrivi l’Audio in Testo

Inizialmente, abbiamo utilizzato la variante “tiny” del modello, e poi abbiamo utilizzato la variante “base”, che è più estesa e fornisce migliori risultati per quanto riguarda l’ortografia delle parole e la grammatica. Facciamo la trascrizione di due podcast audio.

Nota: Dopo aver scaricato l’audio mp3 del podcast dal link menzionato sopra, caricarlo nei file dell’ambiente di colab e incollare il percorso del file audio nella funzione transcribe come mostrato.

# Carica il modello Whisperwhisper_model = whisper.load_model("base")# Trascrivi l'audiodef transcribe(file_path: str) -> str:    # `fp16` è impostato di default su `True`, che dice al modello di cercare di eseguire sull'GPU.    # lo eseguiremo sulla CPU a scopi di dimostrazione locale impostandolo su `False`.    trascrizione = whisper_model.transcribe(file_path, fp16=False)    return trascrizione['text']  transcript = transcribe('/content/CATCH-UP-2023-10th-October-v1.mp3')print(transcript)

Output

#OUTPUTQuesto è il riassunto di 3 notizie per Indian Express, e io sono Flora Swine. È il 10 ottobre, ed ecco i titoli. Quattro giorni dopo l'attacco di Hamas, l'esercito israeliano ha dichiarato oggi di aver riconquistato il controllo del confine di Gaza. Ha avvertito la popolazione di fuggire in Egitto, in un cupo ricordo della rappresaglia prevista. L'esercito israeliano ha anche riferito di aver scoperto i corpi di 1500 miliziani di Hamas all'interno del territorio israeliano. Il conflitto in corso ha causato circa 1600 morti, con 900 vittime in Israele e quasi 700 a Gaza. Nel frattempo, il primo ministro Narendra Modi ha deciso di estradare e ha dichiarato di aver parlato con il primo ministro israeliano Benjamin Netanyahu, assicurandogli che l'India è fermamente al fianco di Israele ed è difficile da sorvegliare. Ha anche affermato che l'India condanna fermamente e inequivocabilmente il terrorismo in tutte le sue forme e manifestazioni. Il capo della Corte Suprema dell'India, D.Y. Chandrachud, ha dichiarato oggi che il ruolo della Corte Suprema non è quello di microgestire le questioni che sorgono in tutto il paese. Ha sottolineato che le questioni locali sono meglio lasciate alla giurisdizione del rispettivo Tribunale Superiore. Presiedeva una terna di giudici. Il CGI ha fatto queste osservazioni durante l'udienza di una questione relativa agli elefanti in cattività e ha detto, Tribunale, dobbiamo avere una comprensione funzionale più ampia come corte. Quale è il ruolo della Corte Suprema nel paese? Non occuparsi di microgestione delle questioni che sorgono in tutto il paese. Due miliziani legati all'organizzazione terroristica Lashkare Thaibarvak sono stati uccisi in uno scontro a fuoco con le forze di sicurezza nel distretto sovrano di Jaman Kashmir oggi. Lo scontro è divampato quando le forze di sicurezza hanno lanciato un'operazione anti-militanza nell'area di Al-Sipura, agendo su informazioni riguardanti la presenza di miliziani. I miliziani sono stati identificati come Morifat Magbul e Jazim Farok. Chintanubhadhai è stato condannato all'ergastolo oggi per il suo coinvolgimento nell'istigazione e nel complotto per assassinare la sua ex moglie, Hema Obadhai, nel 2015. Il Tribunale delle Sessioni ha anche inflitto condanne all'ergastolo a tre co-imputati, ossia Vijay Rajvahar, Pradeep Rajvahar e Shivkuma Rajvahar. Sabato la pubblica accusa ha chiesto la pena di morte per tutte e quattro le persone coinvolte. La Coppa del Mondo Per Uomini ICC 2023 ha due partite in programma per oggi. Il Pakistan affronta il Bangladesh a Shilankain Hagradwadwal, mentre l'Inghilterra si scontra con il Bangladesh in Haramshalla. In altre notizie sulla Coppa del Mondo, la Nuova Zelanda batte i Paesi Bassi e vince la loro seconda partita consecutiva nella competizione. In precedenza avevano trionfato sulla campionessa in carica Inghilterra nell'apertura del torneo, posizionandosi al primo posto della classifica. Queste erano tre cose da Indian Express.

4- Generare un riepilogo usando Maker Suite

Ora utilizziamo questo riassunto del podcast come input di addestramento, prepariamo la nostra risposta di esempio per il modello in modo indipendente e utilizziamo l’altro come input di test. Andiamo su questo sito e generiamo un riassunto a punti.

Maker Suite per generare un riassunto a punti del testo

Regoliamo le impostazioni dei parametri del modello per generare i riassunti.

5: Generare codice usando Maker Suite

Generare il codice utilizzando la chiave API di Palm API. Abbiamo generato la nostra chiave API dal sito.

"""Nella riga di comando, è sufficiente eseguire una volta l'installazione del pacchetto tramite pip:$ pip install google-generativeai"""import google.generativeai as palmpalm.configure(api_key="API_KEY")defaults = {  'model': 'models/text-bison-001',  'temperature': 1,  'candidate_count': 1,  'top_k': 40,  'top_p': 0.95,  'max_output_tokens': 1024,  'stop_sequences': [],  'safety_settings': [{"category":"HARM_CATEGORY_DEROGATORY","threshold":4},{"category":"HARM_CATEGORY_TOXICITY","threshold":4},{"category":"HARM_CATEGORY_VIOLENCE","threshold":4},{"category":"HARM_CATEGORY_SEXUAL","threshold":4},{"category":"HARM_CATEGORY_MEDICAL","threshold":4},{"category":"HARM_CATEGORY_DANGEROUS","threshold":4}],}Sentence = "Questo è il riassunto su tre cose dell'Indian Express e sono Flora Swain. Oggi è il 10 ottobre e ecco i titoli. Quattro giorni dopo l'attacco di Hamas, l'esercito israeliano ha dichiarato di aver riconquistato il controllo del confine di Gaza. Ha avvertito la popolazione di fuggire verso l'Egitto vicino finché possono, in una tetra previsione della rappresaglia che si prevede seguirà. L'esercito israeliano ha anche riferito della scoperta dei corpi di 1500 militanti di Hamas all'interno del territorio israeliano. Il conflitto in corso ha causato circa 1600 vittime, con 900 vittime in Israele e quasi 700 a Gaza. Nel frattempo, il Primo Ministro Narendra Modi ha parlato oggi affermando di aver parlato con il Primo Ministro israeliano Benjamin Netanyahu, assicurandogli che l'India sostiene fermamente Israele in questo difficile momento. Ha inoltre affermato che l'India condanna fermamente e inequivocabilmente il terrorismo in tutte le sue forme e manifestazioni. Il Presidente della Corte Suprema dell'India, D.Y. Chandrachud, ha dichiarato oggi che il ruolo della Corte Suprema non è quello di gestire in modo minuzioso le questioni che sorgono in tutto il paese. Ha sottolineato che le questioni locali sono meglio lasciate alla giurisdizione dei rispettivi tribunali superiori. Presiedendo una bench di tre giudici, il CGI ha fatto queste osservazioni durante l'udienza di una questione relativa agli elefanti in cattività e ha affermato: "Dobbiamo avere una comprensione funzionale più ampia come Corte. Quale è il ruolo della Corte Suprema nella nazione? Non occuparsi della gestione minuziosa delle questioni che sorgono in tutto il paese". Due militanti legati all'organizzazione terroristica Lashkaretayabah sono stati uccisi in uno scontro a fuoco con le forze di sicurezza nel distretto di Soapian di Jammu e Kashmir oggi. Lo scontro è scoppiato dopo che le forze di sicurezza hanno lanciato un'operazione anti-militanza nella zona di Alsepura, agendo su informazioni relative alla presenza dei militanti. I militanti deceduti sono stati identificati come Mureffat Maghbul e Jasm Farukh. Chintanubhadi Haya è stato condannato oggi all'ergastolo per il suo coinvolgimento in scommesse e complotti per uccidere la sua ex moglie, Hema Upadhyay, nel 2015. Il Tribunale di sessione ha anche inflitto condanne all'ergastolo a tre co-imputati, ovvero Vijay Rajpur, Pradeep Rajpur e Shivkumar Rajpur. Sabato, l'accusa aveva chiesto la pena di morte per tutti e quattro gli individui. La Coppa del Mondo maschile ICC 2023 ha due partite in programma per oggi. Il Pakistan affronta lo Sri Lanka a Hyderabad, mentre il Bangladesh affronta l'Inghilterra a Haramshalla. In altre notizie sulla Coppa del Mondo, la Nuova Zelanda ha battuto i Paesi Bassi per vincere la loro seconda partita di fila nel torneo. In precedenza avevano trionfato sugli inglesi, campioni in carica, nella partita di apertura, posizionandosi al primo posto nella classifica dei punti. Questo era il Riepilogo su Tre Cose dell'Indian Express."prompt = f"""Trasforma una frase in un elenco puntato.Frase:  Questo è il riassunto su tre cose dell'Indian Express e sono Flora Swain. Oggi è l'11 ottobre e ecco i titoli. Giorni dopo l'attacco di Hamas, l'esercito israeliano ha dichiarato di effettuare attacchi in Libano dopo che un missile guidato anticarro è stato lanciato dalla nazione confinante verso uno dei suoi posti vicino alla linea blu. Secondo i rapporti, c'è stata una massiccia concentrazione di truppe lungo il confine tra Israele e Gaza, in vista di un'invasione terrestre nei prossimi giorni. Finora più di 2000 persone hanno perso la vita in questa guerra che è iniziata sabato. La Corte Suprema oggi ha preso seriamente atto delle richieste delle autorità di AIIMS che cercano chiarimenti sulla sua ordinanza del 9 ottobre che ha permesso l'aborto di un feto di 26 settimane. La Corte AIM ha citato alcune preoccupazioni recenti e ha chiesto perché le preoccupazioni non siano state comunicate in precedenza al tribunale quando era stato richiesto un parere medico sulla richiesta della donna di ottenere il permesso per la terminazione medica della gravidanza. Una speciale bench di giudici, B.V. Nagaratma e Hema Kohli, ha anche criticato il governo centrale per essersi rivolto alla bench del capo della Corte Suprema dell'India, D.Y. Chandrachud, martedì contro la sua ordinanza. Ad Akhilesh Yadav, presidente del Samajwadi Party, è stata negata l'autorizzazione ad entrare nel JKNR e International Center per offrire un tributo floreale al combattente per la libertà JKNR in occasione del suo anniversario di nascita. I funzionari hanno citato motivi di sicurezza per non permettere l'ingresso all'ex primo ministro di UP nel centro oggi. Dopo che gli è stata negata l'autorizzazione, Akhilesh ha letto l'edificio ed è saltato il muro di confine del centro insieme ad altri dirigenti e lavoratori del Samajwadi Party. È scaturita una lotta sul posto mentre la polizia cercava di impedire loro di entrare nel complesso. K.R.Y.H.A. Amma, il volto dell'adult literacy program del Kerala, è morta all'età di 101 anni nella sua casa ad Alapurha. Nel 2018 è diventata famosa per essere stata la migliore nel programma di alfabetizzazione per adulti Akshana Laksham della missione di alfabetizzazione dello Stato. All'età di 96 anni, K.R.Y.H.A. ha ottenuto 98 su 100 nel test che misurava le capacità di scrittura e matematica. Nel suo messaggio di condoglianze, il CM Pinery Vijayan ha dichiarato che K.R.Y.A. era un orgoglio per il Kerala e un modello individuale. India e Afghanistan si stanno affrontando nella nona partita della Cricket World Cup ICC 2023 allo stadio Orange JT di New Delhi oggi. L'India è considerata la favorita per questa partita dopo aver vinto convincentemente la sua partita di apertura contro l'Australia. D'altra parte, l'Afghanistan ha perso la sua partita di apertura contro il Bangladesh, ma cercherà di migliorare le prestazioni contro l'India. Questo era il Riepilogo su Tre Cose dell'Indian Express.Punti:* L'esercito israeliano ha effettuato attacchi in Libano dopo che un missile guidato anticarro è stato lanciato dalla nazione confinante.* La Corte Suprema ha preso seriamente atto delle richieste delle autorità di AIIMS in merito all'ordinanza sull'aborto di un feto di 26 settimane.* Ad Akhilesh Yadav è stata neg

Output finale

Di seguito è riportato l'output risultante del nostro podcast. La maggior parte dei contenuti è accurata, ad eccezione dell'ortografia e dei nomi di sostantivi propri, come Dharamshala e Lashkar-e-Taiba, ecc.

Output LLM di elenco puntato
  • L'esercito israeliano ha riconquistato il controllo del confine di Gaza e ha avvertito la popolazione di fuggire verso l'Egitto confinante.
  • Il Primo Ministro Narendra Modi ha parlato con il Primo Ministro israeliano Benjamin Netanyahu. L'India condanna fermamente il terrorismo.
  • Il CJI DY Chandrachud ha detto che il ruolo della Corte Suprema non è quello di gestire in modo dettagliato le questioni. Le questioni locali sono meglio lasciate alla Corte d'Appello.
  • Sono stati uccisi 2 militanti legati a Lashkarteayabah in uno scontro con le forze di sicurezza nella regione di J&K.
  • Chintanubhadi Haya è stato condannato all'ergastolo per il suo coinvolgimento in scommesse e cospirazione per l'omicidio della sua ex moglie, Hema Upadhyay, nel 2015.
  • La Coppa del Mondo maschile ICC 2023 ha due partite in programma per oggi.
  • Il Pakistan affronta lo Sri Lanka a Hyderabad, mentre il Bangladesh sta affrontando l'Inghilterra a Hharamshalla.
  • La Nuova Zelanda ha sconfitto gli olandesi per vincere la loro seconda partita nella competizione.

Conclusione

Gli LLM sono strumenti potenti che possono essere combinati con altri strumenti per generare rapidamente prototipi, consentendoci di testare ed esperimentare con vari casi d'uso degli LLM. Poiché gli LLM sono una tecnologia molto nuova, il loro potenziale utilizzo ed implementazione richiede molti esperimenti e prove. Qui strumenti come Maker Suite permettono ai professionisti della scienza dei dati e dell'analisi di tradurre rapidamente le loro idee in codice con un minimo di tempo e sforzo focalizzandosi sul perfezionamento e miglioramento dei dati e degli elementi essenziali.

Punti chiave

  • Abbiamo appreso il concetto di base di PALM 2 API e le sue caratteristiche.
  • Abbiamo anche compreso le diverse impostazioni dei parametri del modello e come ottimizzarle per ottenere un output corretto desiderato.
  • Abbiamo esaminato i vari aspetti dello strumento Google Maker Suite e lo abbiamo utilizzato per generare il nostro codice LLM.
  • Abbiamo utilizzato l'API Whisper e l'API Palm per generare riassunti puntati di podcast pertinenti e precisi.

Domande frequenti

I media mostrati in questo articolo non sono di proprietà di Analytics Vidhya e vengono utilizzati a discrezione dell'autore.