Stability AI svela StableLM Alpha in giapponese un balzo in avanti nel modello di lingua giapponese.

Stability AI unveils StableLM Alpha, a leap forward in the Japanese language model.

In un significativo passo avanti verso il miglioramento del panorama giapponese dell’IA generativa, Stability AI, l’azienda pionieristica dell’IA generativa dietro Stable Diffusion, ha introdotto il suo primo Modello di Linguaggio (LM) giapponese noto come Japanese StableLM Alpha. Questo lancio monumentale ha attirato l’attenzione in quanto l’azienda sostiene che il suo LM sia il modello pubblicamente disponibile più competente per i parlanti giapponesi. L’affermazione è supportata da una valutazione di riferimento completa rispetto ad altri quattro LM giapponesi.

Questo nuovo Japanese StableLM Alpha, che vanta un’impressionante architettura di 7 miliardi di parametri, è una testimonianza dell’impegno di Stability AI verso il progresso tecnologico. Il modello è uno strumento versatile e performante per varie attività linguistiche. Supera i suoi contemporanei in molteplici categorie, posizionandosi come leader del settore.

La versione commerciale Japanese StableLM Base Alpha 7B è prevista per essere rilasciata sotto la ben nota licenza Apache 2.0. Questo modello specializzato è stato realizzato con attenzione attraverso un’ampia formazione su un enorme set di dati che include 750 miliardi di token di testo in giapponese e inglese, accuratamente selezionati da repository online.

La base di questo successo è anche da attribuire agli sforzi collaborativi. Stability AI ha sfruttato l’esperienza del team giapponese del progetto EleutherAI Polyglot, culminando in set di dati elaborati dalla comunità giapponese di Stability AI. Questo sforzo collettivo è ulteriormente facilitato dall’impiego di una versione estesa del software GPT-NeoX di EleutherAI, pietra angolare del processo di sviluppo di Stability AI.

Un’innovazione parallela, il Japanese StableLM Instruct Alpha 7B, segna un altro importante traguardo. Questo modello è principalmente concepito per scopi di ricerca ed è esclusivamente destinato ad applicazioni di ricerca. Mostra una capacità distintiva di attenersi alle istruzioni dell’utente, raggiunta attraverso un approccio metodico noto come Supervised Fine-tuning (SFT) utilizzando più set di dati aperti.

Questi modelli sono stati validati attraverso rigorose valutazioni utilizzando lo strumento di valutazione dei modelli di linguaggio di EleutherAI. I modelli sono stati sottoposti a esame in vari ambiti, come la classificazione delle frasi, la classificazione delle coppie di frasi, la risposta alle domande e la sintesi delle frasi, emergendo con un impressionante punteggio medio del 54,71%. Stability AI sostiene che questa metrica delle prestazioni posizioni inequivocabilmente il Japanese StableLM Instruct Alpha 7B davanti ai suoi contemporanei, sottolineandone la potenza e la superiorità.

È interessante notare che il lancio del LM giapponese di Stability AI aggiunge un ulteriore livello di interesse a causa del suo tempismo in relazione all’annuncio recente di SoftBank. La scorsa settimana, SoftBank ha rivelato il suo ingresso nel campo dei Large Language Models (LLM) di produzione interna progettati per il mercato giapponese. L’impegno dell’azienda è ulteriormente sottolineato da un cospicuo investimento di circa 20 miliardi di JPY (oltre 140 milioni di dollari) nella sua piattaforma di elaborazione AI generativa, pronta per il debutto entro la fine dell’anno.

Mentre il panorama continua a svilupparsi, diventa un gioco di attesa per stabilire quale Modello di Linguaggio giapponese si affermerà come supremo nel campo dinamico ed in continua evoluzione dell’IA generativa.