ChatGPT diventa più conveniente, aggiunge nuove funzionalità.

ChatGPT diventa più conveniente e aggiunge nuove funzionalità.

Nel campo in rapida evoluzione dell’AI generativa, OpenAI sta ancora una volta facendo parlare di sé aggiornando i suoi modelli di generazione di testo ChatGPT, GPT-3.5 e GPT-4. Allo stesso tempo, riducono i prezzi, segnalando il loro impegno nel fornire tecnologie all’avanguardia a tariffe accessibili. Questi progressi sono destinati a rivoluzionare il modo in cui i programmatori interagiscono con i modelli AI, aprendo nuove possibilità per applicazioni in diversi settori.

Leggi anche:

Chiamata di funzione: l’ultima meraviglia di generazione di testo di OpenAI

OpenAI ha recentemente presentato le ultime versioni dei suoi famosi modelli di generazione di testo, ChatGPT, GPT-3.5-turbo e GPT-4. Un’aggiunta notevole è l’introduzione delle chiamate di funzione, che consente ai programmatori di descrivere le funzioni di programmazione a questi modelli. A loro volta, i modelli generano il codice necessario per eseguire tali funzioni. La chiamata di funzione apre la strada alla creazione di chatbot altamente reattivi, consentendo loro di utilizzare strumenti esterni, convertire il linguaggio naturale in query al database ed estrarre dati strutturati dal testo.

Leggi anche: DIDACT di Google AI trasforma per sempre lo sviluppo del software

Finestra di contesto migliorata per una migliore performance del modello

Riconoscendo l’importanza del contesto nella generazione di testo coerente e pertinente, OpenAI sta introducendo una finestra di contesto espansa per GPT-3.5-turbo. La finestra di contesto si riferisce alla quantità di testo che il modello considera prima di generare altro testo. Attualmente, il numero massimo di caratteri in una singola risposta su ChatGPT è 4.000. Con quattro volte la lunghezza del contesto della versione base (16.000 token), il nuovo GPT-3.5-turbo mostra una performance significativamente migliorata. Questa espansione minimizza il rischio che il modello “dimentichi” conversazioni recenti, con conseguente risposte più mirate e precise.

Leggi anche: OpenAI affronta una denuncia per diffamazione poiché ChatGPT genera false accuse contro un presentatore radiofonico

Aggiornamenti sui prezzi: rendere l’AI accessibile ai programmatori

OpenAI comprende l’importanza dell’accessibilità quando si tratta di adozione di tecnologie AI. In una mossa positiva per i programmatori, hanno ridotto il prezzo di GPT-3.5-turbo del 25%. I programmatori ora possono beneficiare di questo potente modello di generazione di testo a un costo di $0,0015 per 1.000 token di input e $0,002 per 1.000 token di output. Questo aggiustamento dei prezzi si traduce in circa 700 pagine per dollaro, rendendo ChatGPT un’opzione attraente per i programmatori che cercano soluzioni a basso costo.

Leggi anche: OpenAI sta lanciando plugin ChatGPT per tutti gli utenti Plus | Scopri come abilitarli

Costi più bassi per l’embedding di testo e lo sviluppo continuo del modello

OpenAI non si concentra solo sulla generazione di testo, ma mira anche a migliorare i modelli di embedding di testo che misurano la correlazione tra stringhe di testo. Per incoraggiare una più ampia adozione, OpenAI ha ridotto il prezzo di text-embedding-ada-002 di un significativo 75%. Ora al prezzo di $0,0001 per 1.000 token, questa riduzione è resa possibile attraverso un’efficienza maggiore nei sistemi di OpenAI.

La nostra opinione

Le ultime innovazioni di OpenAI nelle funzionalità di testo generativo e nei prezzi ridotti sono pronte a ridefinire il panorama delle applicazioni basate su AI. Con la chiamata di funzione e una finestra di contesto espansa, i programmatori possono sbloccare nuovi livelli di interattività e precisione nei loro modelli AI. L’impegno di OpenAI per l’accessibilità e il miglioramento continuo conferma la sua posizione di leader nel settore dell’AI. Con OpenAI che continua ad evolversi e raffinare le sue offerte, il futuro riserva emozionanti possibilità per soluzioni alimentate da AI.