Annunciamo nuovi strumenti per aiutare ogni azienda ad abbracciare l’IA generativa

Presentiamo nuovi strumenti per assistere ogni azienda nell'incorporazione dell'IA generativa

Dagli start-up alle grandi aziende, organizzazioni di tutte le dimensioni si stanno avvicinando all’IA generativa. Vogliono sfruttare l’IA generativa e tradurre l’impulso dei beta, dei prototipi e delle dimostrazioni in guadagni di produttività e innovazioni nel mondo reale. Ma cosa serve alle organizzazioni per introdurre l’IA generativa in azienda e renderla concreta? Quando parliamo con i clienti, ci dicono di aver bisogno di sicurezza e privacy, scale e prestazioni con un buon rapporto qualità-prezzo, e soprattutto di tecnologia rilevante per il loro business. Siamo entusiasti di annunciare oggi nuove capacità e servizi per consentire a grandi e piccole organizzazioni di utilizzare l’IA generativa in modi creativi, costruendo nuove applicazioni e migliorando il modo in cui lavorano. Presso AWS, ci concentriamo intensamente nell’aiutare i nostri clienti in pochi modi:

  • Rendere facile la creazione di applicazioni di IA generativa con sicurezza e privacy integrate
  • Focalizzarsi sull’infrastruttura più performante e a basso costo per l’IA generativa, in modo da poter addestrare i propri modelli ed eseguire inferenze su larga scala
  • Fornire applicazioni basate su IA generativa per le aziende, per trasformare il modo in cui le attività vengono svolte
  • Permettere ai dati di differenziarsi e personalizzare i modelli di base (FMs), rendendoli esperti del vostro business, dei vostri dati e della vostra azienda

Per aiutare un’ampia gamma di organizzazioni a costruire esperienze differenziate di IA generativa, AWS ha lavorato a stretto contatto con i nostri clienti, tra cui BBVA, Thomson Reuters, United Airlines, Philips e LexisNexis Legal & Professional. E con le nuove capacità lanciate oggi, ci aspettiamo di ottenere una maggiore produttività, miglior coinvolgimento del cliente e esperienze più personalizzate che trasformeranno il modo in cui le aziende svolgono il lavoro.

Annunciare la disponibilità generale di Amazon Bedrock, il modo più facile per creare applicazioni di IA generativa con sicurezza e privacy integrate

I clienti sono entusiasti e ottimisti sul valore che l’IA generativa può portare all’azienda. Si stanno immergendo nella tecnologia per imparare i passaggi necessari per costruire un sistema di IA generativa in produzione. Nonostante i recenti progressi nell’IA generativa abbiano attirato molta attenzione, molte aziende non hanno potuto partecipare a questa trasformazione. I clienti ci dicono che hanno bisogno di una scelta di modelli, di garanzie di sicurezza e privacy, di un approccio basato sui dati, di modi economici per eseguire i modelli e di funzionalità come l’ingegneria delle istruzioni, generazione aumentata del recupero (RAG), agenti e altro per creare applicazioni personalizzate. Ecco perché il 13 aprile 2023 abbiamo annunciato Amazon Bedrock, il modo più facile per creare e scalare applicazioni di IA generativa con modelli di base. Amazon Bedrock è un servizio completamente gestito che offre una scelta di modelli di base ad alte prestazioni di fornitori leader come AI21 Labs, Anthropic, Cohere, Meta, Stability AI e Amazon, insieme a un’ampia gamma di funzionalità necessarie per creare applicazioni di IA generativa, semplificando lo sviluppo pur mantenendo la privacy e la sicurezza. Inoltre, come parte di una collaborazione strategica recentemente annunciata, tutti i futuri FMs di Anthropic saranno disponibili all’interno di Amazon Bedrock con un accesso anticipato a funzionalità uniche per la personalizzazione e la messa a punto del modello.

Dal mese di aprile, abbiamo visto di persona come le start-up come Coda, Hurone AI e Nexxiot; le grandi aziende come adidas, GoDaddy, Clariant e Broadridge; e i partner come Accenture, BCG, Leidos e Mission Cloud stanno già utilizzando Amazon Bedrock per creare in sicurezza applicazioni di IA generativa in diversi settori. I fornitori di software indipendenti (ISV) come Salesforce si stanno integrando in modo sicuro con Amazon Bedrock per consentire ai loro clienti di alimentare applicazioni di IA generativa. I clienti stanno applicando l’IA generativa a nuovi casi d’uso; ad esempio, Lonely Planet, una rinomata azienda mediale di viaggi, ha collaborato con il nostro Generative AI Innovation Center per introdurre una piattaforma IA scalabile che organizza il contenuto dei libri in pochi minuti per fornire raccomandazioni di viaggio coerenti e altamente accurate, riducendo i costi di generazione dell’itinerario di quasi l’80%. Da allora, abbiamo continuato ad aggiungere nuove funzionalità, come gli agenti per Amazon Bedrock, oltre al supporto per nuovi modelli, come Cohere e gli ultimi modelli di Anthropic, per offrire ai nostri clienti maggiori opzioni e rendere più facile la creazione di applicazioni basate su IA generativa. Gli agenti per Bedrock sono un elemento rivoluzionario, consentendo alle LLM di completare compiti complessi basati sui propri dati e API, in modo privato, sicuro e con configurazione in pochi minuti (senza necessità di addestramento o messa a punto).

Oggi siamo entusiasti di condividere nuovi annunci che rendono più facile portare l’IA generativa nella tua organizzazione:

  • Disponibilità generale di Amazon Bedrock per aiutare ancora più clienti a costruire e scalare applicazioni di IA generative
  • Scelta di modelli ampliata con Llama 2 (disponibile nelle prossime settimane) e Amazon Titan Embeddings offre ai clienti maggiore scelta e flessibilità per trovare il modello giusto per ogni caso d’uso e alimentare RAG per risultati migliori
  • Amazon Bedrock è un servizio idoneo a HIPAA e può essere utilizzato in conformità al GDPR, consentendo a ancora più clienti di beneficiare dell’IA generativa
  • Traffico di elaborazione predefinito per garantire un’esperienza utente coerente anche durante i periodi di traffico intenso

Con la disponibilità generale di Amazon Bedrock, più clienti avranno accesso alle complete capacità di Bedrock. I clienti possono facilmente sperimentare con una varietà di FM principali, personalizzarli privatamente con i propri dati utilizzando tecniche come il fine tuning e RAG, e creare agenti gestiti che eseguono compiti aziendali complessi – dalla prenotazione di viaggi e l’elaborazione di sinistri assicurativi alla creazione di campagne pubblicitarie e gestione inventario – tutto senza scrivere alcun codice. Poiché Amazon Bedrock è serverless, i clienti non devono gestire alcuna infrastruttura e possono integrare e distribuire in modo sicuro le capacità di IA generativa nelle loro applicazioni utilizzando i servizi AWS con cui sono già familiari.

In secondo luogo, la scelta del modello è stata una pietra angolare di ciò che rende Amazon Bedrock un servizio unico e differenziato per i nostri clienti. In questa fase iniziale dell’adozione dell’IA generativa, non esiste un singolo modello che sblocchi tutto il valore dell’IA generativa e i clienti hanno bisogno della possibilità di lavorare con una gamma di modelli ad alta performance. Siamo entusiasti di annunciare la disponibilità generale di Amazon Titan Embeddings e la disponibilità nelle prossime settimane di Llama 2, il modello di linguaggio di nuova generazione di Meta (LLM) – che si aggiunge agli attuali fornitori di modelli AI21 Labs, Anthropic, Cohere, Stability AI e Amazon per espandere ulteriormente la scelta e la flessibilità per i clienti. Amazon Bedrock è il primo servizio di IA generativa completamente gestito che offre Llama 2, il LLM di nuova generazione di Meta, tramite un’API gestita. I modelli Llama 2 presentano significativi miglioramenti rispetto ai modelli Llama originali, incluso l’addestramento su una quantità di dati maggiore del 40% e una lunghezza di contesto più lunga di 4000 token per lavorare con documenti più grandi. Ottimizzati per fornire una risposta rapida su infrastrutture AWS, i modelli Llama 2 disponibili tramite Amazon Bedrock sono ideali per casi d’uso di dialogo. I clienti possono ora costruire applicazioni di IA generativa alimentate dai modelli Llama 2 da 13B e 70B di parametri, senza dover configurare e gestire alcuna infrastruttura.

Amazon Titan FMs è una famiglia di modelli creati e preelaborati da AWS su ampi set di dati, rendendoli capacità potenti e di uso generale costruite per supportare una varietà di casi d’uso. Il primo di questi modelli disponibili generalmente ai clienti, Amazon Titan Embeddings, è un LLM che converte il testo in rappresentazioni numeriche (conosciute come embeddings) per alimentare casi d’uso RAG. Gli FM sono adatti a una vasta gamma di compiti, ma possono solo rispondere a domande basate su apprendimenti dai dati di addestramento e informazioni contestuali in un prompt, limitando la loro efficacia quando le risposte richiedono conoscenze tempestive o dati proprietari. I dati sono la differenza tra un’applicazione di IA generativa generale e una che conosce davvero la tua attività e il tuo cliente. Per integrare le risposte FM con dati aggiuntivi, molte organizzazioni si rivolgono a RAG, una popolare tecnica di personalizzazione del modello in cui un FM si collega a una fonte di conoscenza a cui può fare riferimento per ampliare le sue risposte. Per iniziare con RAG, i clienti hanno prima bisogno di accesso a un modello di embedding per convertire i loro dati in vettori che consentono al FM di comprendere più facilmente il significato semantico e le relazioni tra i dati. La creazione di un modello di embedding richiede enormi quantità di dati, risorse e competenze di AI, rendendo RAG fuori dalla portata di molte organizzazioni. Amazon Titan Embeddings facilita ai clienti l’inizio con RAG per estendere il potere di qualsiasi FM utilizzando i loro dati proprietari. Amazon Titan Embeddings supporta più di 25 lingue e una lunghezza di contesto fino a 8.192 token, rendendolo adatto a lavorare con singole parole, frasi o interi documenti in base al caso d’uso del cliente. Il modello restituisce vettori di output di 1.536 dimensioni, garantendo un alto grado di precisione e ottimizzazione per risultati a bassa latenza ed economici. Con nuovi modelli e capacità, è facile utilizzare i dati della tua organizzazione come un asset strategico per personalizzare i modelli di base e creare esperienze più differenziate.

In primo luogo, i dati che i clienti desiderano utilizzare per la personalizzazione sono di grande valore, quindi è necessario che rimangano sicuri e privati. Con la sicurezza e la privacy integrate fin dall’inizio, i clienti di Amazon Bedrock possono fidarsi che i loro dati rimangano protetti. Nessun dato del cliente viene utilizzato per addestrare i base FMs originali. Tutti i dati sono crittografati sia a riposo che in transito. E puoi aspettarti gli stessi controlli di accesso AWS che hai con qualsiasi altro servizio AWS. Oggi, siamo entusiasti di costruire su questa base e introdurre nuove funzionalità di sicurezza e governance: Amazon Bedrock è ora un servizio idoneo a HIPAA e può essere utilizzato in conformità al GDPR, consentendo a ancora più clienti di beneficiare dell’IA generativa. Le nuove funzionalità di governance includono l’integrazione con Amazon CloudWatch per monitorare le metriche di utilizzo e creare dashboard personalizzate e l’integrazione con AWS CloudTrail per monitorare l’attività dell’API e risolvere i problemi. Queste nuove funzionalità di governance e sicurezza aiutano le organizzazioni a sbloccare il potenziale dell’IA generativa, anche in settori fortemente regolamentati, e garantiscono la protezione dei dati.

Inoltre, certi periodi dell’anno, come le festività, sono cruciali affinché i clienti possano assicurarsi che i loro utenti possano avere un servizio ininterrotto dalle applicazioni alimentate dall’IA generativa. Durante questi periodi, i clienti desiderano garantire che il servizio sia disponibile per tutti i suoi clienti indipendentemente dalla domanda. Amazon Bedrock consente ora ai clienti di riservare la larghezza di banda (in termini di token elaborati al minuto) per mantenere un’esperienza utente coerente anche durante i periodi di traffico intenso.

Insieme, le nuove funzionalità e i modelli che abbiamo annunciato oggi per Amazon Bedrock accelereranno la velocità con cui le aziende possono creare applicazioni più personalizzate e migliorare la produttività dei dipendenti. In sintonia con i nostri continui investimenti nell’infrastruttura di apprendimento automatico, Amazon Bedrock è il posto migliore per i clienti per creare e scalare applicazioni di IA generativa.

Per aiutare i clienti a iniziare rapidamente con queste nuove funzionalità, stiamo aggiungendo un nuovo corso di formazione sull’IA generativa per Amazon Bedrock alla nostra raccolta di corsi di formazione digitali su richiesta. Amazon Bedrock – Primi passi è un corso digitale gratuito a tuo ritmo che introduce gli apprendisti al servizio. Questo corso della durata di 60 minuti fornirà agli sviluppatori e agli utenti tecnici una panoramica dei vantaggi, delle caratteristiche, dei casi d’uso e dei concetti tecnici di Amazon Bedrock.

Annunciata la capacità di personalizzazione di Amazon CodeWhisperer per generare raccomandazioni di codice più pertinenti basate sul codice interno dell’organizzazione

Presso AWS, stiamo creando nuove applicazioni potenti che trasformano il modo in cui i nostri clienti svolgono il proprio lavoro con l’IA generativa. Nel aprile 2023, abbiamo annunciato la disponibilità generale di Amazon CodeWhisperer, un compagno di codifica AI che aiuta gli sviluppatori a creare applicazioni software più velocemente fornendo suggerimenti di codice in 15 lingue, basati su commenti in linguaggio naturale e codice all’interno dell’ambiente di sviluppo integrato (IDE) di uno sviluppatore. CodeWhisperer è stato addestrato su miliardi di righe di codice pubblicamente disponibile per aiutare gli sviluppatori a essere più produttivi in una vasta gamma di compiti. Abbiamo addestrato appositamente CodeWhisperer sul codice Amazon di alta qualità, incluso le API e le best practice di AWS, per aiutare gli sviluppatori ad essere ancora più veloci e precisi nella generazione di codice che interagisce con servizi AWS come Amazon Elastic Compute Cloud (Amazon EC2), Amazon Simple Storage Service (Amazon S3) e AWS Lambda. Clienti come Accenture, Persistent e Bundesliga hanno utilizzato CodeWhisperer per aiutare i propri sviluppatori a essere più produttivi.

Molti clienti desiderano che CodeWhisperer includa le proprie API interne, librerie, best practice e modelli architetturali nelle sue raccomandazioni, in modo da poter accelerare ulteriormente lo sviluppo. Attualmente, i compagni di codifica AI non sono in grado di includere queste API nelle loro raccomandazioni di codice perché solitamente vengono addestrati sul codice pubblicamente disponibile e quindi non sono consapevoli del codice interno di un’azienda. Ad esempio, per creare una funzionalità per un sito web di e-commerce che elenca gli articoli nel carrello, gli sviluppatori devono trovare e comprendere il codice interno esistente, come l’API che fornisce la descrizione degli articoli, in modo da poter visualizzare la descrizione nel carrello. Senza un compagno di codifica in grado di suggerire il codice interno corretto, gli sviluppatori devono dedicare ore a cercare nel proprio codice interno e nella documentazione per completare il lavoro. Anche dopo aver trovato le risorse corrette, devono dedicare ulteriore tempo a rivedere il codice per assicurarsi che segua le best practice dell’azienda.

Oggi siamo entusiasti di annunciare una nuova capacità di personalizzazione di CodeWhisperer di Amazon, che consente a CodeWhisperer di generare suggerimenti ancora migliori rispetto al passato, perché ora può includere le tue API interne, librerie, best practice e modelli architetturali. Questa capacità utilizza le ultime tecniche di personalizzazione di modelli e contesto e sarà disponibile a breve come parte di una nuova offerta enterprise di CodeWhisperer. Con questa capacità, puoi connettere in modo sicuro i tuoi repository privati a CodeWhisperer e, con pochi clic, personalizzare CodeWhisperer per generare raccomandazioni in tempo reale che includono la tua base di codice interna. Ad esempio, con una personalizzazione di CodeWhisperer, uno sviluppatore che lavora in un’azienda di consegna di cibo può chiedere a CodeWhisperer di fornire raccomandazioni che includono codice specifico relativo ai servizi interni dell’azienda, come “Elabora una lista di consegne di cibo non assegnate attorno alla posizione corrente del guidatore”. In precedenza, CodeWhisperer non avrebbe conosciuto le API interne corrette per “consegne di cibo non assegnate” o “posizione corrente del guidatore” perché queste informazioni non sono pubblicamente disponibili. Ora, una volta personalizzato sulla base di codice interna dell’azienda, CodeWhisperer comprende l’intento, determina quali API interne e pubbliche sono più adatte al compito e genera raccomandazioni di codice per lo sviluppatore. La capacità di personalizzazione di CodeWhisperer può risparmiare agli sviluppatori ore passate a cercare e modificare codice scarsamente documentato e aiuta gli sviluppatori nuovi nell’azienda a integrarsi più rapidamente.

Nell’esempio seguente, dopo aver creato una personalizzazione privata, gli sviluppatori di AnyCompany (un’azienda di consegna di cibo) ricevono raccomandazioni di codice di CodeWhisperer che includono le loro API interne e librerie.

Abbiamo condotto uno studio recente con Persistent, un’azienda globale che fornisce servizi e soluzioni di ingegneria digitale e modernizzazione aziendale ai clienti, per misurare i vantaggi di produttività della capacità di personalizzazione di CodeWhisperer. Persistent ha scoperto che gli sviluppatori che utilizzavano la capacità di personalizzazione erano in grado di completare i loro compiti di codifica fino al 28% più velocemente, in media, rispetto agli sviluppatori che utilizzavano il CodeWhisperer standard.

Abbiamo progettato questa capacità di personalizzazione con la privacy e la sicurezza al primo posto. Gli amministratori possono gestire facilmente l’accesso a una personalizzazione privata dalla Console di gestione AWS, in modo che solo sviluppatori specifici abbiano accesso. Gli amministratori possono anche garantire che solo i repository che rispettano i loro standard siano idonei per l’utilizzo in una personalizzazione di CodeWhisperer. L’utilizzo di repository di alta qualità consente a CodeWhisperer di fornire suggerimenti che promuovono migliori pratiche di sicurezza e qualità del codice. Ogni personalizzazione è completamente isolata dagli altri clienti e nessuna delle personalizzazioni costruite con questa nuova capacità verrà utilizzata per addestrare il modello sottostante di CodeWhisperer, proteggendo la preziosa proprietà intellettuale dei clienti.

Annuncio dell’anteprima delle capacità di autore generativi di business intelligence in Amazon QuickSight per aiutare gli analisti di business a creare e personalizzare facilmente visualizzazioni utilizzando comandi in linguaggio naturale

AWS si è impegnata a democratizzare l’accesso alle informazioni per tutti gli utenti dell’organizzazione. Amazon QuickSight, il nostro servizio unificato di business intelligence (BI) creato per il cloud, consente di condividere le informazioni tra tutti gli utenti dell’organizzazione. Con QuickSight, utilizziamo modelli generativi per alimentare Amazon QuickSight Q, che consentono a qualsiasi utente di fare domande sui propri dati utilizzando il linguaggio naturale, senza dover scrivere query SQL o imparare uno strumento BI, dal 2020. Nel luglio 2023, abbiamo annunciato che stiamo ampliando l’innovazione iniziale in QuickSight Q con le nuove capacità di LLM per offrire capacità di autore generativi in QuickSight. Attuali clienti di QuickSight come BMW Group e Traeger Grills sono desiderosi di aumentare ulteriormente la produttività dei loro analisti utilizzando l’esperienza di autore generativo di BI.

Translation:

Oggi, siamo entusiasti di rendere disponibili in anteprima queste capacità LLM con le capacità di creazione di dashboard BI generative per analisti aziendali. Le nuove capacità di creazione di BI generative estendono la query del linguaggio naturale di QuickSight Q al di là delle risposte a domande ben strutturate (come “quali sono i primi 10 prodotti venduti in California?”) per aiutare gli analisti a creare rapidamente visualizzazioni personalizzabili dai frammenti di domande (come “primi 10 prodotti”), chiarire l’intento di una query facendo domande di approfondimento, perfezionare le visualizzazioni e completare calcoli complessi. Gli analisti aziendali devono semplicemente descrivere l’esito desiderato e QuickSight genera visualizzazioni interessanti che possono essere facilmente aggiunte a una dashboard o a un report con un solo clic. QuickSight Q offre anche domande correlate per aiutare gli analisti a chiarire casi ambigui quando più campi di dati corrispondono alla loro query. Una volta ottenuta la visualizzazione iniziale, gli analisti possono aggiungere calcoli complessi, cambiare il tipo di grafico e perfezionare le visualizzazioni utilizzando suggerimenti in linguaggio naturale. Le nuove capacità di creazione di BI generative in QuickSight Q permettono agli analisti aziendali di creare rapidamente visualizzazioni interessanti e ridurre il tempo necessario per fornire le informazioni necessarie a supporto delle decisioni basate sui dati su larga scala.

Creazione di visualizzazioni utilizzando le capacità di BI generative in Amazon QuickSight

Creazione di visualizzazioni utilizzando le capacità di BI generative in Amazon QuickSight

Strumenti e capacità di IA generativa per ogni azienda

Le novità di oggi aprono l’IA generativa a tutti i clienti. Con sicurezza e privacy a livello aziendale, la scelta delle principali funzioni principali, un approccio orientato ai dati e un’infrastruttura ad alte prestazioni ed economicamente vantaggiosa, le organizzazioni affidano ad AWS l’alimentazione delle loro innovazioni con soluzioni di IA generativa a ogni livello dello stack. Abbiamo visto entusiasmanti innovazioni da Bridgewater Associates a Omnicom, da Asurion a Rocket Mortgage, e con queste nuove novità, ci aspettiamo nuovi casi d’uso e applicazioni della tecnologia per aumentare la produttività. Questo è solo l’inizio: a tutti i livelli della tecnologia, stiamo innovando con nuovi servizi e capacità progettati per la tua organizzazione per affrontare alcuni dei tuoi principali sfide e cambiare il modo in cui lavoriamo.

Risorse

Per saperne di più, consulta le seguenti risorse: