Annunciando nuovi strumenti e capacità per consentire un’innovazione responsabile dell’AI

Rivelando nuovi strumenti e abilità per favorire un'innovazione responsabile dell'IA

La rapida crescita dell’IA generativa porta nuove promettenti innovazioni e, al contempo, solleva nuove sfide. Queste sfide includono alcune che erano comuni prima dell’IA generativa, come bias ed explicabilità, e nuove sfide uniche ai modelli fondamentali (FMs), inclusa l’allucinazione e la tossicità. Presso AWS, ci impegniamo a sviluppare l’IA generativa responsabilmente, adottando un approccio centrato sulle persone che privilegia l’istruzione, la scienza e i nostri clienti, per integrare l’IA responsabile in tutto il ciclo di vita dell’IA.

Nell’ultimo anno, abbiamo introdotto nuove capacità nelle nostre applicazioni e modelli di IA generativa, come la scansione di sicurezza incorporata in Amazon CodeWhisperer, la formazione per rilevare e bloccare contenuti nocivi in Amazon Titan e le protezioni della privacy dei dati in Amazon Bedrock. Il nostro investimento in un’IA generativa sicura, trasparente e responsabile include la collaborazione con la comunità globale e i responsabili delle decisioni, supportando sia i White House Voluntary AI commitments che la AI Safety Summit nel Regno Unito. E continuiamo a lavorare a stretto contatto con i clienti per operazionalizzare l’IA responsabile con strumenti appositamente progettati come Amazon SageMaker Clarify, ML Governance con Amazon SageMaker e altro ancora.

Introduzione di una nuova innovazione responsabile di IA

Alla luce dell’espansione dell’IA generativa verso nuovi settori, organizzazioni e casi d’uso, questa crescita deve essere accompagnata da un investimento continuo nello sviluppo responsabile dei modelli fondamentali. I clienti vogliono che i loro modelli fondamentali siano costruiti con la sicurezza, l’equità e la sicurezza come obiettivo, in modo da poter a loro volta implementare l’IA in modo responsabile. Quest’anno, presso AWS re:Invent, siamo entusiasti di annunciare nuove capacità per promuovere l’innovazione responsabile nell’IA generativa attraverso un’ampia gamma di strumenti integrati, protezioni per i clienti, risorse per migliorare la trasparenza e strumenti per contrastare le disinformazioni. Il nostro obiettivo è fornire ai clienti le informazioni necessarie per valutare i modelli fondamentali in base a importanti considerazioni sull’IA responsabile, come la tossicità e la robustezza, e introdurre dei margini di sicurezza per applicare salvaguardie in base ai casi d’uso dei clienti e alle politiche di IA responsabile. Allo stesso tempo, i nostri clienti desiderano essere meglio informati sulla sicurezza, l’equità, la sicurezza e altre proprietà dei servizi di IA e dei modelli fondamentali, utilizzandoli all’interno della propria organizzazione. Siamo lieti di annunciare ulteriori risorse per aiutare i clienti a comprendere meglio i nostri servizi di IA AWS e offrire la trasparenza che stanno richiedendo.

Implementazione di salvaguardie: Margini di sicurezza per Amazon Bedrock

La sicurezza è una priorità quando si tratta di introdurre l’IA generativa su larga scala. Le organizzazioni vogliono promuovere interazioni sicure tra i loro clienti e le applicazioni di IA generativa che evitino l’utilizzo di linguaggio nocivo o offensivo e si conformino alle politiche aziendali. Il modo più semplice per farlo è mettere in atto delle salvaguardie consistenti in tutta l’organizzazione in modo che tutti possano innovare in sicurezza. Ieri abbiamo annunciato l’anteprima di Margini di sicurezza per Amazon Bedrock, una nuova funzionalità che semplifica l’attuazione di salvaguardie specifiche dell’applicazione in base ai casi d’uso dei clienti e alle politiche di IA responsabile.

Le trastralle conducono alla coerenza nelle risposte di FM su Amazon Bedrock al contenuto indesiderabile e dannoso all’interno delle applicazioni. I clienti possono applicare i trastralle a grandi modelli di linguaggio su Amazon Bedrock così come a modelli ottimizzati e in combinazione con Agenti per Amazon Bedrock. I trastralle ti permettono di specificare gli argomenti da evitare, e il servizio rileva e previene automaticamente le query e le risposte che rientrano nelle categorie restrittive. I clienti possono anche configurare le soglie di filtro del contenuto in diverse categorie, tra cui discorsi d’odio, insulti, linguaggio sessualizzato e violenza, per filtrare il contenuto dannoso al livello desiderato. Ad esempio, un’applicazione di banca online può essere impostata per evitare di fornire consulenza sugli investimenti e limitare il contenuto inappropriato (come discorsi d’odio, insulti e violenza). In futuro, i clienti potranno anche eliminare le informazioni di identificazione personale (PII) nelle immesse degli utenti e nelle risposte dei FM, impostare filtri di volgarità e fornire un elenco di parole personalizzate da bloccare nelle interazioni tra utenti e FM, migliorando la conformità e proteggendo ulteriormente gli utenti. Con i trastralle, puoi innovare più rapidamente con l’IA generativa mantenendo le protezioni e le salvaguardie coerenti con le politiche aziendali.

Identificare il miglior FM per un caso d’uso specifico: Valutazione del modello in Amazon Bedrock

Oggi, le organizzazioni hanno un’ampia gamma di opzioni di FM per alimentare le loro applicazioni di IA generativa. Per trovare il giusto equilibrio tra precisione e performance per il loro caso d’uso, le organizzazioni devono confrontare in modo efficiente i modelli e trovare la migliore opzione in base a metriche chiave di IA responsabile e qualità che sono importanti per loro. Per valutare i modelli, le organizzazioni devono prima trascorrere giorni per l’identificazione dei punti di riferimento, l’installazione degli strumenti di valutazione e l’esecuzione delle valutazioni, tutto ciò richiede una profonda competenza nella scienza dei dati. Inoltre, questi test non sono utili per valutare criteri soggettivi (ad esempio, voce del marchio, pertinenza e stile) che richiedono giudizio attraverso flussi di lavoro tediosi, intensivi in termini di tempo e basati sulla revisione umana. Il tempo, la competenza e le risorse richieste per queste valutazioni, per ogni nuovo caso d’uso, rendono difficile per le organizzazioni valutare i modelli rispetto alle dimensioni di IA responsabile e fare una scelta informata su quale modello fornirà l’esperienza più accurata e sicura per i loro clienti.

Ora disponibile in anteprima, Valutazione del modello su Amazon Bedrock aiuta i clienti a valutare, confrontare e selezionare i migliori FM per il loro caso d’uso specifico in base a metriche personalizzate, come precisione e sicurezza, utilizzando valutazioni automatiche o umane. Nella console di Amazon Bedrock, i clienti scelgono i FM che desiderano confrontare per un determinato compito, come domande e risposte o riassunto del contenuto. Per valutazioni automatiche, i clienti selezionano criteri di valutazione predefiniti (ad esempio, precisione, robustezza e tossicità) e caricano il proprio set di dati di test o selezionano tra set di dati predefiniti disponibili pubblicamente. Per criteri soggettivi o contenuti sfumati che richiedono giudizio, i clienti possono facilmente impostare flussi di lavoro di valutazione basati sull’umanità con pochi clic. Questi flussi di lavoro sfruttano il team di lavoro interno di un cliente o utilizzano una forza lavoro gestita da AWS per valutare le risposte del modello. Durante le valutazioni basate sull’umanità, i clienti definiscono metriche specifiche del caso d’uso (ad esempio, pertinenza, stile e voce del marchio). Una volta completato il processo di configurazione, Amazon Bedrock esegue le valutazioni e genera un report, in modo che i clienti possano comprendere facilmente come si è comportato il modello in base a criteri chiave di sicurezza e precisione e selezionare il miglior modello per il loro caso d’uso.

Questa capacità di valutare i modelli non è limitata ad Amazon Bedrock, i clienti possono utilizzare anche la valutazione del modello in Amazon SageMaker Clarify per valutare, confrontare e selezionare facilmente la migliore opzione di FM in base a metriche chiave di qualità e responsabilità come precisione, robustezza e tossicità – su tutti i FM.

Combattere la disinformazione: Watermarking in Amazon Titan

Oggi abbiamo annunciato Amazon Titan Image Generator in anteprima, che permette ai clienti di produrre e migliorare rapidamente immagini di alta qualità su larga scala. Abbiamo considerato l’IA responsabile in ogni fase del processo di sviluppo del modello, incluso la selezione dei dati di addestramento, la creazione di funzionalità di filtraggio per rilevare e rimuovere gli input degli utenti e le uscite del modello inappropriati e migliorando la diversità demografica delle nostre uscite di modello. Tutte le immagini generate da Amazon Titan contengono un watermark invisibile di default, che è progettato per aiutare a ridurre la diffusione della disinformazione fornendo un meccanismo discreto per identificare le immagini generate da IA. AWS è tra i primi fornitori di modelli a rilasciare ampiamente watermark invisibili integrati nelle immagini di output e progettati per essere resistenti alle alterazioni.

Creare fiducia: Sostenere i nostri modelli ed applicazioni con indennizzazione

Costruire la fiducia del cliente è fondamentale per AWS. Siamo stati in un percorso con i nostri clienti fin dalla nostra fondazione e, con la crescita dell’intelligenza artificiale generativa, continuiamo ad impegnarci per costruire insieme tecnologie innovative. Per permettere ai clienti di sfruttare al meglio il potere della nostra intelligenza artificiale generativa, devono sapere di essere protetti. AWS offre una copertura di indennità di copyright per i risultati dei seguenti servizi di intelligenza artificiale generativa di Amazon: Amazon Titan Text Express, Amazon Titan Text Lite, Amazon Titan Embeddings, Amazon Titan Multimodal Embeddings, Amazon CodeWhisperer Professional, AWS HealthScribe, Amazon Lex, e Amazon Personalize. Ciò significa che i clienti che utilizzano i modelli in modo responsabile sono protetti da eventuali reclami di violazione del copyright di terzi derivanti dagli output generati da questi servizi (vedere la sezione 50.10 dei Termini di servizio). Inoltre, la nostra indennità standard per la proprietà intellettuale nell’uso dei servizi protegge i clienti da reclami di violazione della proprietà intellettuale da parte di terzi riguardo ai servizi e ai dati utilizzati per addestrarli. In altre parole, se utilizzi uno dei servizi di intelligenza artificiale generativa di Amazon elencati sopra e qualcuno ti fa causa per violazione della proprietà intellettuale, AWS difenderà quella causa, compresa la copertura di eventuali giudizi o costi di transazione di risarcimento.

Noi sosteniamo i nostri servizi di intelligenza artificiale generativa e lavoriamo costantemente per migliorarli. Con il lancio di nuovi servizi da parte di AWS e l’evoluzione dell’intelligenza artificiale generativa, AWS continuerà a concentrarsi strenuamente nell’acquisire e mantenere la fiducia dei clienti.

Aumentare la trasparenza: Scheda di servizio AI di AWS per Amazon Titan Text

Abbiamo introdotto le Schede di Servizio AI di AWS durante re:Invent 2022 come una risorsa di trasparenza per aiutare i clienti a capire meglio i nostri servizi di intelligenza artificiale di AWS. Le Schede di Servizio AI sono una forma di documentazione responsabile dell’IA che fornisce ai clienti un unico punto di riferimento per trovare informazioni sui casi d’uso previsti, sulle limitazioni, sulle scelte di progettazione responsabile dell’IA, sulle migliori pratiche per il rilascio e l’ottimizzazione delle prestazioni dei nostri servizi di intelligenza artificiale. Fanno parte di un processo di sviluppo completo che intraprendiamo per costruire i nostri servizi in modo responsabile, affrontando temi come equità, comprensibilità, veridicità e robustezza, governance, trasparenza, privacy e sicurezza, sicurezza e controllabilità.

Alla re:Invent di quest’anno annunciamo una nuova Scheda di Servizio AI per Amazon Titan Text per aumentare la trasparenza nei modelli di base. Lanciamo anche quattro nuove Schede di Servizio AI, tra cui: Amazon Comprehend Detect PII, Amazon Transcribe Toxicity Detection, Amazon Rekognition Face Liveness, e AWS HealthScribe. Puoi esplorare ciascuna di queste schede sul sito web di AWS. Man mano che l’intelligenza artificiale generativa continua a crescere ed evolversi, la trasparenza su come la tecnologia viene sviluppata, testata e utilizzata sarà un componente vitale per guadagnare la fiducia delle organizzazioni e dei loro clienti. Presso AWS, ci impegniamo a continuare a fornire risorse di trasparenza come le Schede di Servizio AI alla comunità in generale, e a migliorare e raccogliere feedback sui percorsi da seguire.

Investire nell’intelligenza artificiale responsabile per l’intero ciclo di vita dell’intelligenza artificiale generativa

Siamo entusiasti delle nuove innovazioni annunciate a re:Invent questa settimana che offrono ai nostri clienti più strumenti, risorse e protezioni integrate per costruire e utilizzare in modo sicuro l’IA generativa. Dalla valutazione del modello alla protezione, fino al watermarking, i clienti possono ora introdurre l’IA generativa nella loro organizzazione in modo più rapido, mitigando al contempo il rischio. Nuove protezioni per i clienti, come la copertura dell’indennizzo della proprietà intellettuale e nuove risorse per migliorare la trasparenza, come ulteriori AI Service Cards, sono anche esempi chiave del nostro impegno per costruire fiducia tra le aziende di tecnologia, decisori politici, gruppi comunitari, scienziati e altri. Continuiamo a effettuare investimenti significativi nell’IA responsabile lungo il ciclo di vita di un modello di fondo, per aiutare i nostri clienti a scalare l’IA in modo sicuro, protetto e responsabile.