Google avverte i dipendenti sull’uso dei chatbot, ecco il perché

Google avvisa i dipendenti sull'uso dei chatbot.

Alphabet Inc., l’azienda madre di Google, sta avvertendo i suoi dipendenti sull’uso di chatbot, inclusi ChatGPT e la sua creazione, Bard. Questo avvertimento arriva mentre l’azienda espande il programma dei suoi chatbot a livello globale. Approfondiamo i dettagli di questo sviluppo e comprendiamo le preoccupazioni sottostanti.

Leggi anche: Samsung vieta ai dipendenti di utilizzare l’IA generativa a causa di preoccupazioni sulla sicurezza

Protezione delle informazioni riservate

Secondo fonti vicine alla questione, Alphabet ha istruito il suo personale a evitare di inserire materiale confidenziale nei chatbot di intelligenza artificiale, inclusa Bard. Questa direttiva si allinea con la politica di lunga data dell’azienda sulla protezione delle informazioni. Sebbene i chatbot, come Bard e ChatGPT, siano progettati per interagire con gli utenti e fornire risposte, esiste un potenziale rischio di perdita di dati poiché i modelli di intelligenza artificiale possono riprodurre i dati di addestramento assorbiti.

Leggi anche: L’IA sta rubando i tuoi dati – Dicono gli esperti

Cautela per ingegneri e programmatori

Oltre a sconsigliare l’inserimento di informazioni confidenziali, Alphabet ha avvertito i suoi ingegneri di evitare di utilizzare direttamente il codice informatico dei chatbot. Anche se Bard può offrire suggerimenti, è importante che i programmatori agiscano con cautela. Google mira a mantenere la trasparenza riconoscendo i limiti della propria tecnologia e garantendo che non causi conseguenze indesiderate.

Leggi anche: Apple segue il suo rivale Samsung, vieta ChatGPT a causa di preoccupazioni sulla privacy

Un panorama competitivo e implicazioni commerciali

La preoccupazione di Google per l’uso dei chatbot deriva dalla sua concorrenza con ChatGPT, supportata da OpenAI e Microsoft Corp. Le sfide sono alte, con miliardi di dollari di investimenti, potenziali entrate pubblicitarie e entrate di cloud che dipendono dal successo di questi programmi di intelligenza artificiale. Le precauzioni di Google sono una tendenza diffusa nel settore, con altre aziende come Samsung, Amazon.com e Deutsche Bank che implementano anche linee guida per i chatbot di intelligenza artificiale.

Leggi anche: Microsoft e OpenAI si scontrano sull’integrazione dell’IA

Utilizzo degli strumenti di intelligenza artificiale da parte dei dipendenti e standard di sicurezza

Un sondaggio tra professionisti delle principali aziende statunitensi ha rivelato che circa il 43% dei rispondenti utilizza strumenti di intelligenza artificiale come ChatGPT, spesso senza informare i propri superiori. Per mitigare i rischi potenziali, aziende di tutto il mondo, inclusa Apple (non confermata), hanno adottato standard di sicurezza per avvertire i dipendenti sull’utilizzo di programmi di chat pubblicamente disponibili.

Preoccupazioni sulla privacy e dialogo regolamentare

Google ha intrapreso discussioni dettagliate con la Data Protection Commission dell’Irlanda per affrontare le preoccupazioni legate alla privacy e conformarsi ai requisiti normativi. Un recente rapporto Politico ha dichiarato che il lancio di Bard nell’Unione Europea è stato rinviato in attesa di informazioni aggiuntive sulle sue implicazioni sulla privacy. L’avviso sulla privacy aggiornato di Google consiglia agli utenti di non includere informazioni confidenziali o sensibili nelle loro conversazioni con Bard.

Leggi anche: L’European Data Protection Board forma un gruppo di lavoro sulla privacy di ChatGPT

Mitigare i rischi con soluzioni innovative

Le aziende stanno sviluppando attivamente soluzioni software per affrontare queste preoccupazioni. Ad esempio, Cloudflare, un importante fornitore di servizi di sicurezza informatica e cloud, consente alle aziende di etichettare e limitare la trasmissione di determinati dati in modo esterno. Google e Microsoft offrono anche strumenti di conversazione ai clienti aziendali, garantendo la privacy dei dati senza incorporarli nei modelli di intelligenza artificiale pubblici. Sebbene l’impostazione predefinita in Bard e ChatGPT salvi la cronologia delle conversazioni degli utenti, è possibile eliminarla.

La nostra opinione

L’avvertimento di Google al suo personale sull’utilizzo dei chatbot, inclusa Bard, riflette l’impegno dell’azienda per la privacy e la sicurezza dei dati. Con l’evoluzione delle tecnologie di intelligenza artificiale, è fondamentale che le organizzazioni mettano in atto salvaguardie e promuovano un utilizzo responsabile. Il panorama dinamico dei chatbot di intelligenza artificiale richiede un equilibrio delicato tra innovazione e mitigazione dei rischi. Affrontando queste preoccupazioni, aziende come Google stanno lavorando per un futuro in cui le tecnologie di intelligenza artificiale possano essere utilizzate in modo sicuro ed etico.