5 Preoccupazioni Riguardanti la Scalabilità e l’Adozione dell’Intelligenza Artificiale
5 Preoccupazioni sull'Adozione e Scalabilità dell'Intelligenza Artificiale.
Nel corso degli anni, c’è stata una crescente preoccupazione sull’impatto dell’IA sulla società. Ma questa preoccupazione è aumentata solo ora con l’introduzione del popolare Chatbot, ChatGPT. Sia l’immaginazione del pubblico che dei professionisti esperti di dati hanno corso sfrenato. Molti pongono domande simili quando si tratta di IA. Quindi ci si chiede, quali sono le preoccupazioni e come possiamo affrontarle nel campo della scienza dei dati e oltre?
Nelle sezioni seguenti, esamineremo alcune di queste preoccupazioni legate all’IA e anche alcuni modi per affrontarle.
Preoccupazione n. 1: Bias e equità nell’IA
L’equità e il bias non sono solo un problema isolato dell’intelligenza artificiale, ma uno che si fa sentire in tutto il campo. Ma, a causa di come gli algoritmi dell’IA vengono addestrati utilizzando grandi quantità di dati, se quei dati contengono pregiudizi, il sistema di intelligenza artificiale può ereditare e perpetuare quei pregiudizi anche se i programmatori non intendono farlo. Alcuni esempi di ciò possono essere visti con programmi di IA in diversi campi.
- ChatGPT è effettivamente intelligente?
- Ispezione delle previsioni di Data Science Analisi individuale + casi negativi
- Annunciamo le prime sessioni di formazione che arriveranno all’ODSC APAC 2023
L’IA sta entrando nel campo delle risorse umane e sta diventando rapidamente parte del processo di assunzione generale. Se il modello è distorto, potrebbe significare che i candidati qualificati potrebbero perdere opportunità di carriera. Questo potrebbe essere visto con alcuni sistemi di candidatura che richiedono parole chiave per selezionare potenziali candidati. Se non viene addestrato correttamente o manca di contesto importante per alcuni settori, potrebbe escludere interi gruppi di persone senza giusta causa.
Come molti data scientist sanno, il valore dei dati dipende dalla raccolta e cura dei dati. Quindi, per affrontare questa particolare preoccupazione, ci sono alcune cose che possono essere fatte. Prima di tutto, è fondamentale assicurarsi che i dati di addestramento siano diversi, rappresentativi e privi di presupposti di pregiudizio. Poi, ovviamente, è necessario assicurarsi che i dati siano puliti e curati. Infine, è necessario monitorare continuamente i sistemi di IA. Ciò può essere fatto durante la distribuzione e possono essere apportate modifiche se necessario.
Preoccupazione n. 2: Privacy e sicurezza dei dati
Un’altra grande preoccupazione che ha catturato l’attenzione del pubblico riguarda la privacy e la sicurezza dei dati.
È ben noto che i modelli e altri sistemi alimentati dall’IA spesso si basano su grandi quantità di dati personali per fare previsioni e decisioni accurate. Questi dati possono provenire da web scraping e persino da altre fonti di dati pubblici offline. Ma con tutti questi dati, spesso legati a individui in qualche forma, la raccolta, la conservazione e l’utilizzo di tali dati hanno sollevato preoccupazioni significative per la privacy.
Anche se per molti la prima cosa che viene in mente sono le violazioni dei dati, spesso è l’uso improprio dei dati che tende a essere di rischio maggiore. Questo perché, con l’abuso e la manipolazione dei dati, si può discriminare un gruppo di persone o applicare un pregiudizio in un modello di intelligenza artificiale. Questo senza nemmeno toccare il livello micro in cui dati personali sufficienti potrebbero essere utilizzati per rubare identità. Considera i progressi nella tecnologia deepfake. Un po’ dei tuoi dati di testo e voce potrebbero essere utilizzati per creare una conversazione con l’IA che potrebbe ingannare anche le persone più vicine a te.
Quindi come si può affrontare questa situazione? Ci sono alcune cose che possono essere fatte. Innanzitutto, l’assenza di requisiti di conformità normativa, proprietà dei dati e consenso è normalmente la prima barriera. Se le persone hanno il controllo dei loro dati e forniscono un consenso esplicito, mette ogni persona al comando, rendendo più difficile raccogliere dati per causare danni. Sul lato della raccolta, c’è la minimizzazione dei dati. In breve, collegare solo i dati necessari per addestrare un modello evitando informazioni personali non necessarie che potrebbero mettere a rischio la privacy di una persona.
Infine, per coloro che si occupano di sicurezza informatica, è necessario adottare adeguate misure di sicurezza e una forte crittografia. Assicurarsi di avere una solida infrastruttura di crittografia con protocolli di sicurezza adeguati per proteggere i dati da accessi non autorizzati, si riduce notevolmente la probabilità che i dati delle persone siano a rischio.
Preoccupazione n. 3: Disoccupazione e riduzione dell’occupazione
Questo è l’elefante nella stanza e quello che ha bisogno di un po’ più di attenzione. Sebbene molti nell’ambito della scienza dei dati siano giustamente entusiasti delle prospettive dell’IA, come ad esempio di come possa essere un nuovo strumento per aiutare l’umanità nel complesso, ci sono crescenti preoccupazioni che l’aumento dell’adozione dell’IA e dell’automazione potrebbe portare a una riduzione dell’occupazione a lungo termine. Questo è particolarmente preoccupante per le posizioni che hanno compiti ripetitivi e routine che l’IA è spesso più adatta a svolgere.
E questa non è una paura che riguarda solo una classe economica di lavoratori. L’IA e, con essa, la robotica, hanno il potenziale di scuotere le fondamenta del mercato del lavoro. Sia le posizioni colletto bianco che quelle colletto blu, in modi diversi, potrebbero subire cambiamenti significativi nei prossimi anni. Questo ha portato molti a chiedersi come affrontare questa preoccupazione per quanto riguarda la forza lavoro.
Bene, un modo ovviamente sarebbe incentivare la riqualificazione e la formazione delle parti del mercato del lavoro più suscettibili di essere colpite dall’IA. Ciò consente ai lavoratori di prendere il controllo del proprio destino professionale e di adattarsi alla natura sempre mutevole del mercato del lavoro. Un’altra parte della soluzione sarebbe la collaborazione tra intelligenza artificiale e umani, o l’integrazione tra intelligenza artificiale e umani. All’inizio di quest’anno, il CEO di Microsoft, Satya Nadella, ha affermato di credere che l’IA non sostituirà il lavoratore, ma lo migliorerà.
Quindi trovare modi per incoraggiare le aziende a vedere i benefici dell’IA come parte del luogo di lavoro sarà vantaggioso, non come un modo per sostituire i dipendenti. Ma alcuni ritengono che questo non sarà sufficiente. Con l’IA che continua a crescere rapidamente nel mercato, molti si troveranno senza la flessibilità necessaria per acquisire nuove competenze o trovare un’altra posizione che valorizzi l’integrazione tra intelligenza artificiale e umani. Tra coloro preoccupati, spicca il co-fondatore di DeepMind, Mustafa Suleyman, che ha affermato che parte della soluzione dovrebbe essere un reddito di base universale (UBI).
Anche se non c’è una soluzione miracolosa per affrontare questa preoccupazione, è una delle più preoccupanti poiché le interruzioni economiche non sono solo numeri su carta. Queste sono persone con famiglie e case, che cercano tutti modi per farcela.
Preoccupazione n. 4: Armi autonome e uso militare dell’IA
Se c’è una cosa sulla natura umana di cui possiamo fare affidamento, è che prima o poi due gruppi si scontreranno in una guerra. Anche se resi popolari dai film di fantascienza come Terminator, le armi autonome non sono ancora così avanzate. Ma il vero problema risiede nel dilemma etico di rimuovere l’elemento umano dal campo di battaglia. Consentire all’IA di controllare il campo con poco o nessun intervento umano potrebbe aprire la porta affinché gli Stati nazione siano meno preoccupati delle conseguenze delle azioni militari poiché il personale umano è lontano dal fronte.
Ciò potrebbe anche aumentare la letalità, la violenza e la brutalità della guerra. Infine, è probabile che un’IA incontrollabile prima o poi commetta errori e crei una situazione peggiore sul fronte.
Quindi come affrontare questa preoccupazione?
Prima di tutto, il settore privato ha già iniziato ad intervenire. Lo scorso anno, importanti aziende di robotica come Boston Dynamics hanno firmato un impegno per non sviluppare tecnologie di robotica alimentate da IA per scopi bellici. Anche se questo accordo è un ottimo primo passo, non è legalmente vincolante e riguarda solo le grandi aziende, non le startup. Un altro modo per affrontare il problema è attraverso accordi internazionali. Allo stesso modo in cui le armi chimiche e biologiche sono state proibite dopo la prima guerra mondiale, le nazioni possono unirsi e concordare di non rimuovere l’elemento umano.
Ma poiché la rimozione dell’elemento umano potrebbe essere politicamente vantaggiosa per la maggior parte degli Stati nazione, la probabilità che ciò accada non è elevata. Infine, così come per i framework contro i pregiudizi dell’IA, potrebbero essere stabiliti framework etici che creino linee guida e principi chiari per l’uso dell’IA nelle applicazioni militari.
Preoccupazione n. 5: Superintelligenza e rischio esistenziale
Infine, l’ultima preoccupazione della lista, ed è di gran lunga la più interessante e spaventosa allo stesso tempo. Skynet, HAL-9000 e la civiltà delle macchine dei film di Matrix sono esempi di IA nel cinema popolare e di come la superintelligenza sia andata storta. Ma non solo questo, la sua esistenza rappresenta un rischio fondamentale ed esistenziale per l’umanità. Non è quindi sorprendente che la paura di un’IA superintelligente sia solo cresciuta e che anche alcuni esperti abbiano lanciato l’allarme che un’IA superintelligente, sebbene ancora lontana nel tempo, potrebbe causare danni reali alla razza umana.
Quindi, oltre a distruggere tutti i computer e tornare alla rivoluzione industriale, quali sono alcune delle modalità per affrontare la superintelligenza dell’IA?
Prima di tutto, è fondamentale sviluppare l’IA con framework etici. Se l’IA viene lasciata cieca, senza principi guida dei valori umani, le cose possono andare rapidamente male. Questo implica l’adattamento per i pregiudizi e altre anonimità nei modelli che potrebbero generare risposte o comportamenti rischiosi. Poi c’è la ricerca sulla sicurezza dell’IA. Lo scopo di questa ricerca è investire capitale, lavoro umano e tempo per anticipare e mitigare i potenziali rischi e le vulnerabilità. È ancora un sottocampo nuovo nell’intelligenza artificiale, ma lavorando su principi come questi, il rischio di un’IA superintelligente che va male potrebbe essere notevolmente ridotto.
Conclusion
Interessante, vero? È evidente che l’IA è qui per restare e continuerà a crescere, quindi la necessità di un’IA responsabile aumenterà di conseguenza. Ecco perché a ODSC West, l’IA responsabile avrà una propria sezione. Vieni a ODSC West dal 30 ottobre al 2 novembre e incontra gli esperti che guidano il settore, scopri cosa hanno da dire e come potrebbe essere un mondo con un’IA responsabile.