Intelligenza Artificiale e Libero Arbitrio
AI e Libero Arbitrio

(1) La Domanda Fondamentale sull’Agentività Artificiale
Le considerevoli capacità dell’intelligenza artificiale sono ormai chiare. Un’intelligenza artificiale può fare certe cose meglio di qualsiasi essere umano (giocare a scacchi, ad esempio) e può fare molte cose meglio di un essere umano tipico (scrivere poesie, ad esempio). Tuttavia, c’è una domanda fondamentale sulle capacità dell’intelligenza artificiale che, a mia conoscenza, è irrisolta. Non si tratta di una domanda su un singolo atto o tipo di atto, ma sull’agentività artificiale stessa.
La domanda è questa. Consideriamo un’intelligenza artificiale, sia un sistema attuale sofisticato come ChatGPT-4 o un futuro sistema ancora più potente. Possiamo chiedere delle specifiche capacità di questo sistema, ma possiamo porre una domanda ancora più generale, ovvero: questo sistema ha libero arbitrio? Questa domanda è stata affrontata in vari punti nella letteratura sull’intelligenza artificiale, ma a mia conoscenza non è ancora stata risolta e infatti non sembra esserci alcun consenso su come potrebbe apparire una risposta.
Parte del motivo per cui questo dibattito rimane poco chiaro non risiede nella mancanza di chiarezza sulle capacità dell’intelligenza artificiale stessa, ma nella mancanza di chiarezza nel discorso sul “libero arbitrio” stesso. Questa parte della filosofia può sembrare così confusa che si potrebbe pensare che persino perseguire questa domanda sia destinato a generare più fumo che luce. Penso che non sia così e lo scopo principale di questo saggio è impostare questa domanda con rigore e disciplina. Difenderò anche la mia risposta preferita a questa domanda, anche se ciò è di importanza secondaria.
- Costruire un piccolo modello di linguaggio (SLM) con l’algoritmo Jaro-Winkler per migliorare e potenziare gli errori di ortografia
- Attribuzione del modello di catena di Markov
- Esplorando Claude 2 Il passo ambizioso di Anthropic verso l’IA di prossima generazione
(2) Il Problema della Sensibilità
Sarà utile cominciare distinguendo la nostra domanda da un’altra domanda. Questa domanda è stata discussa in modo più approfondito e penso più preciso rispetto alla nostra domanda. Quindi, sebbene sia distinta, può fungere da modello per la discussione della nostra domanda.
Questa è la domanda sulla sensibilità. C’è qualcosa che è come essere. Oltre alle mie risposte e comportamenti, c’è una dimensione qualitativa della mia esperienza, una sensazione soggettiva, come quando vedo il giallo o provo dolore. Sebbene questo aspetto della mia esperienza non sia necessariamente leggibile dall’esterno, lo conosco chiaramente nel mio caso attraverso l’introspezione. Ho sensibilità o esperienza consapevole.
Possiamo quindi chiederci: un’intelligenza artificiale sufficientemente sofisticata è anche sensibile? Questa domanda è attualmente oggetto di vivace dibattito. Alcuni filosofi, come David Chalmers, pensano che non siamo ancora arrivati, ma potremmo esserci tra una decina d’anni. Altri sono scettici sulla presunta sensibilità dell’intelligenza artificiale, considerandola come una proiezione ingiustificata della nostra stessa esperienza nel campo digitale. Altri ancora, forse incluso molti ingegneri, ritengono che questa domanda sia filosoficamente oggettiva e forse priva di significato.
Non intendo qui sostenere né un lato della questione della sensibilità né affrontare lo scetticismo sulla sua natura di domanda significativa. Piuttosto, la questione della sensibilità ci fornisce un punto di riferimento. Il mio obiettivo è rendere la nostra domanda almeno altrettanto chiara e significativa della questione della sensibilità.
La nostra domanda è anche distinta dalla questione della sensibilità. Possiamo vederlo considerando casi in cui qualcuno è sensibile ma non ha libero arbitrio o ha libero arbitrio ma non ha sensibilità.
Ecco un caso del primo tipo. Immagina che tutte le tue azioni siano guidate da una forza esterna a te stesso. Come un burattino, sollevi il braccio quando il tuo “controllore” solleva il tuo braccio, pensi al colore giallo quando il tuo “controllore” ti istruisce a pensare al colore giallo e così via. Forse nemmeno sei consapevole del tuo controllore. In un certo senso intuitivo, ti manca il libero arbitrio. Tuttavia, potresti comunque essere sensibile. Ad esempio, c’è comunque qualcosa che è come per te vedere il giallo.
Ecco un caso del secondo tipo. Chalmers considera gli zombi, che sono funzionalmente simili a noi ma che mancano di esperienza consapevole. Gli zombi “camminano e parlano” come noi, ma dentro di loro non succede niente. Tali esseri mancano di sensibilità per definizione. Ma potrebbero comunque avere libero arbitrio. Cioè, potrebbero affrontare una serie di scelte e scegliere liberamente tra di esse. Quindi gli zombi dimostrano che può esserci libero arbitrio senza sensibilità.
Quindi la nostra domanda e la domanda sulla sensibilità sono distinte. Di conseguenza, ci sono almeno quattro possibilità. Un’intelligenza artificiale potrebbe avere sensibilità e libero arbitrio, come sembra che abbiamo noi. Oppure un’intelligenza artificiale potrebbe avere sensibilità senza libero arbitrio, quindi sarebbe come un burattino sensibile. Oppure un’intelligenza artificiale potrebbe avere libero arbitrio senza sensibilità, quindi sarebbe come uno zombi. Oppure un’intelligenza artificiale potrebbe non avere né sensibilità né libero arbitrio, come la maggior parte degli oggetti inanimati e degli strumenti.
(3) I poteri dei non umani
Sarà utile anche contrastare un’altra domanda che potremmo porci. La nostra domanda riguarda i poteri degli esseri, l’IA, diversi da noi stessi. Possiamo ottenere una prospettiva su questa domanda riflettendo su un’altra domanda riguardo ai poteri degli esseri simili a noi, esseri che non pongono gli stessi tipi di perplessità dell’IA. Vale a dire, possiamo chiederci degli animali non umani.
Gli animali non umani hanno libero arbitrio? Come per l’IA, possiamo chiederci quali siano i confini qui, ma iniziamo almeno con i mammiferi, quelli con livelli dimostrabili di intelligenza, come i delfini, gli scimpanzé e forse i maiali e i cani. Questi animali hanno libero arbitrio?
Gran parte della letteratura filosofica sul libero arbitrio sembra procedere con un deliberato disinteresse per questa domanda. C’è un distintivo pregiudizio antropocentrico nel modo in cui queste domande vengono discusse. Questo è forse perché le questioni del libero arbitrio sono spesso legate a questioni teologiche o questioni sulla responsabilità morale, che si pensa abbiano un riferimento particolare agli esseri umani.
Helen Steward ha argomentato in modo convincente che questo è un errore. Noi, dopotutto, siamo animali e ci consideriamo dotati di libero arbitrio. Perché gli altri animali non umani, almeno quelli “superiori”, dovrebbero essere diversi? Tracciare una distinzione qui significa commettere un errore simile a quello che Peter Singer, in un altro contesto, ha deriso come specismo.
Più precisamente, Steward sostiene che il caso del libero arbitrio degli animali è il seguente. Un animale – come un delfino – si trova di fronte a molteplici possibilità d’azione, come diversi percorsi distinti per la stessa destinazione. Spetta al delfino decidere quale di queste possibilità d’azione intraprendere. La scelta del delfino determina il suo corso d’azione.
Contrastiamo una roccia che rotola giù per una collina. Ci sono molti percorsi che questa roccia potrebbe prendere, ma non spetta alla roccia decidere quale percorso prendere, né la roccia decide qualcosa. Piuttosto, queste cose sono determinate da forze esterne alla roccia. O contrastiamo una marionetta. Ci sono molti comportamenti che questa marionetta potrebbe mostrare, ma non spetta alla marionetta decidere quale di questi comportamenti mostrare, né la marionetta stabilisce ciò.
In questo senso, il delfino è molto simile a noi e molto diverso dalla roccia o dalla marionetta. Quindi, se pensiamo di avere libero arbitrio, dovremmo credere che i delfini (e gli scimpanzé, i maiali e i cani) lo abbiano anche. I delfini sono simili a noi in questo senso. E questo è precisamente l’esito che ci saremmo aspettati da una visione propriamente naturalistica dell’agentività, che non vede differenze fondamentali tra noi stessi e gli altri animali.
(4) Definizione di ‘Libero Arbitrio’
Torniamo ora alla nostra domanda iniziale. L’IA ha libero arbitrio, oppure potrebbe averlo? Se includiamo altri esseri naturali, come i delfini, nella categoria degli esseri che hanno libero arbitrio, dovremmo includere anche certi esseri artificiali, compresa un’intelligenza artificiale sufficientemente sofisticata?
Per ottenere una certa comprensione di questa domanda, vogliamo fare qualcosa che molti potrebbero richiedere fin dall’inizio, ovvero essere più chiari su cosa intendiamo per ‘libero arbitrio’. Credo che sia facile esagerare il valore di questo esercizio di definizione. Capiamo approssimativamente cosa si intenda per domanda se l’IA ha libero arbitrio, e qualsiasi definizione è aperta a varie interpretazioni. Tuttavia, c’è un certo valore, in questo momento, nell’imporre un po’ di rigore ai nostri termini.
Credo che il livello appropriato di rigore sia raggiunto dalla teoria delle decisioni. Nella teoria delle decisioni, parliamo di un agente che si trova di fronte a molteplici opzioni, tra cui deve scegliere. Questa è una situazione di scelta. Un agente ha libero arbitrio nel senso rilevante solo se si trova di fronte a situazioni di scelta e fa scelte efficaci all’interno di tali situazioni di scelta. In altre parole, informalmente, ho libero arbitrio solo se regolarmente mi trovo di fronte a una pluralità di opzioni e realmente scelgo tra di esse.
Questa nozione di libero arbitrio è molto simile a quella di Steward. Le opzioni sono semplicemente percorsi d’azione. E la mia nozione di scelta è molto simile alla sua nozione di stabilire. Quindi, come la concezione di libero arbitrio di Steward implica che i delfini abbiano libero arbitrio, così anche la concezione decisionale del libero arbitrio implica che i delfini (e gli scimpanzé, i cani e i maiali) abbiano libero arbitrio.
Si noti che questa concezione di libero arbitrio non è così robusta come altre concezioni presenti nella letteratura. Non implica, ad esempio, la responsabilità morale per ciò che si fa. È una questione se un essere si trova di fronte a situazioni di scelta e un’altra questione se può essere ritenuto moralmente responsabile per ciò che fa. Si potrebbe sostenere che alcuni animali non umani, almeno, si trovino di fronte a situazioni di scelta ma non siano moralmente responsabili per ciò che fanno. In ogni caso, le questioni sono distinte, ed è sulla questione del libero arbitrio che voglio concentrarmi qui.
Si noti, tuttavia, che la concezione decisionistica del libero arbitrio è ancora una concezione esigente e, in qualche senso, “metafisica”. In particolare, la richiesta non è semplicemente che un essere possa essere utilmente modellato in termini decisionistici. Questo sarebbe strettamente correlato a ciò che Daniel Dennett chiama “atteggiamento intenzionale”. Arguably molte cose possono essere utilmente modellate in termini decisionistici anche se non sono effettivamente agenti, come marionette e droni.
Più vicino a casa, molte persone saranno d’accordo sul fatto che è plausibile che un’intelligenza artificiale sofisticata possa essere utilmente modellata in termini decisionistici. Ma questa non è la domanda. La domanda è se sono correttamente modellati in questo modo. Cioè, le intelligenze artificiali sono veramente agenti liberi? O sono solo cose (come marionette o droni) di cui possiamo parlare utilmente come se fossero liberi, anche se non lo sono?
La nostra domanda iniziale sull’IA e il libero arbitrio è ora stata regolamentata in una domanda un po’ più gestibile. La nostra domanda ora è: un’intelligenza artificiale affronta situazioni di scelta? Cioè, una rappresentazione decisionistica di un’intelligenza artificiale non è solo utile ma vera?
(5) IA, il corpo e l’ambiente
Ci sono diversi modi per argomentare in modo negativo a questa domanda.
Gli argomenti più semplici sono quelli che potremmo chiamare argomenti compositivi. Un essere umano o un delfino è una forma di vita a base di carbonio soggetta alle leggi della biologia. Al contrario, l’IA è tipicamente realizzata da chip computerizzati fatti di silicio e plastica. Nel caso della sensibilità, alcuni hanno pensato che essere fatto di un certo tipo di materiale sia in qualche modo una condizione necessaria per la sensibilità. Si potrebbe fare un argomento simile per il libero arbitrio.
Tuttavia, la forza dell’argomento compositivo è limitata. Innanzitutto, anche nel caso della sensibilità, questo tipo di argomento è generalmente considerato poco convincente. È la complessità del cervello umano che ne giustifica la sensibilità, e questa giustificazione sarebbe altrettanto convincente se il cervello fosse ricreato, pezzo per pezzo, in silicio. Questo tipo di ragionamento sembra ancora più potente per il libero arbitrio. Qualunque cosa faccia in modo che creature come noi abbiano libero arbitrio; non sembra che essere fatti di materia biologica sia ciò che è essenziale.
Una forma leggermente più sofisticata di argomento è quella che potremmo chiamare argomenti ecologici. Un essere umano o un delfino è una creatura incarnata che vive in un ambiente. Al contrario, un’intelligenza artificiale tipicamente non ha un corpo o un ambiente in cui quel corpo possa abitare. Diversi filosofi, come John Searle, hanno sostenuto che l’IA, quindi, non soddisfa le condizioni per l’intenzionalità o per avere pensieri sugli oggetti. Si potrebbero anche usare argomenti simili per argomentare contro la sensibilità dell’IA. E, infine, si potrebbe dare un argomento ecologico contro l’affermazione che l’IA abbia libero arbitrio.
Anche in questo caso, tuttavia, la forza dell’argomento ecologico è limitata. Quando si afferma che l’IA ha libero arbitrio, gli atti che sono i candidati più plausibili per essere i suoi atti liberi sono atti mentali o verbali, come dare una risposta piuttosto che un’altra a una domanda. Non è chiaro perché l’incarnazione sarebbe una condizione necessaria per questo tipo di libertà. E, anche se lo fosse, non c’è ostacolo a dotare l’IA di un corpo artificiale, come infatti viene fatto.
Gli argomenti compositivi ed ecologici sono argomenti che traspongono un’obiezione comune al concedere sensibilità o intenzionalità all’IA in un’obiezione al concedere libero arbitrio all’IA. Cioè, traspongono argomenti dalla filosofia della mente alla filosofia dell’agenzia. Non voglio dire che tali argomenti falliscano, ma solo, nello spirito di questa discussione, che non sono più convincenti per il caso del libero arbitrio di quanto lo siano per la sensibilità o l’intenzionalità. Le risposte a questi argomenti che sono state date nella filosofia della mente possono essere estese in modo diretto anche al caso del libero arbitrio.
(6) L’obiezione dalla programmazione
C’è anche un argomento che l’IA non potrebbe avere libero arbitrio che sembra essere speciale per il caso degli agenti. Questo argomento si basa su particolari dettagli sul funzionamento dei sistemi artificiali. In particolare, si sostiene che i sistemi artificiali siano programmati. Ma se qualcosa è programmato per fare ciò che fa, allora non ha altre opzioni. Sembra essere quasi definizionale della nostra nozione di libertà che l’agenzia libera sia in qualche senso non programmata. Poiché un’intelligenza artificiale è programmata, non ha libero arbitrio.
Ci sono alcuni sistemi per i quali questo argomento è plausibile. Un tipico calcolatore, ad esempio, esegue un semplice algoritmo per l’addizione e altre funzioni aritmetiche. Se do a un tipico calcolatore un input di “4 + 4”, allora con probabilità estremamente alta, otterrò la risposta “8”. Un calcolatore non è libero di dare risposte diverse. Quindi, in alcuni casi, la programmazione sembra minare una pretesa di libero arbitrio.
Ma i sistemi AI tipici, oggi, sono molto diversi da questo. Un sistema come AlphaZero, progettato da Google per giocare a scacchi, go e altri giochi (e che può sconfiggere qualsiasi giocatore umano in ognuno di questi giochi). L’elaborazione eseguita da AlphaZero, o programmi simili, è in gran parte implementata da reti neurali che sono state addestrate su enormi quantità di dati, da cui derivano schemi e aspettative. Qui non c’è nulla che corrisponda all’algoritmo semplice eseguito da una calcolatrice. Ed è lontano dall’essere chiaro perché questo tipo di “programmazione” dovrebbe essere un obiezione alla pretesa che un sistema come AlphaZero abbia libero arbitrio.
Si potrebbe ancora insistere sul fatto che questi sistemi sono in qualche modo il prodotto del codice e quindi, in qualche senso ampio, programmato, e sostenere che, quindi, non possono avere libero arbitrio. La difficoltà di questo argomento è che una volta che “programmato” viene inteso in questo senso ampio, diventa più probabile che anche noi siamo programmati. Dopotutto, abbiamo cervelli che elaborano informazioni in modi il cui funzionamento a livello inferiore ci rimane inaccessibile. Se siamo disposti a tollerare questo grado di programmazione nel nostro caso e sosteniamo che abbiamo comunque libero arbitrio, allora considerazioni di simmetria suggeriscono che non dovremmo considerare la programmazione come un ostacolo al libero arbitrio anche nel caso artificiale, almeno non nel caso di una IA sufficientemente sofisticata.
(7) Il caso per il libero arbitrio dell’IA
Quanto ai argomenti contro la pretesa che l’IA possa avere libero arbitrio. Qual è l’argomento per la pretesa positiva che lo ha o che una versione sufficientemente avanzata di AI potrebbe averlo?
L’argomento qui è lo stesso argomento induttivo e contestabile che si applica ai delfini, ai maiali o a noi stessi. L’IA sembra impegnarsi in comportamenti deliberativi, in cui sembra confrontarsi con una serie di opzioni e scegliere tra di esse. Quando gioco a scacchi, ho una varietà di mosse davanti a me, le considero nel miglior modo possibile e ne scelgo una. Quando AlphaZero gioca a scacchi, sembra fare lo stesso.
Le apparenze possono, ovviamente, essere ingannevoli. Nella discussione precedente, abbiamo considerato alcuni modi in cui ciò potrebbe essere vero. Potrebbe, ad esempio, essere il caso che una tipica IA sia programmata per eseguire esattamente un’azione eppure dia l’apparenza di avere molte azioni davanti a sé. Forse certi “personaggi non giocanti” nei videogiochi sono così. Ma, come appena sostenuto, questo non è plausibilmente il caso dei migliori sistemi AI attuali. Tali sistemi sono “programmati” solo in un senso molto più sofisticato ed astratto, uno che non sembra entrare in conflitto con il libero arbitrio.
Quindi, l’argomento positivo che l’IA ha libero arbitrio è lo stesso argomento per qualsiasi altra creatura complessa. Nelle nostre osservazioni e interazioni con l’IA sofisticata, sembra deliberare e agire liberamente tra una gamma di scelte. Gli argomenti secondo cui l’IA non ha o non potrebbe avere libero arbitrio si dimostrano essere fallaci. Pertanto, la nostra migliore ipotesi è che una IA sufficientemente sofisticata abbia, in effetti, libero arbitrio. Questo non è una prova o neppure conclusivo. Piuttosto, è un caso ampiamente induttivo ed empirico per pensare che, in questo caso almeno, le apparenze siano accurate e che l’IA abbia effettivamente libero arbitrio.
(8) La questione del determinismo
Non ho ancora menzionato un paio di questioni che sono molto importanti nella maggior parte delle discussioni sulla metafisica del libero arbitrio. Una è il determinismo. L’altra è la disputa tra il compatibilista e l’incompatibilista. Queste questioni sono correlate nel senso che il compatibilista afferma, e l’incompatibilista nega, la compatibilità del libero arbitrio con il determinismo.
Iniziamo con il determinismo. Partiamo da un fatto che credo dovremmo considerare credibile. Il mondo fisico in cui viviamo potrebbe essere deterministico nel senso che il suo passato e le sue leggi consentono, al massimo, un solo futuro. Potrebbe anche non essere deterministico. Semplicemente non lo sappiamo. È plausibile che il nostro mondo sia quantistico, ma ci sono interpretazioni deterministiche della meccanica quantistica. Quindi il determinismo, in questo senso generale, è un’ipotesi empirica da decidere, se può essere decisa, dalla fisica.
Potrebbe esserci qualche argomento che parte da questi fatti scientifici per l’impossibilità del libero arbitrio. Torneremo su questa questione in seguito. Ma se c’è un tale argomento, allora si applica sia agli esseri naturali che a quelli artificiali. Non c’è un argomento speciale qui contro la pretesa che l’IA possa avere libero arbitrio. Quindi dovremmo dire in questo momento semplicemente che, per quanto riguarda il determinismo, il caso per il libero arbitrio per l’IA è forte quanto il caso che abbiamo libero arbitrio. La questione di quanto sia forte esattamente dipenderà dalla nostra valutazione della questione del compatibilismo, che, come detto, torneremo a breve.
Prima di affrontare ciò, conviene considerare un diverso concetto di ‘determinismo’ che compare nella letteratura di informatica. Un algoritmo o sistema deterministico è uno che, dato un certo input, produrrà sempre lo stesso output. Funzioni come l’addizione sono deterministiche in questo senso. Al contrario, la maggior parte dei sistemi di intelligenza artificiale sofisticati non sono deterministici in questo senso. AlphaZero può produrre output diversi dallo stesso input iniziale (ad esempio, risposte diverse a un’apertura Queen’s Pawn) e un grande modello di linguaggio come ChatGPT-4 può produrre risposte diverse alla stessa domanda. Quindi, nel senso di ‘deterministico’ che compare nell’informatica, la maggior parte delle intelligenze artificiali sofisticate non sono deterministiche. Questo è correlato alla nostra osservazione precedente che il tipo di programmazione coinvolto nell’intelligenza artificiale non minaccia il libero arbitrio.
Quindi il determinismo fisico è un’ipotesi globale che potrebbe minacciare ogni forma di libero arbitrio, ma non rappresenta una minaccia specifica per il tipo di libero arbitrio che ha l’intelligenza artificiale. Esiste un senso speciale di ‘determinismo’ che compare nell’informatica, ma in questo senso l’intelligenza artificiale non è deterministica e non esiste una sfida ulteriore al libero arbitrio qui.
(9) Come essere compatibilisti riguardo all’intelligenza artificiale
Consideriamo quindi la questione del compatibilismo. Nella sezione precedente ho sostenuto che esiste un argomento dal determinismo fisico alla conclusione che non esiste libero arbitrio. Questo argomento si applica allo stesso modo al caso naturale e al caso artificiale. Da un lato, come ho notato, questo dimostra che il caso in cui l’intelligenza artificiale ha libero arbitrio non è peggiore, almeno per quanto riguarda il determinismo, rispetto al caso in cui noi abbiamo libero arbitrio. D’altra parte, se vogliamo rendere plausibile che l’intelligenza artificiale abbia libero arbitrio tout court, allora dobbiamo considerare modi per rispondere a questo argomento.
Dato che prendo come una possibilità empirica di base che il determinismo potrebbe essere vero, ciò significa che dobbiamo trovare un modo per sostenere il compatibilismo. Sul mercato esistono varie visioni compatibiliste, quindi un’idea è semplicemente prendere la versione più plausibile del compatibilismo e applicarla anche al caso dell’intelligenza artificiale. Potremmo, per così dire, acquistare il nostro compatibilismo “pronto all’uso”.
Tuttavia, ci sono difficoltà con questa proposta. Forse la più intimidatoria è che molte versioni del compatibilismo si basano su aspetti specifici della psicologia umana. Ad esempio, secondo una visione prominente difesa da Harry Frankfurt, una persona è considerata libera quando la sua volontà si conforma ai suoi desideri di secondo ordine. Ma non è affatto chiaro che questo tipo di spiegazione sia anche applicabile all’intelligenza artificiale, perché non è chiaro se abbia senso applicare una gerarchia di desideri all’intelligenza artificiale. Almeno la questione della libertà dell’intelligenza artificiale non dovrebbe dipendere da domande relativamente sottili sul grado in cui la sua psicologia assomiglia alla nostra.
Quest’ultimo punto suggerisce una preoccupazione più ampia riguardo al compatibilismo “pronto all’uso”. Molte versioni del compatibilismo non si applicano direttamente a creature la cui psicologia è radicalmente diversa dalla nostra. Questo potrebbe applicarsi all’intelligenza artificiale. Applicarsi plausibilmente anche ai delfini e ai maiali. Lo stesso Frankfurt è esplicito nel considerare la descrizione degli esseri umani come il suo obiettivo principale. Spesso, questa presupposizione è semplicemente implicita. C’è una tendenza decisamente antropocentrica nel compatibilismo contemporaneo che lo rende poco adatto al nostro scopo, ovvero trovare un compatibilismo adatto all’intelligenza artificiale.
Ci sono un paio di modi di procedere alla luce di questo. Potremmo sviluppare, per così dire, un compatibilismo su misura per l’intelligenza artificiale, che si basi su caratteristiche specifiche dei sistemi artificiali per mostrare come la loro libertà possa essere compatibile con il determinismo fisico, allo stesso modo in cui filosofi come Frankfurt si basano su caratteristiche degli esseri umani per mostrare come la loro libertà possa essere compatibile con il determinismo fisico.
Alternativamente, potremmo, per continuare la metafora, proporre un compatibilismo “taglia unica”. Questo non si baserebbe su caratteristiche specifiche di una creatura – che sia umana, artificiale o animale non umana – nella difesa del compatibilismo. Piuttosto, articolerebbe e difenderebbe il compatibilismo in termini austeri e generali, che in principio possono essere applicati a qualsiasi agente. Ho sostenuto proprio un “compatibilismo semplice” del genere nel mio libro Opzioni e Agenzia. Un approccio diverso ma altrettanto generale è proposto da Christian List nel suo libro Perché il libero arbitrio è reale. Entrambi questi approcci potrebbero giustificare il pensiero che l’intelligenza artificiale abbia libero arbitrio, anche se il nostro universo è deterministico. Importante, alla luce delle considerazioni sull’intelligenza artificiale, è che dovremmo lavorare verso un compatibilismo non antropocentrico.
(10) Libero Arbitrio, Rischio e il Futuro dell’Intelligenza Artificiale
Ho considerato la questione se l’intelligenza artificiale abbia libero arbitrio e ho sostenuto che è plausibile che lo abbia, o almeno potrebbe averlo, nel senso decisionale minimo di confrontarsi con una serie di opzioni tra cui scegliere liberamente. L’argomento è stato induttivo e sconfessabile, come conviene a ciò che è, in definitiva, una questione empirica. Un tema ricorrente è stata la continuità dell’agenzia, dall’essere umano all’animale non umano all’artificiale. La riflessione sul caso dell’IA ci spinge a adottare una concezione sufficientemente ampia delle forme che l’agenzia può assumere, una che non sia eccessivamente specifica delle particolarità della nostra specie.
Non ho affrontato le implicazioni pratiche della tesi che l’IA abbia o potrebbe avere libero arbitrio. Molte persone oggi sono preoccupate dalla prospettiva che l’IA, una volta sufficientemente intelligente, scelga di compiere atti distruttivi, forse inclusa la distruzione stessa dell’umanità, per perseguire i suoi obiettivi. Il rapporto tra la discussione precedente e queste preoccupazioni mi sembra ambivalente.
Da un lato, la tesi che l’IA abbia libero arbitrio potrebbe sembrare alzare queste preoccupazioni. Se l’IA non è solo uno strumento o un burattino, ma un agente libero, le prospettive che sviluppi e perseguirà i propri fini, senza curarsi dei nostri, potrebbero sembrare aumentate. D’altra parte, il fatto che l’IA abbia una serie di opzioni potrebbe sembrare modulare queste preoccupazioni. Non c’è nulla di inevitabile riguardo a una “conquista” dell’IA, tanto meno per l’IA stessa. Nella situazione attuale, l’IA si trova di fronte a una serie di opzioni, incluso l’astenersi dall’eseguire le sue potenzialità più distruttive. La scelta di astenersi e quali considerazioni potrebbero portarla a farlo sembrano domande assolutamente meritevoli di ulteriore considerazione.