Perché il clamore conta Pensare in modo pratico sull’IA

Perché il clamore conta Una riflessione pratica sull'Intelligenza Artificiale

Quando inventi la nave, inventi il naufragio.

Questa è ELIZA, un chatbot degli anni '60. Le persone ne erano davvero entusiaste. Da Wikipedia. https://en.wikipedia.org/wiki/ELIZA

Negli anni ’60, Joseph Weizenbaum era interessato a come gli esseri umani potessero comunicare con i computer. Ciò ha portato alla creazione di ELIZA, un esempio molto precoce di chatbot. ELIZA operava in modo molto diverso da un chatbot moderno come ChatGPT, che viene alimentato con enormi quantità di testo e “impara” a comprenderlo. ELIZA era programmata con delle regole; cercava di abbinare ciò che dici con una serie di modelli che erano stati programmati per riconoscere, e forniva una risposta basata su ciò. Deve essere stata un’impresa enorme realizzarla – scrivere tutto quel codice per permetterle di considerare la vasta quantità di cose che una persona potrebbe dirle, il tutto in un linguaggio arcaico che oggi ha più di mezzo secolo.

Questo lavoro intenso sembrava funzionare, però, e le persone che interagivano con ELIZA iniziavano a pensare che li comprendesse. Nel vero senso del termine. Anche quando Weizenbaum non era d’accordo, le persone pensavano che fosse più di semplice codice. ELIZA poteva assumere la personalità di uno psicoterapeuta, offrendo aforismi privi di significato come si vede nell’immagine sopra. Tuttavia, questo non ha impedito agli accademici di pensare che avrebbe iniziato a sostituire medici e psichiatri.

Vi suona familiare, vero? Anche se ELIZA era molto elementare (in un certo senso) rispetto a GPT4, le persone si affrettavano comunque a credere che la comprendesse e, da lì, decidevano velocemente che avrebbe sostituito anche loro.

Che cos’è l’hype?

C’è un pattern familiare nel fenomeno dell’hype di un nuovo prodotto – tutto si basa su una curva. All’inizio, le persone si eccitano sempre di più (e irragionevolmente) riguardo a quella cosa. Alla fine, raggiunge il picco della curva. Da lì, la realtà si impone e l’eccitazione delle persone svanisce quando si confrontano con i fatti. Alla fine, l’opinione pubblica tocca il punto più basso, la Fossa della Delusione. Dopo che tutto si calma e scopriamo a cosa è effettivamente utile la tecnologia, raggiungiamo un felice compromesso al Piatto della Produttività.

La curva dell'hype di Gartner. Da Wikipedia. https://en.wikipedia.org/wiki/Gartner_hype_cycle

Il mio lavoro coinvolge la collaborazione con tecnologie emergenti come i cani robot e gli occhiali per la realtà virtuale. Mi sembra di essere costantemente esposto a cose che potrebbero essere estremamente sopravvalutate. I cani robot di Boston Dynamics sono così fantastici – è difficile non dichiarare costantemente che sono il futuro (ma non lo sono). Diamo un’occhiata a qualche tecnologia che sicuramente non è stata sopravvalutata:

girandosi…

Bene, forse sono state un po’ sopravvalutate. Speriamo almeno che abbiano raggiunto un plateau produttivo! Vediamo come si stanno comportando nel 2023:

...e scoprendo.

Forse (se sei familiare con questi esempi) non è una sorpresa come è successo tutto. Ovviamente, sono tutti un disastro. Google Glass è morto due volte. Tesla sta subendo una causa. Il fondatore di FTX vive attualmente in prigione. La cosa è che la curva non è sempre giusta. A volte non riesci a superare la curva, a volte scendi nella valle della delusione e continui a scendere per sempre.

Ma perché dovremmo preoccuparci? Importa che Google Glass sia stato esagerato e si sia rivelato terribile? Beh, un po’. Se esalti sempre tutto e dici che ogni nuova tecnologia è il futuro, chi può crederci? Le persone possono prendere seriamente i tuoi consigli? Certamente, è eccitante dire che le Tesla sono completamente a guida autonoma, ma dirlo quando non lo sono, porta a incidenti gravi.

Piazzando (e incoraggiando) aspettative irrealistiche sulla tecnologia, ci stiamo preparando per la delusione. Potenzialmente non solo noi stessi, ma anche i nostri colleghi e clienti. In qualche luogo, in cui questo è molto chiaro, si trova l’IA

Cosa farà diminuire l’esaltazione dell’IA?

L’IA alla fine cadrà nella valle della delusione. Credo che le crepe si stiano iniziando a mostrare mentre le persone si trovano di fronte alla semplice domanda “come posso effettivamente usarla?”. Quando giochi con ChatGPT, può sembrare quasi magico, ma quando cerchi di immaginare come può essere applicato a un’azienda, la magia può svanire. Chiaramente, queste cose sono tutte soggette a cambiamenti, ma è difficile vedere come tutte possano essere risolte:

  1. Sicurezza: Come possiamo interagire con l’IA in modo sicuro e assicurarci che i nostri dati privati non vengano divulgati al mondo esterno
  2. Affidabilità: Possiamo mai fidarci effettivamente di essa? E se non possiamo, possiamo usarla effettivamente per automatizzare qualsiasi processo?
  3. Costi: Forse possiamo ottenere un’IA sicura e affidabile, ma il costo di un servizio del genere potrebbe essere molto elevato.
  4. Pregiudizio: Superare il pregiudizio nel sistema sarà difficile. Se hai un modello di intelligenza artificiale che dovrà interagire con i tuoi clienti, sei sicuro che abbia visto tutto Reddit e 4Chan e, in qualsiasi momento, possa ripetere qualcosa da lì?

Una riflessione finale è che ci è stato insegnato a credere che più grande è meglio. C’è l’idea delle “leggi di scala” che governano questi modelli – fondamentalmente, più dati si inseriscono e più grande è il modello, migliore sarà l’output. Tuttavia, queste risorse non sono infinite: ci sono solo un certo numero di GPU nel mondo. In modo più fondamentale, c’è solo un certo quantitativo di dati. Entro il 2027, ci si aspetta che tutti i dati di testo di alta qualità nel mondo siano già stati utilizzati per addestrare un grande modello di linguaggio. E poi?

Quindi, se questo ci porterà nella valle, cosa ci tirerà fuori? Quali sono le cose buone che ci permetteranno di utilizzare l’IA in modo significativo?

  1. Far diventare tutto SU DI TE! Un chatbot generico non è così utile, veramente. È carino che un’intelligenza artificiale possa scrivere una canzone su di te, ma questo non aiuterà la tua azienda. Ristringendo il suo campo d’azione, ma focalizzandolo su di te (affinandolo con i tuoi dati), questi modelli di chat diventeranno molto più utili. È una cosa divertente che possa scrivere un documento, ma è utile quando può scrivere un documento come te.
  2. I Big Data sono cosìoooo 2021: Fino a poco tempo fa, per fare data science su larga scala, serviva molti dati. Con un LLM, questo non è più il caso – chiunque può accedere a GPT4
  3. Draftare TUTTO: L’automazione (questa è una generalizzazione enorme) riguarda principalmente la trasformazione dei numeri. L’IA può davvero consentire flussi di lavoro automatizzati che contengono il linguaggio naturale. Presumendo che ci sia una persona nel loop, naturalmente.

Perché dovrei interessarmi?

Se stai leggendo questo, è probabile che tu abbia usato ChatGPT in qualche momento – probabilmente desideri chiarezza e aspettative realistiche. La pubblicità esagerata confonde questa chiarezza. D’altra parte, molti di noi sono sviluppatori, fondatori di start-up, tecnologi, persone che useranno uno strumento IA preconfezionato in qualcosa che stanno creando o semplicemente sostenitori dell’IA. Esagerare qualcosa e far sì che le persone lo usino (soprattutto qualcosa che hai fatto tu stesso) non è indipendente da ciò che accade dopo aver consegnato lo strumento. O, detto in modo molto più eloquente:

Quando inventi la nave, inventi anche il naufragio; quando inventi l’aereo, inventi anche l’incidente aereo; e quando inventi l’elettricità, inventi l’elettrocuzione.

– Paul Virilio

Quando crei qualcosa, sei in parte responsabile di ciò che le persone ne fanno. Come sviluppatori, abbiamo una responsabilità su tutte quelle cose negative che ho appena menzionato – pregiudizi, costi, affidabilità.

È facile (e sbagliato) pensare che lo sviluppo dell’IA sia una cosa lontana che viene fatta da sviluppatori nella Silicon Valley su cui abbiamo poco potere di influire. In ogni caso, la citazione di Virilio abbraccia cose al di là di questo, per tutte le tecnologie che sviluppiamo e raccomandiamo. Ogni giorno ci troviamo di fronte a idee nuove e non testate. Da piccole cose come una nuova funzionalità in un aggiornamento software a un nuovo prodotto SAAS di un’enorme azienda tecnologica con una campagna pubblicitaria accattivante che promette di cambiare tutto.

Essere realisti sull’IA non dovrebbe distrarci dall’essere realisti e pragmatici su tutto. Quel nuovo e brillante prodotto SAAS è davvero pronto per il grande pubblico? Dovrei sicuramente utilizzare questa nuova architettura? La tecnologia non è mai la soluzione completa. Il mio lavoro consiste nel lavorare con cani robot, e mi fa tanto male ammettere che magari (solo magari) non sono così utili.

Grazie per aver letto! Puoi anche metterti in contatto qui: LinkedIn, o dare un’occhiata alla newsletter a cui contribuisco qui

\