6 Miti sull’intelligenza artificiale Smentiti Separare il vero dalla finzione

6 Miti sull'intelligenza artificiale Smentiti Separare il vero dalla finzione

L’intelligenza artificiale è senza dubbio la parola del momento. La sua popolarità, specialmente con l’emergere di applicazioni AI generative come ChatGPT, l’ha portata al centro dei dibattiti tecnologici.

Tutti parlano dell’impatto delle app generative AI come ChatGPT e se sia equo sfruttarne le capacità.

Tuttavia, in mezzo a questa tempesta perfetta, è emerso un improvviso aumento di numerosi miti e false idee sul termine Intelligenza Artificiale o AI.

Scommetto che ne hai già sentito molti di questi!

Andiamo a fondo di questi miti, distruggiamoli e comprendiamo la vera natura dell’AI.

1. L’AI è intelligente

Contrariamente alla credenza popolare, l’AI non è affatto intelligente. Al giorno d’oggi, molte persone pensano che i modelli alimentati da AI siano effettivamente intelligenti. Questo potrebbe essere dovuto all’inclusione del termine “intelligenza” nel nome “intelligenza artificiale”.

Ma cosa significa intelligenza?

L’intelligenza è una caratteristica unica degli organismi viventi, definita come la capacità di acquisire e applicare conoscenze e competenze. Ciò significa che l’intelligenza consente agli organismi viventi di interagire con l’ambiente circostante e imparare come sopravvivere.

L’AI, d’altra parte, è una simulazione meccanica progettata per imitare certi aspetti di questa intelligenza naturale. La maggior parte delle applicazioni di AI con cui interagiamo, specialmente in campo aziendale e online, si basano sull’apprendimento automatico.

Si tratta di sistemi di AI specializzati addestrati su compiti specifici utilizzando grandi quantità di dati. Eccellono nei propri compiti designati, che si tratti di giocare a un gioco, tradurre lingue o riconoscere immagini.

Tuttavia, al di fuori del loro ambito, sono di solito abbastanza inutili… Il concetto di un’AI che possiede un’intelligenza simile a quella umana in una serie di compiti viene definito AI generale, e siamo lontani dal raggiungere questo traguardo.

2. Più grande è sempre meglio

La competizione tra i giganti della tecnologia spesso ruota attorno al vantarsi delle dimensioni impressionanti dei loro modelli di AI.

La sorprendente versione LLM di Llama, con la sua potenza di 70 miliardi di funzionalità, ha destato scalpore, mentre Palma di Google vanta 540 miliardi di funzionalità e il più recente lancio di OpenAI, ChatGPT4, brilla con 1,8 trilioni di funzionalità.

Tuttavia, la quantità di funzionalità in miliardi del LLM non si traduce necessariamente in una migliore performance.

La qualità dei dati e la metodologia di addestramento sono spesso determinanti più critici per la performance e l’accuratezza di un modello. Questo è già stato dimostrato con l’esperimento Alpaca di Stanford in cui un semplice LLM basato su Llama con 7 miliardi di funzionalità ha potuto competere con il sorprendente ChatGPT 3.5 con le sue 176 miliardi di funzionalità.

Quindi la risposta è decisamente NO!

Più grande non è sempre meglio. Ottimizzare sia le dimensioni dei LLM che le loro prestazioni corrispondenti democratizzerà l’uso di questi modelli a livello locale e ci permetterà di integrarli nei nostri dispositivi quotidiani.

3. Trasparenza e responsabilità nell’AI

Un’idea erronea comune è che l’AI sia una scatola nera misteriosa, priva di qualsiasi trasparenza. In realtà, sebbene i sistemi di AI possano essere complessi e ancora relativamente opachi, si stanno facendo notevoli sforzi per migliorarne la trasparenza e la responsabilità.

Gli organismi di regolamentazione stanno spingendo per un utilizzo etico e responsabile dell’AI. Importanti iniziative come il Rapporto di Trasparenza sull’AI di Stanford e il Regolamento sull’AI europeo sono finalizzati a indurre le aziende a migliorare la trasparenza dell’AI e a fornire una base per la formulazione di regolamenti in questo ambito emergente.

L’AI trasparente è emersa come punto focale di discussione nella comunità dell’AI, che abbraccia una serie di questioni come i processi che consentono alle persone di verificare i test approfonditi dei modelli di AI e comprendere la logica delle decisioni di AI.

Ecco perché i professionisti dei dati in tutto il mondo stanno già lavorando su metodi per rendere i modelli di intelligenza artificiale più trasparenti.

Quindi mentre questo potrebbe essere parzialmente vero, non è così grave come si pensa comunemente!

4. Infallibilità dell’IA

Molti credono che i sistemi di intelligenza artificiale siano perfetti e incapaci di errori. Questo è lontano dalla verità. Come ogni sistema, le prestazioni dell’IA dipendono dalla qualità dei dati di addestramento. E questi dati sono spesso, per non dire sempre, creati o curati dagli esseri umani.

Se questi dati contengono pregiudizi, il sistema di intelligenza artificiale li perpetuerà involontariamente.

L’analisi di un team del MIT sui modelli di linguaggio preaddestrati più utilizzati ha evidenziato forti pregiudizi nell’associazione tra genere e determinate professioni ed emozioni. Ad esempio, ruoli come assistente di volo o segretaria erano principalmente associati a qualità femminili, mentre avvocato e giudice erano legati a tratti maschili. Lo stesso comportamento è stato osservato per quanto riguarda le emozioni.

Altri pregiudizi rilevati riguardano la razza. Con l’introduzione dei modelli di linguaggio nel settore sanitario, sorgono timori che potrebbero perpetuare pratiche mediche dannose basate sulla razza, riflettendo i pregiudizi intrinseci nei dati di addestramento.

È fondamentale che l’intervento umano supervisioni e corregga queste mancanze, garantendo l’affidabilità dell’IA. La chiave sta nell’utilizzare dati rappresentativi e imparziali e condurre verifiche algoritmiche per contrastare questi pregiudizi.

5. L’IA e il mercato del lavoro

Uno dei timori più diffusi è che l’IA porterà a una massiccia disoccupazione.

Tuttavia, la storia suggerisce che mentre la tecnologia potrebbe rendere obsoleti alcuni lavori, allo stesso tempo genera nuove industrie e opportunità.

Ad esempio, il World Economic Forum ha previsto che mentre l’IA potrebbe sostituire 85 milioni di posti di lavoro entro il 2025, ne creerà 97 milioni di nuovi.

6. La conquista dell’IA

L’ultimo e più distopico. La cultura popolare, con film come Matrix e Terminator, dipinge un quadro fosco del potenziale dell’IA nell’asservire l’umanità.

Anche se voci influenti come Elon Musk e Stephen Hawking hanno espresso preoccupazione, lo stato attuale dell’IA è distante da questa immagine distopica.

I modelli di IA attuali, come ChatGPT, sono progettati per assistere in compiti specifici e non possiedono le capacità o le motivazioni descritte nei racconti di fantascienza.

Quindi per ora… siamo ancora al sicuro!

Conclusioni principali

In conclusione, mentre l’IA continua a evolversi e integrarsi nella nostra vita quotidiana, è fondamentale separare fatti da finzioni.

Solo con una comprensione chiara possiamo sfruttarne appieno il potenziale e affrontarne responsabilmente le sfide.

Le leggende possono annebbiare il giudizio e ostacolare il progresso.

Armati di conoscenza e una comprensione precisa dell’effettivo campo d’azione dell’IA, possiamo andare avanti garantendo che la tecnologia serva al meglio gli interessi dell’umanità.

[Josep Ferrer](https://www.linkedin.com/in/josep-ferrer-sanchez) è un ingegnere di analisi da Barcellona. Si è laureato in ingegneria fisica e attualmente lavora nel campo della scienza dei dati applicata alla mobilità umana. È un creatore di contenuti a tempo parziale incentrato sulla scienza dei dati e sulla tecnologia. Puoi contattarlo su LinkedIn, Twitter o VoAGI.