È ancora rilevante il machine learning tradizionale?

Il machine learning tradizionale è ancora rilevante?

Negli ultimi anni, l’IA generativa ha mostrato risultati promettenti nella risoluzione di compiti complessi di intelligenza artificiale. Modelli di IA moderni come ChatGPT, Bard, LLaMA, DALL-E.3 e SAM hanno dimostrato notevoli capacità nella risoluzione di problemi multidisciplinari come il question answering visivo, la segmentazione, il ragionamento e la generazione di contenuti.

Inoltre, sono emerse tecniche di IA multimodale, capaci di elaborare simultaneamente molteplici modalità di dati, ovvero testo, immagini, audio e video. Con questi sviluppi, è naturale chiedersi se stiamo avvicinando la fine del machine learning tradizionale (ML).

In questo articolo, esamineremo lo stato del panorama del machine learning tradizionale riguardo alle moderne innovazioni dell’IA generativa.

Cos’è il machine learning tradizionale? – Quali sono le sue limitazioni?

Il machine learning tradizionale è un termine generico che comprende una vasta gamma di algoritmi basati principalmente sulla statistica. I due principali tipi di algoritmi di ML tradizionale sono supervisionati e non supervisionati. Questi algoritmi sono progettati per sviluppare modelli da dataset strutturati.

Gli algoritmi tradizionali di machine learning standard includono:

  • Algoritmi di regressione come lineari, lasso e ridge.
  • Clustering K-means.
  • Analisi dei componenti principali (PCA).
  • Support Vector Machines (SVM).
  • Algoritmi basati su alberi come gli alberi decisionali e il random forest.
  • Modelli di boosting come il gradient boosting e XGBoost.

Limitazioni del machine learning tradizionale

Il ML tradizionale presenta le seguenti limitazioni:

  1. Limitata scalabilità: Questi modelli spesso hanno bisogno di aiuto per scalare con dataset numerosi e diversificati.
  2. Preelaborazione dei dati e ingegneria delle caratteristiche: Il ML tradizionale richiede una preelaborazione estensiva per trasformare i dataset secondo le esigenze del modello. Inoltre, l’ingegneria delle caratteristiche può richiedere tempo e richiede più iterazioni per catturare le complesse relazioni tra le caratteristiche dei dati.
  3. Dati ad alta dimensionalità e non strutturati: Il ML tradizionale ha difficoltà con tipi di dati complessi come immagini, audio, video e documenti.
  4. Adattabilità a dati non noti: Questi modelli potrebbero non adattarsi bene ai dati reali che non facevano parte dei loro dati di addestramento.

Reti neurali: Il passaggio dal machine learning al deep learning e oltre

Reti neurali: Il passaggio dal machine learning al deep learning e oltre

I modelli di rete neurale (NN) sono molto più complicati rispetto ai modelli tradizionali di apprendimento automatico. Il più semplice NN – Perceptron multi-strato (MLP) – è costituito da diversi neuroni collegati insieme per comprendere le informazioni e svolgere compiti, simile al funzionamento del cervello umano.

I progressi nelle tecniche di rete neurale hanno formato la base per passare dall’apprendimento automatico all’apprendimento profondo. Ad esempio, le NN utilizzate per i compiti di visione artificiale (rilevamento oggetti e segmentazione dell’immagine) vengono chiamate reti neurali convoluzionali (CNN), come AlexNet, ResNet e YOLO.

Oggi, la tecnologia generativa dell’IA sta portando le tecniche di rete neurale un passo avanti, consentendo loro di eccellere in vari ambiti dell’IA. Ad esempio, le reti neurali utilizzate per i compiti di elaborazione del linguaggio naturale (come la sintesi del testo, la risposta alle domande e la traduzione) sono conosciute come trasformatori. Tra i modelli di trasformatori di spicco ci sono BERT, GPT-4 e T5. Questi modelli stanno avendo un impatto su settori che vanno dalla sanità, al commercio al dettaglio, al marketing, alla finanza, ecc.

Abbiamo ancora bisogno dei tradizionali algoritmi di apprendimento automatico?

Abbiamo ancora bisogno dei tradizionali algoritmi di apprendimento automatico?

Nonostante le reti neurali e le loro varianti moderne come i trasformatori abbiano ricevuto molta attenzione, i metodi tradizionali di apprendimento automatico rimangono cruciali. Vediamo perché sono ancora rilevanti.

1. Requisiti di dati più semplici

Le reti neurali richiedono grandi quantità di dati per l’addestramento, mentre i modelli di apprendimento automatico possono ottenere risultati significativi con dataset più piccoli e più semplici. Pertanto, l’apprendimento automatico è preferito rispetto all’apprendimento profondo per dataset strutturati più piccoli e viceversa.

2. Semplicità e interpretabilità

I modelli tradizionali di apprendimento automatico si basano su modelli statistici e di probabilità più semplici. Ad esempio, una linea adattata nel regressione lineare stabilisce la relazione input-output utilizzando il metodo dei minimi quadrati, un’operazione statistica.

In modo simile, gli alberi decisionali utilizzano principi probabilistici per la classificazione dei dati. L’uso di tali principi offre interpretabilità e rende più facile per gli specialisti di intelligenza artificiale comprendere il funzionamento degli algoritmi di apprendimento automatico.

Le moderne architetture delle NN come i trasformatori e i modelli di diffusione (comunemente utilizzati per la generazione di immagini come Stable Diffusion o Midjourney) hanno una struttura di rete multistrato complessa. Comprendere tali reti richiede una comprensione di concetti matematici avanzati. Ecco perché vengono anche definite ‘scatole nere’.

3. Efficienza delle risorse

Le moderne reti neurali come i grandi modelli di linguaggio (LLM) vengono addestrate su cluster di costose GPU in base alle loro esigenze computazionali. Ad esempio, si dice che GPT4 sia stato addestrato su 25000 GPU Nvidia per 90-100 giorni.

Comunque, hardware costoso e tempi di formazione lunghi non sono fattibili per ogni praticante o team di intelligenza artificiale. D’altra parte, l’efficienza computazionale degli algoritmi tradizionali di apprendimento automatico consente agli operatori di ottenere risultati significativi anche con risorse limitate.

4. Non tutti i problemi richiedono l’apprendimento approfondito

L’apprendimento approfondito non è la soluzione assoluta per tutti i problemi. Esistono certi scenari in cui l’apprendimento automatico supera l’apprendimento approfondito.

Ad esempio, nella diagnosi e prognosi medica con dati limitati, un algoritmo di apprendimento automatico per la rilevazione delle anomalie come REMED fornisce risultati migliori rispetto all’apprendimento approfondito. Allo stesso modo, l’apprendimento automatico tradizionale è significativo in scenari con capacità computazionale limitata come soluzione flessibile ed efficiente.

In primo luogo, la scelta del miglior modello per qualsiasi problema dipende dalle esigenze dell’organizzazione o del praticante e dalla natura del problema stesso.

Apprendimento automatico nel 2023

Apprendimento automatico nel 2023

Immagine generata utilizzando Leonardo AI

Nel 2023, l’apprendimento automatico tradizionale continua a evolversi e compete con l’apprendimento approfondito e l’IA generativa. Ha diverse applicazioni nell’industria, in particolare quando si lavora con set di dati strutturati.

Ad esempio, molte aziende di beni di consumo in rapido movimento (FMCG) si occupano di grandi quantità di dati tabulari affidandosi ad algoritmi di apprendimento automatico per compiti critici come raccomandazioni di prodotti personalizzate, ottimizzazione dei prezzi, gestione dell’inventario e ottimizzazione della supply chain.

Inoltre, molti modelli di visione e linguaggio si basano ancora su tecniche tradizionali, offrendo soluzioni in approcci ibridi e applicazioni emergenti. Ad esempio, uno studio recente intitolato “Do We Really Need Deep Learning Models for Time Series Forecasting?” ha discusso come gli alberi di regressione basati su boost del gradiente (GBRT) siano più efficienti per la previsione delle seri storiche rispetto alle reti neurali profonde.

L’interpretabilità dell’apprendimento automatico rimane altamente preziosa con tecniche come SHAP (Shapley Additive Explanations) e LIME (Local Interpretable Model-agnostic Explanations). Queste tecniche spiegano modelli di apprendimento automatico complessi e forniscono approfondimenti sulle loro predizioni, aiutando così gli operatori di apprendimento automatico a comprendere ancora meglio i propri modelli.

Infine, l’apprendimento automatico tradizionale rimane una soluzione robusta per diverse industrie che affrontano la scalabilità, la complessità dei dati e i vincoli di risorse. Questi algoritmi sono irrinunciabili per l’analisi dei dati e la modellazione predittiva e continueranno a essere parte dell’arsenale di un data scientist.

Se argomenti come questi ti intrigano, esplora Unite AI per ulteriori approfondimenti.