Ricercatori del MIT scoprono nuove intuizioni sulle connessioni tra cervello e udito con modelli avanzati di reti neurali

Gli studiosi del MIT rivelano nuove prospettive sul legame tra cervello e udito grazie ai sofisticati modelli di reti neurali

In uno studio innovativo, i ricercatori del MIT si sono addentrati nel campo delle reti neurali profonde, mirando a svelare i misteri del sistema uditivo umano. Questa esplorazione non è solo un’impresa accademica, ma promette di far avanzare tecnologie come gli apparecchi acustici, gli impianti cocleari e le interfacce cervello-macchina. I ricercatori hanno condotto il più grande studio sulle reti neurali profonde addestrate per compiti uditivi, rivelando interessanti analogie tra le rappresentazioni interne generate da questi modelli e i modelli neurali osservati nel cervello umano durante esperienze uditive simili.

Per comprendere l’importanza di questo studio, è necessario prima afferrare il problema che si propone di affrontare. La sfida principale è decifrare la struttura e la funzionalità intricate del sistema uditivo umano, in particolare durante compiti uditivi diversi. Questa comprensione è essenziale per lo sviluppo di tecnologie che possono avere un impatto significativo sulla vita di individui con problemi uditivi o altre sfide uditive.

La base di questa ricerca si basa su lavori precedenti in cui le reti neurali sono state addestrate per svolgere specifici compiti uditivi, come il riconoscimento delle parole dai segnali audio. In uno studio condotto nel 2018, i ricercatori del MIT hanno dimostrato che le rappresentazioni interne generate da questi modelli mostrano somiglianze con i modelli neurali osservati nelle scansioni di risonanza magnetica funzionale (fMRI) di individui che ascoltano gli stessi suoni. Da allora, tali modelli hanno guadagnato un uso diffuso, spingendo il team di ricerca del MIT a valutarli in modo più completo.

Lo studio ha coinvolto un’analisi di nove modelli di reti neurali profonde disponibili pubblicamente, integrata dall’introduzione di 14 modelli aggiuntivi creati dai ricercatori del MIT basati su due architetture distinte. Questi modelli sono stati addestrati per vari compiti uditivi, che vanno dal riconoscimento delle parole all’identificazione degli altoparlanti, ai suoni ambientali e ai generi musicali. Due di questi modelli sono stati progettati per gestire contemporaneamente più compiti.

Ciò che distingue questo studio è l’esame dettagliato di quanto bene questi modelli approssimino le rappresentazioni neurali osservate nel cervello umano. I risultati indicano che le rappresentazioni interne generate dai modelli si allineano strettamente ai modelli osservati nel cervello uditivo umano, in particolare quando i modelli sono esposti a input uditivi che includono rumore di fondo. Questa scoperta ha implicazioni cruciali, poiché suggerisce che l’addestramento dei modelli con l’aggiunta di rumore rifletta più accuratamente le condizioni uditive del mondo reale, dove il rumore di fondo è ubiquo.

Approfondendo le complessità del metodo proposto, si intraprende un percorso affascinante. I ricercatori sottolineano l’importanza di addestrare i modelli nel rumore, affermando che i modelli esposti a compiti diversi e input uditivi con rumore di fondo generano rappresentazioni interne che assomigliano ai modelli di attivazione osservati nel sistema uditivo umano. Questo si allinea intuitivamente alle sfide incontrate in scenari uditivi del mondo reale, in cui le persone spesso si trovano di fronte a stimoli uditivi in mezzo a diversi livelli di rumore di fondo.

Lo studio supporta inoltre l’idea di un’organizzazione gerarchica all’interno del sistema uditivo umano. In sostanza, le fasi di elaborazione dei modelli riflettono funzioni computazionali distinte, con le prime fasi che si avvicinano strettamente ai modelli osservati nella corteccia uditiva primaria. Man mano che l’elaborazione avanza nelle fasi successive, le rappresentazioni assomigliano sempre di più ai modelli osservati nelle regioni cerebrali oltre la corteccia primaria.

Inoltre, lo studio evidenzia che i modelli addestrati per compiti diversi mostrano una capacità selettiva di spiegare specifiche proprietà di sintonizzazione nel cervello. Ad esempio, i modelli addestrati per compiti legati alla parola si allineano più strettamente con le aree selettive per la parola nel cervello. Questa sintonizzazione specifica del compito fornisce preziose intuizioni per adattare i modelli per replicare vari aspetti dell’elaborazione uditiva, offrendo una comprensione dettagliata di come il cervello reagisce a diversi stimoli uditivi.

In conclusione, l’ampia esplorazione del MIT sulle reti neurali profonde addestrate per compiti uditivi rappresenta un passo significativo verso lo sblocco dei segreti dell’elaborazione uditiva umana. Illuminando i benefici di addestrare i modelli nel rumore e osservando la sintonizzazione specifica del compito, la ricerca apre nuove possibilità per lo sviluppo di modelli più efficaci. Questi modelli hanno il potenziale per prevedere in modo accurato le risposte del cervello e il comportamento, aprendo la strada a una nuova era di progressi nel design degli apparecchi acustici, degli impianti cocleari e delle interfacce cervello-macchina. Lo studio pionieristico del MIT arricchisce la nostra comprensione dell’elaborazione uditiva e traccia una rotta verso applicazioni trasformative nella ricerca e nella tecnologia uditiva.