Lo studio decodifica l’approccio sorprendente che i topi adottano nell’apprendimento

The study decodes the surprising approach mice take in learning.

.fav_bar { float:left; border:1px solid #a7b1b5; margin-top:10px; margin-bottom:20px; } .fav_bar span.fav_bar-label { text-align:center; padding:8px 0px 0px 0px; float:left; margin-left:-1px; border-right:1px dotted #a7b1b5; border-left:1px solid #a7b1b5; display:block; width:69px; height:24px; color:#6e7476; font-weight:bold; font-size:12px; text-transform:uppercase; font-family:Arial, Helvetica, sans-serif; } .fav_bar a, #plus-one { float:left; border-right:1px dotted #a7b1b5; display:block; width:36px; height:32px; text-indent:-9999px; } .fav_bar a.fav_print { background:url(‘/images/icons/print.gif’) no-repeat 0px 0px #FFF; } .fav_bar a.fav_print:hover { background:url(‘/images/icons/print.gif’) no-repeat 0px 0px #e6e9ea; } .fav_bar a.mobile-apps { background:url(‘/images/icons/generic.gif’) no-repeat 13px 7px #FFF; background-size: 10px; } .fav_bar a.mobile-apps:hover { background:url(‘/images/icons/generic.gif’) no-repeat 13px 7px #e6e9ea; background-size: 10px} .fav_bar a.fav_de { background: url(/images/icons/de.gif) no-repeat 0 0 #fff } .fav_bar a.fav_de:hover { background: url(/images/icons/de.gif) no-repeat 0 0 #e6e9ea } .fav_bar a.fav_acm_digital { background:url(‘/images/icons/acm_digital_library.gif’) no-repeat 0px 0px #FFF; } .fav_bar a.fav_acm_digital:hover { background:url(‘/images/icons/acm_digital_library.gif’) no-repeat 0px 0px #e6e9ea; } .fav_bar a.fav_pdf { background:url(‘/images/icons/pdf.gif’) no-repeat 0px 0px #FFF; } .fav_bar a.fav_pdf:hover { background:url(‘/images/icons/pdf.gif’) no-repeat 0px 0px #e6e9ea; } .fav_bar a.fav_more .at-icon-wrapper{ height: 33px !important ; width: 35px !important; padding: 0 !important; border-right: none !important; } .a2a_kit { line-height: 24px !important; width: unset !important; height: unset !important; padding: 0 !important; border-right: unset !important; border-left: unset !important; } .fav_bar .a2a_kit a .a2a_svg { margin-left: 7px; margin-top: 4px; padding: unset !important; }

Neuroscienziati hanno scoperto che quando i topi si trovano di fronte a un compito in cui la strategia ottimale è inferire una regola stabile (simboleggiata dalla lampadina), i topi imparano a farlo ma non abbandonano mai completamente la strategia alternativa. ¶ Credito: David Orenstein/Picower Institute/Adobe Stock

Neuroscienziati del Massachusetts Institute of Technology (MIT) hanno studiato il comportamento dei topi in una situazione di apprendimento e ricompensa, con l’obiettivo di insegnare ai topi a girare una ruota a sinistra o a destra per ricevere una ricompensa.

Nel compito, il lato ricompensato cambiava ogni 15-25 giri.

Il team si è reso conto che i topi utilizzavano più di una strategia in ogni “blocco” del gioco.

Per separare la strategia utilizzata, il team ha utilizzato un Modello di Markov Nascosto (HMM), che può determinare computazionalmente quando uno stato invisibile sta producendo un risultato rispetto a un altro stato invisibile.

Il team ha prima dovuto adattare l’HMM per spiegare le transizioni di scelta nel corso dei blocchi.

Le simulazioni computazionali delle prestazioni delle attività utilizzando l’algoritmo adattato “blockHMM” hanno mostrato che l’algoritmo è in grado di dedurre gli stati nascosti reali di un agente artificiale.

Gli autori hanno quindi utilizzato questa tecnica per dimostrare che i topi miscelano persistentemente diverse strategie, raggiungendo livelli di prestazioni variabili. Dal punto di vista di MIT News, leggi l’articolo completo

Diritti d’autore degli abstract © 2023 SmithBucklin, Washington, D.C., USA