Integrare l’errore umano nell’apprendimento automatico

Integrating human error in machine learning

I ricercatori hanno scoperto che l'addestramento con etichette incerte può migliorare le prestazioni di questi sistemi nel gestire feedback incerti. ¶ Credito: PeopleImages/Getty Images

Scienziati dell’Università di Cambridge nel Regno Unito, l’Istituto Alan Turing, l’Università di Princeton e Google DeepMind stanno incorporando l’incertezza nei sistemi di apprendimento automatico (Machine Learning, ML)

I ricercatori hanno utilizzato set di dati di classificazione delle immagini consolidati in modo che gli esseri umani potessero fornire feedback e valutare il loro livello di incertezza durante l’annotazione di immagini specifiche.

Hanno scoperto che i sistemi possono gestire meglio i feedback incerti quando vengono addestrati con etichette incerte, anche se le loro prestazioni complessive diminuiscono rapidamente con il feedback umano.

Matthew Barker di Cambridge ha dichiarato: “Stiamo cercando di collegare la ricerca comportamentale e l’apprendimento automatico in modo che l’apprendimento automatico possa iniziare a gestire l’incertezza umana in cui gli esseri umani fanno parte del sistema”. Dall’Università di Cambridge (Regno Unito) Visualizza l’articolo completo

Abstract Copyright © 2023 SmithBucklin, Washington, D.C., USA