Integrare l’errore umano nell’apprendimento automatico
Integrating human error in machine learning
Scienziati dell’Università di Cambridge nel Regno Unito, l’Istituto Alan Turing, l’Università di Princeton e Google DeepMind stanno incorporando l’incertezza nei sistemi di apprendimento automatico (Machine Learning, ML)
I ricercatori hanno utilizzato set di dati di classificazione delle immagini consolidati in modo che gli esseri umani potessero fornire feedback e valutare il loro livello di incertezza durante l’annotazione di immagini specifiche.
Hanno scoperto che i sistemi possono gestire meglio i feedback incerti quando vengono addestrati con etichette incerte, anche se le loro prestazioni complessive diminuiscono rapidamente con il feedback umano.
Matthew Barker di Cambridge ha dichiarato: “Stiamo cercando di collegare la ricerca comportamentale e l’apprendimento automatico in modo che l’apprendimento automatico possa iniziare a gestire l’incertezza umana in cui gli esseri umani fanno parte del sistema”. Dall’Università di Cambridge (Regno Unito) Visualizza l’articolo completo
- Una breve introduzione ai modelli linguistici open source di grandi dimensioni
- 5 Modi Pratici di Utilizzare l’Intelligenza Artificiale Che Puoi Usare Anche Tu
- Arricchire ERP e grandi aziende con l’IA generativa Passo 1 del framework
Abstract Copyright © 2023 SmithBucklin, Washington, D.C., USA