Aiutare i modelli di visione artificiale e linguaggio a capire ciò che vedono

Aiutare i modelli di visione artificiale e linguaggio a comprendere ciò che vedono

I ricercatori utilizzano dati sintetici per migliorare la capacità di un modello di comprendere informazioni concettuali, il che potrebbe migliorare i sistemi di sottotitolazione automatica e di risposta alle domande.

I ricercatori del MIT hanno creato un nuovo set di dati sintetici annotati di immagini che rappresentano una vasta gamma di scenari, che possono essere utilizzati per aiutare i modelli di apprendimento automatico a comprendere i concetti in una scena.