Ricercatori hanno sviluppato un nuovo metodo di intelligenza artificiale senza marker per tracciare le posture degli uccelli in 3D utilizzando registrazioni video

Ricercatori hanno sviluppato un nuovo metodo di IA senza marker per tracciare le posture degli uccelli in 3D tramite video

Tracciare il comportamento, lo sguardo e i movimenti di animali e uccelli a livello di dettaglio è stato un compito sfidante per i ricercatori, in quanto vi è ancora scarsità di dataset di grandi dimensioni di immagini annotate di animali per il tracciamento della posizione senza marker, prese da molteplici angolazioni con annotazioni 3D accurate. La complessità dell’osservare e comprendere il comportamento intricato di uccelli e animali ha portato a uno sforzo globale nel concepire metodi di tracciamento innovativi.

Per affrontare questa sfida, i ricercatori del Cluster of Excellence Center for the Advanced Study of Collective Behavior (CASCB) presso l’Università di Konstanz hanno sviluppato un dataset per avanzare nella ricerca comportamentale. Con questo metodo senza marker, hanno reso possibile tracciare i comportamenti dettagliati di singoli uccelli e osservarne i movimenti.

Questo team di ricerca è riuscito con successo a creare un metodo senza marker per identificare e tracciare le posture degli uccelli con l’aiuto di registrazioni video. Hanno chiamato questo metodo 3D-POP (3D Posture of Pigeons). Attraverso questo metodo, è possibile registrare il video di piccioni e identificare facilmente lo sguardo e il comportamento di ogni uccello individuale. Pertanto, non è più necessario attaccare trasmettitori di movimento agli animali per tracciare e identificare gli uccelli.

Inoltre, il dataset ha permesso ai ricercatori di studiare collettivamente i modelli comportamentali degli uccelli utilizzando solo due telecamere. I ricercatori hanno sfruttato il fatto che, per gli uccelli, tracciando le orientazioni della testa e del corpo, molti comportamenti chiave come l’alimentazione (beccare il terreno), la pulizia, la vigilanza (scansione della testa), il corteggiamento (inchinarsi della testa) o la camminata possono essere quantificati.

I ricercatori che hanno formulato questo metodo 3D-POP hanno incluso registrazioni video di 18 piccioni unici in gruppi di dimensioni diverse: 1, 2, 5 e 10, da molte diverse e varie prospettive. Hanno inoltre fornito un riferimento per l’identità, le traiettorie 2D-3D e il mappaggio delle posture 2D-3D per tutti gli individui nell’intero dataset di 300.000 frame. Il dataset formulato includeva anche annotazioni per la rilevazione degli oggetti sotto forma di bounding box.

I ricercatori hanno raccolto il dataset da piccioni che si muovevano su una stoffa di iuta (3,6 m x 4,2 m). Hanno poi sparpagliato granaglie su questa stoffa per incoraggiare i piccioni a nutrirsi in quell’area di stoffa. Quell’area di alimentazione era situata all’interno di un grande recinto dotato di un sistema di motion capture (15 m x 7 m x 4 m). Il sistema di motion capture era composto da 30 telecamere di motion capture (12 Vicon Vero 2.2, 18 telecamere Vicon Vantage-5; 100Hz). Ai angoli dell’area di alimentazione, hanno posizionato 4 telecamere Sony ad alta risoluzione (4K) montate su treppiedi standard e una scatola di sincronizzazione basata su Arduino che lampeggia luci a LED RGB e infrarossi ogni 5 secondi. Questi 18 piccioni sono stati sottoposti a sperimentazione per 6 giorni. Hanno selezionato casualmente 10 piccioni al giorno per la sperimentazione.

Questo metodo si sta rivelando utile nel tracciare il comportamento, lo sguardo e i movimenti dettagliati degli animali. I ricercatori hanno suggerito che questo metodo di annotazione può essere utilizzato anche con altri uccelli o altri animali in modo che i ricercatori possano studiare e analizzare il comportamento di altri animali.