Un modello di fondazione per immagini satellitari

Un modello innovativo per le immagini satellitari

Il modello di base Prithvi-100M IBM Geospatial AI per i dati di osservazione della Terra della NASA

Immagine satellitare della Laguna di Karavasta in Albania, 2017. Credito immagine: https://www.esa.int/var/esa/storage/images/esa_multimedia/images/2017/03/karavasta_lagoon_albania/16854373-1-eng-GB/Karavasta_Lagoon_Albania.jpg. Contiene dati modificati del Satellite Copernicus Sentinel.

I modelli di base sono algoritmi di deep learning flessibili progettati per compiti generali, anziché essere immediatamente focalizzati su compiti specifici. Allenati su grandi quantità di dati non etichettati, possono essere applicati a una varietà di compiti successivi con una sintonizzazione minima. I modelli di base sono ben noti nel campo dell’elaborazione del linguaggio naturale (BERT, GPT-x) e nell’elaborazione delle immagini (DALL-E).

Nel agosto 2023, NASA e IBM hanno rilasciato il modello di base Prithvi-100M Geospatial AI Foundation Model per i dati di osservazione della Terra della NASA. Il modello è disponibile in open source su Huggingface con il nome di Prithvi, la dea induista della Madre Terra. È stato allenato su dati satellitari NASA — secondo IBM, sono disponibili oltre 250 petabyte di dati.

In questo post del blog, discuteremo

  • Il dataset armonizzato NASA Sentinel-2 Landsat utilizzato per l’addestramento,
  • L’architettura del modello di base Prithvi-100M Geospatial AI,
  • Il processo di addestramento sul supercomputer Vela di IBM,
  • Applicazioni di esempio: alluvioni ed identificazione del tipo di coltura.

Dati di addestramento

Il Modello di base Geospatial AI è stato addestrato su dati Harmonized LandSat Sentinel-2 della NASA.

Sentinel-2 è una missione satellitare coordinata dall’Agenzia Spaziale Europea, con due satelliti attualmente in orbita che acquisiscono immagini ad alta risoluzione della Terra. Si concentra sulla terra, le aree costiere e le acque aperte selezionate. I satelliti Landsat sono stati lanciati dalla NASA per registrare la riflessione della superficie. I dati armonizzati combinano l’input da entrambi i sensori, ottenendo una risoluzione spaziale di circa 30 metri e un tempo medio di ripresa di due o tre giorni. Questa risoluzione è sufficiente per il monitoraggio agricolo, la classificazione dell’uso del suolo e la rilevazione dei disastri naturali.

Le fotografie standard sono composte da tre colori: rosso, verde e blu. I dati di Sentinel-2 sono disponibili in un totale di 13 “colori”, chiamati bande, che coprono il range spettrale dell’infrarosso vicino e infrarosso a onda corta. Le bande selezionate possono essere utilizzate per identificare diverse cose, ad esempio l’infrarosso…