Gli strumenti AI medici possono commettere errori pericolosi. Il governo può aiutare a prevenirli?

Gli strumenti AI medici possono commettere errori pericolosi come il governo può aiutare a prevenirli?

I medici possono evitare di prendere appunti durante la visita di un paziente perché un sistema di intelligenza artificiale ascolterebbe e catturerebbe le informazioni. ¶ Credito: Doug Barrett / The Wall Street Journal

L’amministrazione Biden ha proposto un sistema di etichettatura per le applicazioni di intelligenza artificiale (IA) nel campo della sanità che mira a garantirne la sicurezza.

L’etichetta “informazioni nutrizionali” dettaglierebbe come le app sono state addestrate e testate, come si comportano, i loro usi previsti e le misure di “validità ed equità”.

Le aziende sanitarie e tecnologiche si oppongono alla norma per timore che ostacoli la concorrenza e comprometta le informazioni proprietarie.

La proposta dell’Ufficio del Coordinatore Nazionale per la Tecnologia delle Informazioni Sanitarie (ONC) del Dipartimento della Salute e dei Servizi Umani degli Stati Uniti potrebbe essere finalizzata entro la fine dell’anno.

I sostenitori delle etichette dicono che consentirebbero ai fornitori di evitare strumenti di intelligenza artificiale che hanno una performance scadente o non sono adatti a un caso specifico. Da The Wall Street Journal Visualizza l’articolo completo – Potrebbe essere necessaria una sottoscrizione a pagamento

Abstracts Copyright © 2023 SmithBucklin, Washington, D.C., USA