Gli strumenti AI medici possono commettere errori pericolosi. Il governo può aiutare a prevenirli?
Gli strumenti AI medici possono commettere errori pericolosi come il governo può aiutare a prevenirli?
L’amministrazione Biden ha proposto un sistema di etichettatura per le applicazioni di intelligenza artificiale (IA) nel campo della sanità che mira a garantirne la sicurezza.
L’etichetta “informazioni nutrizionali” dettaglierebbe come le app sono state addestrate e testate, come si comportano, i loro usi previsti e le misure di “validità ed equità”.
Le aziende sanitarie e tecnologiche si oppongono alla norma per timore che ostacoli la concorrenza e comprometta le informazioni proprietarie.
La proposta dell’Ufficio del Coordinatore Nazionale per la Tecnologia delle Informazioni Sanitarie (ONC) del Dipartimento della Salute e dei Servizi Umani degli Stati Uniti potrebbe essere finalizzata entro la fine dell’anno.
- Aiutare i Veicoli Autonomi a Prendere Decisioni Morali Abbandonando il Problema del Carrello
- New York ha pianificato di investire 1 miliardo di dollari per espandere la ricerca sui chip.
- Interpretazione geometrica della regressione lineare in Machine Learning rispetto alla statistica classica
I sostenitori delle etichette dicono che consentirebbero ai fornitori di evitare strumenti di intelligenza artificiale che hanno una performance scadente o non sono adatti a un caso specifico. Da The Wall Street Journal Visualizza l’articolo completo – Potrebbe essere necessaria una sottoscrizione a pagamento
Abstracts Copyright © 2023 SmithBucklin, Washington, D.C., USA