I sei principi per un utilizzo etico dell’IA per l’Healthcare secondo l’OMS

I sei principi per un utilizzo etico dell’IA per l’Healthcare secondo l’OMS
23 Luglio 2021 – 12:19

L’Intelligenza artificiale, nel settore dell’Healthcare, possiede un enorme potenziale: rafforzamento della fornitura di assistenza sanitaria e di medicine, miglioramento della diagnosi e dell’assistenza clinica, efficientamento della ricerca sanitaria e sviluppo di farmaci sono solo alcuni dei campi nei quali l’IA, quando ben applicata, può fare realmente la differenza.
Tuttavia, come per ogni sviluppo tecnologico, a fare la differenza – in qualsiasi campo – non è tanto la tecnologia in sé, quanto il modo in cui questa viene utilizzata. Un concetto, questo, particolarmente sentito quando si parla di Intelligenza artificiale e che, quando è associato ad un settore fondamentale come quello della salute e del benessere della collettività, assume un’importanza ancora maggiore. Per questo motivo, affinché possa avere un impatto concreto in termini di benefici che potenzialmente è in grado di apportare, è necessario mettere i diritti umani e le considerazioni etiche al centro della progettazione, dello sviluppo e della diffusione delle tecnologie dell’Intelligenza artificiale per la salute: è questo il principio che ha guidato l’OMS – Organizzazione Mondiale della Sanità – nella realizzazione del documento “Ethics and Governance of Artificial Intelligence for Health” che, attraverso il lavoro con un gruppo di esperti, ha portato all’identificazione di sei princìpi chiave per promuovere l’utilizzo etico dell’IA per la salute:

Proteggere l’autonomia umana;
Promuovere il benessere umano, la sicurezza umana e l’interesse pubblico;
Garantire la trasparenza, la chiarezza e l’intelligibilità;
Promuovere la responsabilità e l’accountability;
Garantire inclusività ed equità;
Promuovere un’IA reattiva e sostenibile.

“Quello dell’utilizzo dell’Intelligenza artificiale in Sanità è un tema fondamentale: l’AI ha un potenziale di sviluppo enorme, gli ambiti di utilizzo sono moltissimi e l’offerta è persino sovrabbondante rispetto alla reale capacità di adozione da parte delle strutture sanitarie pubbliche e private italiane, molte delle quali si trovano ancora indietro nella loro digitalizzazione “di base” – commenta Paolo Colli Franzone, Presidente Istituto per il Management dell’Innovazione in Sanità e Responsabile del canale Healthcare2030 di Tech Economy 2030 – Questo rapporto è prezioso, in quanto illustra puntualmente i nodi e le cose da fare per predisporre un terreno fertile sul quale potranno nascere progettualità interessanti, rimanendo nei binari dell’eticamente corretto”.
1. Proteggere l’autonomia umana
L’utilizzo dell’Intelligenza artificiale può portare in situazioni nelle quali il processo decisionale potrebbe essere trasferito alle macchine. In questo senso, il principio dell’autonomia, specifica l’OMS, richiede che qualsiasi estensione dell’autonomia della macchina non vada a pregiudicare l’autonomia umana: questo, in particolare nell’assistenza sanitaria, significa che gli esseri umani dovrebbero mantenere il pieno controllo dei sistemi sanitari e delle decisioni mediche.
Ciò significa che i sistemi di IA dovrebbero essere progettati per fornire assistenza agli esseri umani nel prendere decisioni consapevoli e informate; in questo contesto la supervisione umana è quindi necessaria, così come la discrezionalità rispetto alla scelta se utilizzare o meno un sistema di Intelligenza artificiale per una particolare decisione, limitando l’autonomia della macchina.
“Nuova conoscenza, nascosta nei dati e fatta emergere dai sistemi di IA, può essere elaborata dall’essere umano, sfruttando competenze, intuizioni e meccanismi di ragionamento che non possono essere codificate negli algoritmi – spiega Tiziana Catarci, Direttrice del DIAG alla Sapienza, Università di Roma – Per esempio, consideriamo un sistema di IA usato per prevedere il rischio di mortalità per pazienti con polmonite. Una delle regole “scoperte” dal sistema suggerisce che avere l’asma potrebbe abbassare il rischio di morte per polmonite. Il medico capisce che i pazienti con asma sono stati sottoposti a trattamenti più aggressivi e questo ha portato a risultati migliori”.
Inoltre, il rispetto dell’autonomia comporta doveri di tutela della privacy, e l’assicurare un valido consenso informato attraverso adeguati quadri normativi per la protezione dei dati. Le leggi sulla protezione dei dati, si legge nel rapporto, rappresentano uno strumento fondamentale per salvaguardare i diritti individuali e porre vincoli ai responsabili del trattamento di tali dati, e poiché l’apprendimento automatico li richiede in grandi quantità, queste leggi sono sempre più importanti.
2. Promuovere il benessere umano, la sicurezza umana e l’interesse pubblico
Il secondo principio individuato si basa sul fondamentale assunto che le tecnologie di Intelligenza artificiale non dovrebbero mai danneggiare le persone: per questo motivo, dovrebbero soddisfare i requisiti normativi per la sicurezza, l’accuratezza e l’efficacia prima della loro distribuzione.
In questo senso, è necessaria una misurazione ed un monitoraggio costante delle prestazioni degli algoritmi di intelligenza artificiale, per garantire che le tecnologie dell’IA funzionino come dovrebbero, e per valutare se queste hanno un impatto negativo sui pazienti.
3. Garantire la trasparenza, la chiarezza e l’intelligibilità
L’Intelligenza artificiale dovrebbe sempre essere comprensibile, per gli sviluppatori, per gli utenti e per le autorità di regolamentazione. La trasparenza, quindi, come sottolinea il report OMS, richiede che vengano pubblicate o documentate informazioni sufficienti prima della progettazione e dell’implementazione di una tecnologia IA, e tali informazioni dovrebbero facilitare una consultazione ed un dibattito pubblico su come è stata progettata e sulle modalità con le quali dovrebbe essere utilizzata: informazioni che, poi, dovrebbero continuare ad essere pubblicate con regolarità e tempestività dopo che una tecnologia di IA è stata approvata per l’utilizzo. Tra le informazioni necessarie alla trasparenza, si legge, dovrebbero esserci quelle riguardanti i presupposti e i limiti della tecnologia, sui protocolli operativi, le proprietà dei dati – metodi di raccolta, elaborazione ed etichettatura – e sullo sviluppo del modello algoritmico.
Inoltre, le tecnologie dell’Intelligenza artificiale dovrebbero essere spiegabili: in questo senso, coloro che potrebbero richiedere una spiegazione dovrebbero poter essere efficacemente informati, ed è importante che le informazioni siano adeguatamente adattate a ciascuna popolazione.
4. Promuovere la responsabilità e l’accountability
Le tecnologie di Intelligenza artificiale svolgono dei compiti specifici, ed è necessario precisare, in maniera chiara e trasparente, quali compiti possono svolgere, e in quali condizioni possono raggiungere il livello di prestazioni desiderato: è responsabilità umana garantire che possano svolgere tali compiti, e che vengano usate nelle condizioni adeguate.
Come spiegato nel rapporto, la responsabilità può essere assicurata dall’applicazione della “garanzia umana”, che richiede una valutazione da parte di pazienti e medici nello sviluppo e nell’implementazione delle tecnologie di IA: in questo senso, i principi normativi vengono applicati a monte e a valle dell’algoritmo, stabilendo punti di supervisione umana, questi ultimi individuati dal confronto tra professionisti, pazienti e progettisti. Quando qualcosa va storto nell’applicazione di una tecnologia di Intelligenza artificiale, è necessario che siano chiare le responsabilità: ciò implica, allo stesso tempo, anche l’adozione di adeguati meccanismi di tutela per gli individui, o i gruppi, impattati negativamente dalle decisioni informate dagli algoritmi.
5. Garantire inclusività ed equità
Per inclusività, si intende la necessità che l’Intelligenza artificiale utilizzata nell’assistenza sanitaria venga progettata in modo da incoraggiare un accesso ampio ed equo, indipendentemente da età, sesso, reddito, abilità o altri fattori, senza alcun tipo di barriera.
Secondo questo quinto principio, le tecnologie dell’IA dovrebbero quindi essere progettate e valutate con la partecipazione attiva di coloro che dovranno utilizzare il sistema, e questi partecipanti dovrebbero essere adeguatamente diversificati. I rischi nella progettazione e nell’utilizzo sono importanti, e di questo gli sviluppatori dell’IA devono essere ben consapevoli, rispetto ai potenziali danni che i pregiudizi potrebbero apportare agli individui e alla società: per questo, sottolinea il rapporto, è fondamentale garantire che i dati dell’Intelligenza artificiale, e in particolare i dati di addestramento, non includano bias di campionamento, e che siano invece accurati, completi e diversificati. Gli effetti dell’utilizzo dell’IA devono essere quindi monitorati e valutati, soprattutto riguardo gli effetti sproporzionati su specifici gruppi di persone, in modo da evitare l’estensione di forme esistenti di pregiudizio e disuguaglianza.
6. Promuovere un’IA reattiva e sostenibile
La reattività richiede che i progettisti, gli sviluppatori e gli utenti valutino in modo sistematico e trasparente se una determinata tecnologia IA stia rispondendo in modo appropriato, e secondo le aspettative ed i requisiti del contesto nel quale viene utilizzata: perciò, qualora questa si riveli inefficace o generatrice di insoddisfazione, la necessità di reattività richiede la risoluzione del problema, che può includere la cessazione del suo utilizzo.
Inoltre, specifica il rapporto, quello della sostenibilità è un tema altrettanto importante. Infatti, i sistemi di IA dovrebbero essere progettati in modo tale da ridurre al minimo la loro impronta ecologica ed incrementare l’efficienza energetica: in sostanza, l’uso dell’Intelligenza artificiale deve essere in linea con gli sforzi generali relativi alla riduzione dell’impatto umano sull’ambiente, sugli ecosistemi e sul clima.
L’Intelligenza artificiale è quindi una tecnologia dall’enorme potenziale, ma allo stesso tempo – potenzialmente – problematica: per questo la sua progettazione, e ovviamente il suo utilizzo, deve essere gestito con attenzione. Ma, com’è noto, la tecnologia di per sé non è né buona, né cattiva: i suoi effetti dipendono dall’utilizzo che ne viene fatto, e dal contesto sociale nel quale si sviluppa, e che contribuisce a fare la differenza. Quindi, perché l’IA possa esprimere davvero il proprio potenziale, contribuendo al benessere e alla salute della società e al raggiungimento di uno sviluppo che sia realmente sostenibile, non si può e non si deve guardare alla sola innovazione ma, come evidenziato dall’OMS, anche – e soprattutto – all’etica ed ai diritti umani.
L’articolo I sei principi per un utilizzo etico dell’IA per l’Healthcare secondo l’OMS è stato pubblicato originariamente su Tech Economy 2030 – Digital transformation for sustainability.

Fonte: Techeconomy

Utilizzando il sito, accetti l'utilizzo dei cookie da parte di BestAll. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi