Chi insegna alle macchine a compiere scelte etiche? 

Lug 2, 2024 | Innovazione, Scritti per noi, Tecnologie

Riconoscere il ruolo centrale degli esseri umani nel funzionamento della filiera, che viene tenuto celato per alimentare la magia dell’automazione, è un passaggio indispensabile quando si parla di qualità delle scelte compiute dalla macchina

di Chiara Mannelli*

Nel 1769 Wolfang von Kempelen costruì il famoso “Turco Meccanico”, un giocatore automatico di scacchi. Il “Turco” era composto da una ampia struttura dotata di ingranaggi sopra la quale era stato posto un fantoccio con un turbante, provvisto di una scacchiera. L’abilità del giocatore automatico di scacchi suscitò profondo interesse e grande ammirazione all’epoca, tanto che venne invitato presso le corti di tutta Europa. In pochi sapevano che l’automazione del “Turco” fosse completamente fittizia. Un essere umano di piccola statura e abile nel gioco era sistemato tra gli ingranaggi così da simulare la magia dell’automazione.

L’aura di ammirazione che, tempo fa, aleggiava intorno alla figura del “Turco Meccanico” ricorda quella da cui oggi sono avvolte le intelligenze artificiali che vengono narrate e, conseguentemente, percepite come macchine molto potenti, autonome e infallibili. 

Si pensa comunemente all’intelligenza artificiale come ad una realtà imparziale e nettamente separata dalla fallibilità umana. Ma la filiera dell’intelligenza artificiale è molto meno effimera di ciò che si pensi, in quanto affonda le sue radici nella materialità e nel lavoro dell’essere umano. Le attività condotte dall’intelligenza artificiale hanno frequentemente una componente umana indispensabile al loro funzionamento, tanto che alcuni commentatori hanno parlato di “human-fueled automation”1. In molti casi è, infatti, l’essere umano a rappresentare il “motore” della filiera, proprio come il giocatore che, nascosto tra gli ingranaggi, faceva muovere al fantoccio i pezzi sulla scacchiera. Ad esempio, per “addestrare” l’intelligenza artificiale a riconoscere una “mela” le verranno sottoposte moltissime immagini diverse che ritraggono il frutto. La macchina apprenderà in “autonomia” e sarà, poi, in grado di riconoscere immagini di mele che non le erano state sottoposte in precedenza. Tuttavia, occorre evidenziare che questo processo si basa su un lavoro preliminare indispensabile. Infatti, sono necessari degli esseri umani per etichettare le immagini delle “mele” da sottoporre all’intelligenza artificiale per il suo addestramento. Senza questa premessa, i “dataset” necessari per l’addestramento delle macchine non potrebbero essere disponibili.

Conoscere e ri-conoscere, dunque, il ruolo centrale degli esseri umani nel funzionamento della filiera, che viene normalmente tenuto celato per alimentare la magia dell’automazione, è un passaggio indispensabile quando si parla di qualità delle scelte compiute dalla macchina. Non possiamo dimenticare, infatti, che l’operato della macchina è strettamente legato alla qualità e alla rappresentatività dei dati che le sono stati forniti durante l’addestramento. Se i dati impiegati per l’addestramento sono distorti, scarsamente rappresentativi della popolazione sulla quale poi andranno applicati, o contengono “bias” (pregiudizi) questi “difetti” vengono assorbiti dalla macchina e amplificati nel suo operato, con un potenziale discriminatorio devastante. Questo problema è particolarmente rilevante negli ambiti, come quello sanitario, sociale e giuridico, dove l’operato delle macchine può avere conseguenze dirette sulla vita delle persone. In base a cosa decidono le macchine? Sicuramente, la rappresentatività del campione di dati che vengono impiegati per l’addestramento avrà una conseguenza diretta sui processi delle macchine e sulla possibilità di applicare in maniera equa il loro operato. Immaginiamo, in ambito sanitario, un software per la diagnosi dei tumori della pelle che è stato “addestrato” su immagini appartenenti a pazienti con la pelle di colore chiaro. Il software, una volta completato l’addestramento, si rivelerà accurato nella diagnosi di pazienti con un colore della pelle simile, o molto simile, a quello del campione utilizzato per il suo addestramento. Diversamente, l’operato del software sarà meno affidabile e meno accurato se applicato su una popolazione con un colore della pelle che si discosta dal campione utilizzato nel corso dell’addestramento. La scarsa rappresentatività del campione nella fase di addestramento della macchina può avere, dunque, delle ricadute discriminatorie sulla popolazione che utilizzerà quella tecnologia. Ricadute, queste, che spesso colpiscono le fasce di popolazione più fragili o marginalizzate, contribuendo ad esacerbare disparità già esistenti in termini economici, sociali e culturali. Occorre evidenziare che questo rischio non è limitato all’ambito sanitario ma, anzi, permea tutte le realtà in cui l’intelligenza artificiale può essere applicata come, ad esempio, le procedure relative alla concessione di mutui, alla stipula di assicurazioni, alle selezioni per le assunzioni lavorative.

La presenza di dati poco rappresentativi o inesatti nell’addestramento dell’intelligenza artificiale è resa ancora più problematica dall’opacità propria dei processi che compiono alcune intelligenze artificiali. Può capitare, infatti, che nemmeno gli sviluppatori siano in grado di percorrere a ritroso il processo compiuto dalla macchina per giungere a una determinata conclusione. Questo effetto, chiamato “Black Box”, rende ancora più complesso individuare la possibile presenza di errori, di dati distorti o errati nell’operato dell’intelligenza artificiale.

Il contributo dell’intelligenza artificiale può essere prezioso in numerosi ambiti, come quello sanitario, ma non è scevro di potenziali rischi. Fra questi, il più pericoloso è considerare l’intelligenza artificiale come una realtà in grado di elaborare prodotti perfetti, in contrapposizione alla fallibilità dell’essere umano. Acquisire consapevolezza del fatto che i processi seguiti dalle macchine nel loro operato non siano sempre neutri ed esatti costituisce il primo passo per contribuire ad uno sviluppo responsabile, etico ed equo dello straordinario potenziale legato all’intelligenza artificiale, affinché possa rappresentare, non solamente in ambito sanitario, un beneficio per tutti, senza disparità.

*Ricercatrice, Unità di Bioetica, Istituto Superiore di Sanità

(Panorama della Sanità 3-2024)

STUDI/RICERCHE 

Lea, 8 Regioni sotto la sufficienza

Lea, 8 Regioni sotto la sufficienza

Pubblicata la Relazione 2022 sul Monitoraggio dei Livelli essenziali di assistenza attraverso il Nuovo Sistema di Garanzia del ministero della Salute

FARMACI 

E ANCORA

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Il “Carbon Footprint” degli ospedali

Non esiste solo il bisogno di creare una “coscienza ambientale” nei pazienti e nei loro medici, ma è una necessità che deve essere condivisa anche da chi dirige la sanità. Il settore è ancora in una fase del “fai da te”

di Daniela Pedrini, Simona Ganassi Agger

enterprice

ENTERPRISE

AziendePersone&Mercato

Diversità, equità e inclusione

Diversità, equità e inclusione

Sanofi consolida il suo impegno con un’ulteriore certificazione che conferma i risultati dell’azienda in termini di uguaglianza di genere

SAVE THE DATE

SAVE THE DATE

Congressi&Convegni