Intelligenza artificiale e medicina

POSSIAMO FIDARCI DI UN ALGORITMO?

Quando la tecnologia entra in corsia, la cura cambia volto. Ma il rapporto di fiducia resta umano?

Redazione Inchiostronero

L’intelligenza artificiale è sempre più presente nella medicina: analizza immagini, suggerisce diagnosi, personalizza terapie, e persino dialoga con i pazienti. Ma cosa succede quando una macchina entra nello spazio più delicato che esista — quello della cura? In questo post esploriamo i vantaggi dell’IA in ambito sanitario, ma anche i limiti, i rischi e le domande aperte. Possiamo fidarci di un algoritmo come ci fidiamo di un medico? Chi è responsabile quando un sistema automatico sbaglia? E cosa succede se l’intelligenza artificiale non sa dire «non lo so»? Tra casi reali, riflessioni etiche e citazioni da chi la medicina la vive e la scrive, questo articolo è un invito a costruire una fiducia nuova — non cieca, ma consapevole.


Introduzione 

L’intelligenza artificiale è sempre più presente negli ospedali e negli ambulatori: aiuta i medici a fare diagnosi, suggerisce terapie su misura, analizza immagini cliniche, e in alcuni casi parla direttamente con i pazienti. Non è più una tecnologia da film di fantascienza o da laboratorio, ma uno strumento concreto che entra nella nostra vita reale, anche quando siamo fragili e abbiamo bisogno di cure. Ma possiamo davvero fidarci di un algoritmo quando si tratta della nostra salute? La medicina, da sempre, si basa su un rapporto di fiducia tra persone: tra chi cura e chi si affida. Un rapporto fatto di parole, emozioni, ascolto. Cosa succede quando a questo rapporto si aggiunge una macchina? Il rischio è che, per quanto potente, l’IA perda di vista l’aspetto umano. Lo ricordava bene lo psichiatra Vittorino Andreoli:

«la medicina è un incontro tra fragilità: quella del malato e quella del medico». Ma un algoritmo, può essere fragile? E se no, può davvero prendersi cura?

Il valore aggiunto – con esempio italiano

Ma cosa fa davvero un algoritmo in medicina? Qual è il suo contributo concreto? L’intelligenza artificiale può analizzare in pochi secondi una quantità di dati che per un essere umano richiederebbe ore, se non giorni. Può confrontare migliaia di casi clinici, riconoscere pattern nei sintomi, incrociare valori di laboratorio, immagini diagnostiche, informazioni genetiche e stili di vita. Per farlo, però, ha bisogno di conoscere bene chi ha davanti: la sua storia clinica, i farmaci assunti, eventuali patologie pregresse. In altre parole, serve un’anamnesi completa e aggiornata. Più l’algoritmo sa, più è in grado di proporre soluzioni precise, personalizzate, quasi su misura.

Un esempio concreto? All’Ospedale San Raffaele di Milano, l’IA viene utilizzata per analizzare le immagini delle risonanze magnetiche cerebrali, in particolare nei pazienti con sclerosi multipla. Il sistema è in grado di individuare micro-lesioni che possono sfuggire all’occhio umano e di monitorare nel tempo l’evoluzione della malattia, permettendo ai medici di adattare le terapie in modo più tempestivo e mirato. Questo non significa sostituire il medico, ma potenziarne lo sguardo, offrendo un secondo parere silenzioso e velocissimo. Il vero valore dell’IA, oggi, è tutto qui: aiutare a decidere meglio, e prima.

La questione della fiducia 

Affidarsi a un medico significa accettare un margine di incertezza. È un atto umano, spesso intuitivo: ci fidiamo perché percepiamo attenzione, esperienza, responsabilità. Ma con un algoritmo, come funziona? Possiamo davvero fidarci di una macchina che non prova emozioni, non ci guarda negli occhi, non coglie le sfumature della nostra voce? La fiducia nell’intelligenza artificiale non è automatica: si costruisce con il tempo, la trasparenza, la chiarezza su chi prende le decisioni e perché. In caso di errore, per esempio, chi è responsabile? Il medico che ha seguito il suggerimento? Chi ha progettato il software? O l’ospedale che lo ha adottato?

Nel 2019, il sistema di triage basato su IA usato in alcuni ospedali olandesi è finito sotto accusa per aver penalizzato pazienti stranieri o non madrelingua, suggerendo per loro percorsi sanitari meno urgenti. Non si trattava di razzismo umano, ma di bias nei dati usati per addestrare l’algoritmo. È un caso che ha dimostrato quanto la fiducia non possa basarsi solo sull’efficienza, ma anche su equità e trasparenza. Come scriveva Zygmunt Bauman,

«la fiducia è il collante invisibile che tiene unite le società. Ma non può mai essere data per scontata». E nel rapporto tra umani e macchine, questo vale doppio.

Responsabilità e rischio

L’intelligenza artificiale può essere veloce, efficiente, impressionante. Ma quando entra in gioco la salute, ogni errore pesa. E allora la domanda diventa inevitabile: chi risponde se l’algoritmo sbaglia? A oggi, la responsabilità ultima ricade quasi sempre sul medico, ma in realtà il confine è sempre più sfumato. Se un sistema diagnostico suggerisce un referto sbagliato e il medico si fida troppo, di chi è la colpa? Se l’algoritmo è una “scatola nera”, cioè non spiega come arriva alle sue conclusioni, come si può davvero controllarlo?

Nel 2021, in Spagna, un ospedale ha sospeso temporaneamente l’uso di un software di supporto alle decisioni cliniche dopo che una serie di raccomandazioni errate aveva portato a trattamenti non ottimali per pazienti oncologici. Il sistema, basato su dati internazionali, non teneva conto di linee guida locali aggiornate. Un errore di contesto, ma con conseguenze reali.

Un altro caso emblematico riguarda il sistema Watson for Oncology di IBM, sviluppato in collaborazione con il Memorial Sloan Kettering Cancer Center negli Stati Uniti. Nonostante le grandi aspettative, nel 2018 emerse che alcune delle terapie suggerite dall’IA erano inadeguate o potenzialmente dannose, a causa di errori nei dati di addestramento. Il progetto venne ridimensionato, ma il messaggio era chiaro: anche gli algoritmi più avanzati possono sbagliare, e l’errore, in medicina, può costare caro.

Come ha scritto l’informatico e filosofo Luciano Floridi,

«l’automazione non riduce la responsabilità umana, ma la rende più complessa».

In medicina, dove il margine di errore è minimo e il valore della vita è massimo, questa complessità va affrontata con regole chiare, trasparenza e un’etica della progettazione che non lasci nulla al caso.

Integrazione: Focus legale sulla responsabilità

Dal punto di vista legale, il tema è ancora in gran parte un “cantiere aperto”. In Italia, così come in molti Paesi europei, non esistono ancora normative specifiche e consolidate che definiscano con precisione la responsabilità civile o penale in caso di errore causato — o facilitato — da un algoritmo. Il medico resta formalmente il primo responsabile, perché è lui a firmare diagnosi e prescrizioni. Tuttavia, se il medico segue le indicazioni di un sistema approvato e certificato, potrebbe sostenere di aver agito secondo le linee guida fornite, aprendo così scenari complessi dal punto di vista giuridico.

L’Unione Europea ha avviato un processo normativo con l’AI Act, un regolamento che intende classificare i sistemi di intelligenza artificiale per livello di rischio. I sistemi usati in ambito medico rientreranno tra quelli ad “alto rischio”, soggetti quindi a obblighi rigorosi di trasparenza, tracciabilità e supervisione umana. Ma si tratta di un quadro in evoluzione, e finché non sarà pienamente applicato, la giurisprudenza dovrà colmare i vuoti normativi caso per caso.

In sintesi: chi progetta un algoritmo, chi lo valida, chi lo integra nel sistema sanitario e chi lo utilizza nella pratica clinica sono oggi tutti potenzialmente coinvolti in una catena di responsabilità. Ed è proprio questa complessità che rende urgente un quadro normativo chiaro, condiviso e orientato alla tutela dei pazienti.

Meglio dire «non lo so» 

In medicina, dire «non lo so» non è un segno di debolezza, ma un atto di responsabilità. Il medico che riconosce un dubbio non rinuncia alla cura, al contrario: dimostra rispetto per la complessità della vita umana. L’intelligenza artificiale, invece, fatica ad ammettere l’incertezza. Gli algoritmi tendono a fornire una risposta sempre e comunque, anche quando i dati sono incompleti o ambigui. Questo può creare un’illusione di precisione, che rischia di essere pericolosa. Nel 2020, uno studio condotto in Canada ha mostrato che un sistema predittivo usato per valutare la probabilità di infarto continuava a fornire percentuali di rischio anche in presenza di dati clinici parziali o incoerenti. Nessun alert, nessun “non lo so”. Solo numeri che sembravano certi.

Un medico italiano, in un’intervista a Internazionale, ha raccontato:

«Mi è capitato di consultare un sistema di supporto alla diagnosi per un paziente con sintomi neurologici atipici. L’algoritmo proponeva una patologia rara, ma io non ero convinto. Ho chiesto un secondo parere a un collega, poi una risonanza. Alla fine si trattava di una forma acuta di encefalite. Se mi fossi fidato solo del sistema, avremmo perso tempo prezioso. A volte è meglio riconoscere che non si sa».

Come ha scritto il neurologo e autore Oliver Sacks,

«non tutto ciò che può essere misurato conta, e non tutto ciò che conta può essere misurato».

Il rischio, con l’IA, è di dare più peso al calcolo che alla coscienza, più alle risposte che alle domande. E invece, a volte, è proprio da un «non lo so» detto con onestà che nasce la decisione più giusta.

Come ha scritto il neurologo e autore Oliver Sacks,

«non tutto ciò che può essere misurato conta, e non tutto ciò che conta può essere misurato».

Il rischio, con l’IA, è di dare più peso al calcolo che alla coscienza, più alle risposte che alle domande. E invece, a volte, è proprio da un «non lo so» detto con onestà che nasce la decisione più giusta.

👉 Per un approfondimento sul tema, si può leggere questo articolo di Internazionale, che raccoglie riflessioni e testimonianze di medici italiani sul rapporto tra algoritmi e responsabilità clinica:
«Quando la diagnosi la fa l’algoritmo», Internazionale, 16 dicembre 2022


Conclusione: verso una fiducia costruita, non concessa

L’intelligenza artificiale ha un potenziale straordinario per migliorare la medicina: può accelerare diagnosi, ridurre errori, personalizzare le cure. Ma non basta funzionare bene per essere accettata. In ambito sanitario, la fiducia non si concede per default: si guadagna, si verifica, si costruisce nel tempo. È una fiducia diversa da quella che si dà a un medico in carne e ossa, ma altrettanto delicata.

Come scrive il sociologo Niklas Luhmann,

«la fiducia è un meccanismo per ridurre la complessità del mondo. Ma quando è mal riposta, amplifica il rischio invece di contenerlo».

È per questo che ogni algoritmo che entra in corsia dovrebbe essere progettato, testato e comunicato con la stessa cura che si riserva a un farmaco o a un gesto clinico.

Il futuro della medicina non sarà uno scontro tra uomo e macchina, ma una collaborazione fondata su competenze diverse. L’intelligenza artificiale potrà davvero diventare un alleato prezioso, a condizione che non smettiamo mai di chiederci come funziona, chi la controlla e per conto di chi lavora.

👉 E tu, ti sentiresti tranquillo sapendo che una diagnosi per te — o per una persona cara — è stata proposta da un algoritmo?

 

Bibliografia e approfondimenti

  1. InternazionaleQuando la diagnosi la fa l’algoritmo
    Internazionale, 16 dicembre 2022
    🔗it/notizie/2022/12/16/diagnosi-algoritmo-intelligenza-artificiale
  2. IBM Watson HealthWatson for Oncology: un caso studio e le sue criticità
    Articolo su Stat News, 2018 (in inglese):
    🔗com/2018/07/25/ibm-watson-recommended-unsafe-cancer-treatments
  3. Zygmunt BaumanLa solitudine del cittadino globale
    Laterza, 2000
    📖 Riflessioni sulla fiducia come collante sociale
  4. Luciano FloridiEtica dell’intelligenza artificiale
    Raffaello Cortina Editore, 2022
    📖 Un saggio chiave per comprendere responsabilità, trasparenza e limiti dell’IA
  5. Niklas LuhmannLa fiducia. Un meccanismo per ridurre la complessità sociale
    FrancoAngeli, 2002
    📖 Classico della sociologia per capire la funzione e il rischio della fiducia
  6. Oliver SacksL’uomo che scambiò sua moglie per un cappello
    Adelphi, 1986
    📖 Un testo fondamentale per riflettere sul rapporto tra scienza, empatia e narrazione clinica
La Redazione

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Controllate anche

«Viviamo dentro le metafore»

Il presente non si racconta solo con i fatti, ma con le metafore che lo rendono accettabil…