Prevenzione personalizzata grazie all’IA: opportunità e limiti

Attraverso applicazioni personalizzate, l’intelligenza artificiale (IA) può supportare abitudini salutari e i trattamenti in caso di malattia. Ma non sostituisce né le competenze né le decisioni umane. Pur sembrando spesso intelligente, è molto inaffidabile. Il dr. Jan Smeddinck, ricercatore in interazione uomo–tecnologia, illustra opportunità e rischi, spiega come l’IA sta trasformando la promozione della salute e perché anche i professionisti della salute dovrebbero occuparsene da vicino.

Smeddinck
Jan Smeddinck dirige programmi per lo sviluppo di interventi digitali in ambito sanitario, analisi dei dati e soluzioni personalizzate per la salute all’Istituto Ludwig-Boltzmann per la salute e la prevenzione digitali («Ludwig Boltzmann Institut für digitale Gesundheit & Prävention») di Salisburgo.

Dettagli articolo

In che modo l’IA può promuovere uno stile di vita sano?
Adottare uno stile di vita sano dipende prima di tutto da scelte individuali, dal contesto in cui si vive e dal supporto offerto dai professionisti della salute. È fondamentale ricordare che l’IA non può sostituirsi alle decisioni e alle azioni umane: nel migliore dei casi può fornire un valido supporto. Detto questo, le possibilità che offre sono senza dubbio interessanti.

Che tipo di supporto può offrire l’IA?

Esiste un’ampia gamma di possibilità per personalizzare le applicazioni digitali in ambito sanitario. È un tema su cui lavoro da tempo: ho partecipato ad esempio a progetti volti ad adattare programmi di attività fisica ai bisogni specifici di persone affette dal morbo di Parkinson. Di fronte alla grande varietà di esigenze, capacità e interessi individuali, i programmi digitali possono così offrire un supporto diversificato: fungere da strumenti organizzativi, stimolare la motivazione oppure adattarsi in modo mirato all’età biologica o all’andamento di una malattia. L’obiettivo è sviluppare applicazioni sufficientemente adattabili da poter rispondere alle esigenze dei singoli utenti. Per quanto valida, questa idea è però spesso difficile da concretizzare: nessuno ha il tempo di effettuare manualmente e costantemente le modifiche necessarie. Misurare, programmare e calibrare è un lavoro estremamente impegnativo. Proprio qui entra in gioco l’IA, capace di automatizzare questi processi in modo intelligente. L’IA apre molte prospettive, ma comporta anche il rischio di conclusioni errate quando i dati sono incompleti o male interpretati.

Le opportunità risiedono quindi principalmente nella prevenzione personalizzata?
Ognuno è diverso, e lo stato di salute di una stessa persona può variare notevolmente da un giorno all’altro. A volte a influire è l’età, altre volte una malattia cronica, un semplice raffreddore o magari il fatto di aver dimenticato di assumere un medicamento. Basandosi sulla propria esperienza e dando prova di empatia, un buon medico può rispondere alle esigenze del caso. Ma questo tipo di attenzione è possibile solo in circostanze specifiche e non può essere mantenuto per tutto l’arco della vita di una persona. È qui che le tecnologie digitali per la salute possono dare un buon contributo, a patto che siano adatte alla persona cui si rivolgono e alla sua situazione specifica. In questo contesto riveste particolare interesse la combinazione dell’IA con i dati generati direttamente dai pazienti, ad esempio tramite dispositivi indossabili o questionari digitali. Ciò permette di personalizzare ulteriormente le applicazioni. Finora era difficile affrontare questa complessità con i sistemi digitali, perché si basavano su pochi parametri standardizzati, una semplificazione spesso lontana dalla realtà.

Oggi l’IA è in grado di gestire questa complessità di dati?

Negli ultimi anni l’IA ha compiuto enormi progressi. Si è passati dai primi approcci basati su regole alle tecniche di sviluppo d’immagini con deep learning, utilizzate ad esempio per la diagnosi precoce del cancro al seno, fino agli attuali sistemi di IA generativa. Questi ultimi non apprendono soltanto da dati e risultati chiaramente etichettati, come avviene nell’apprendimento supervisionato tradizionale, ma elaborano autonomamente grandi quantità di informazioni, individuando da soli le correlazioni. Non hanno più bisogno di obiettivi predittivi espliciti, definiti e verificati a monte per i dati esistenti. Disponiamo quindi di nuovi sistemi capaci di gestire una grande varietà di dati e di reagire in modo sensato nella maggior parte dei casi. Per quanto questi modelli di IA riescano a gestire informazioni imprecise ma vicine alla realtà, rimane la sfida di rendere comprensibili e affidabili le loro decisioni. È una strada promettente, ma che ancora non può fare a meno dell’intervento umano, né sul piano delle competenze né su quello delle decisioni o delle responsabilità.

È quindi necessario un controllo umano?

Sì. L’IA apre possibilità del tutto nuove, ma porta con sé nuove sfide in termini di trasparenza, sicurezza e responsabilità. In particolare nel settore sanitario è essenziale poter dimostrare in modo chiaro quanto questi sistemi siano affidabili e sicuri. Nonostante i molti passi compiuti, infatti, molte domande rimangono senza risposta.

In che modo l’IA ha già cambiato la promozione della salute?

Per molto tempo l’IA è stata utilizzata soprattutto dietro le quinte, senza che i pazienti se ne rendessero conto. Fino a pochi anni fa le tecnologie di IA venivano impiegate principalmente nella diagnostica, ad esempio per l’analisi di immagini ecografiche. Oggi i pazienti e le persone attente alla propria salute sono diventati utenti diretti di queste tecnologie. Penso ad esempio ai coach per la salute basati sull’IA, in grado di fornire raccomandazioni personalizzate a partire da numerosi parametri di salute.

Lei conduce ricerche proprio in questo campo?

Nel quadro delle nostre attività di ricerca lavoriamo con i cosiddetti interventi adattivi just-in-time. Si tratta di sistemi che analizzano la vita quotidiana e il contesto degli utenti per individuare il momento più adatto in cui inviare un messaggio motivazionale o una raccomandazione, incoraggiandoli ad esempio a muoversi di più durante la giornata. È importante evitare di inviare notifiche troppo frequenti, ma dare uno stimolo solo quando può essere davvero utile. I professionisti della salute non possono seguire i pazienti con questa costanza. Oggi, grazie all’IA, è possibile offrire un supporto quotidiano fino a poco tempo fa impensabile.

Sempre più persone si affidano all’IA come consulente personale, anche per ottenere informazioni sulla salute. Alcune la utilizzano addirittura come terapeuta. Ma come possono essere certe che le informazioni ricevute siano corrette?

Non possono, o meglio, per averne la certezza dovrebbero procedere a complesse verifiche manuali. Eppure è un campo estremamente interessante, perché è esattamente ciò che sta accadendo: le persone consultano le applicazioni di IA. Con l’AI Act europeo e la normativa sui dispositivi medici, disponiamo di un quadro legislativo che impedisce ai produttori di promuovere l’IA come coach per la salute. Allo stesso tempo ci troviamo però nella situazione in cui le persone utilizzano l’IA proprio a questo scopo. Lo fanno e basta, e non è facile vietarlo. Serve dunque un approccio normativo prudente e differenziato. Nei settori sensibili come quello della salute, molti fornitori preferiscono comunque tutelarsi, invitando gli utenti a consultare il proprio medico o un altro professionista di riferimento. Rimane quindi aperta la questione di come possiamo gestire in modo responsabile le potenzialità, di per sé molto positive, offerte dall’IA nel contesto sanitario, evitando sia di regolamentare in modo eccessivo, sia di venir meno alle proprie responsabilità.

Quindi secondo lei non ci si può fidare ciecamente dell’IA…

No, non ci si può fidare ciecamente delle risposte fornite dall’IA, ed è essenziale ribadirlo. Le informazioni vanno verificate. Detto questo, la percentuale di risposte corrette è già molto alta. Un numero crescente di studi dimostra che, almeno per compiti ben definiti, le risposte dei modelli di IA più avanzati possono essere migliori di quelle fornite da persone con una formazione specialistica nel settore di riferimento. L’IA ha infatti accesso a una quantità di dati e conoscenze di base che un singolo individuo non può possedere.

Come si possono verificare le risposte?

Oggi spesso vengono forniti link a fonti online, cosa che permette almeno di capire se le informazioni provengono da una rivista scientifica o da un articolo medico affidabile. Per chi non è esperto del settore rimane tuttavia difficile interpretare queste informazioni.

Penso che rifiutare del tutto l’uso dell’IA in ambito sanitario non sia né realistico né sensato, non da ultimo perché questi sistemi possono fornire suggerimenti utili. Esistono ad esempio casi clinici documentati in cui l’IA ha contribuito a formulare diagnosi pertinenti che il sistema sanitario tradizionale non era riuscito a fornire. Comunque sia, le decisioni importanti devono sempre essere prese d’intesa con il personale medico specializzato.

Con l’IA il ruolo dei pazienti cambierà?

È probabile. Già da quando c’è Internet, i pazienti si presentano alle visite mediche molto più informati rispetto al passato, spesso con conoscenze molto approfondite, soprattutto nei casi di malattie croniche rare. Può essere un vantaggio, ma anche un rischio, perché apre la porta a disinformazione e fraintendimenti, come dimostra il fenomeno noto come «dottor Google», in cui poche ricerche sul web possono bastare a convincersi di avere il cancro. Le cose si fanno interessanti con i sistemi di IA di ultima generazione, che si comportano in modo completamente diverso rispetto ai chatbot o ai motori di ricerca tradizionali. Si presentano come agenti autonomi, veri e propri «interlocutori intelligenti», e non più come strumenti informativi. Questo cambia le dinamiche: sempre più spesso accade che, anziché cercare informazioni in autonomia, le persone si affidino direttamente all’IA per arrivare a conclusioni del tipo: «Secondo ChatGPT soffro di questa malattia». Il modo in cui questi sistemi si presentano e interagiscono con l’utente porta a umanizzarli maggiormente, spesso inconsciamente, attribuendo loro un grado di affidabilità che in realtà non possiedono. Un atteggiamento potenzialmente pericoloso, soprattutto in ambito sanitario: l’IA può sembrare sicura di sé e, in molti casi, fornisce risposte corrette. Ma in determinate situazioni può rivelarsi sorprendentemente inaffidabile. Ecco perché è fondamentale capire come funzionano questi sistemi, quale ruolo possono svolgere e come integrarli in modo responsabile nell’assistenza sanitaria. Per noi ricercatori si tratta di uno sviluppo estremamente interessante.

Quando l’IA viene utilizzata per consulenze in caso di problemi psichici o legati a dipendenze, i dati raccolti sono spesso sensibili. È possibile garantirne un trattamento responsabile?

L’unico modo per essere del tutto sicuri è non trasferire affatto i dati sui server dei grandi fornitori di servizi cloud. Sebbene esista un accordo transatlantico con gli Stati Uniti che prevede requisiti piuttosto rigorosi in materia di protezione dei dati, spesso è difficile capire cosa accada realmente ai dati. Vengono usati per addestrare la prossima generazione di modelli? È possibile che le mie conversazioni, magari su paure intime o con riferimenti a persone reali, possano riemergere altrove? In generale direi che per ora è altamente sconsigliato condividere informazioni sanitarie personali in sistemi di IA basati su cloud.

Una delle questioni centrali nell’uso dell’IA in ambito sanitario è questa: vogliamo davvero sfruttarne appieno le potenzialità o vogliamo dare priorità alla protezione dei dati e alla privacy? Attualmente è difficile conciliare queste due esigenze. Chi punta alle massime prestazioni si scontra infatti rapidamente con i limiti imposti dalla normativa sulla protezione dei dati. Tuttavia, il movimento open source sta recuperando terreno con sorprendente rapidità, e anche in Svizzera stanno emergendo esempi positivi. Esistono ormai modelli che, in termini di prestazioni, sono ormai vicinissimi ai grandi sistemi dei fornitori commerciali, con un divario equivalente a pochi mesi di sviluppo. Questo lascia ben sperare: in un prossimo futuro, anche i sistemi di IA gestiti localmente o ospitati in ambienti cloud sicuri potrebbero offrire molte delle funzionalità oggi riservate ai grandi fornitori, senza compromettere la riservatezza dei dati.

Come si può evitare che l’IA riproduca stereotipi o pregiudizi nei confronti di persone affette da malattie mentali o da dipendenze?

Oggi è possibile addestrare i sistemi di IA in modo più mirato per evitare determinate distorsioni. Ma non è possibile eliminare del tutto il problema. Il nodo centrale risiede nel fatto che questi modelli apprendono dai dati che ricevono. È proprio qui che nasce il problema: i dati disponibili sono spesso fortemente sbilanciati dal punto di vista culturale e geografico. Una visualizzazione della Mozilla Foundation mostra chiaramente che i dati provenienti dall’Africa sono sottorappresentati nei set di dati di riferimento per l’IA. I modelli di IA tendono ad apprendere e riprodurre schemi e probabilità basati su dati esistenti, comprese tutte le distorsioni in essi contenute. Oggi esistono meccanismi come il reinforcement learning che permettono di perfezionare il comportamento dell’IA con interventi manuali o con processi automatizzati al fine di evitare tendenze problematiche. Tuttavia, anche questi processi sono complessi e non esenti da errori. Ne scaturiscono nuove criticità, ad esempio quando si devono trattare fatti storici con particolare sensibilità in contesti culturali contemporanei o quando i meccanismi correttivi intervengono in modo eccessivo.

Proprio per questo è fondamentale che l’IA non operi in modo autonomo nel contesto sanitario. Nelle nostre attività di ricerca utilizziamo l’IA come strumento di supporto, ad esempio per la definizione di piani di intervento comportamentale in ambiti come l’attività fisica e la prevenzione. Tuttavia, la decisione finale spetta sempre ai professionisti della salute, che devono poter esaminare, adattare e verificare i suggerimenti. Più i sistemi sono automatizzati, infatti, maggiore è il rischio che si riduca lo spirito critico. Qui si pone una sfida centrale, non solo sul piano tecnico, ma anche nella strutturazione dei processi e nella definizione delle responsabilità.

Cosa vorrebbe dire agli esperti di promozione della salute che hanno ancora poca familiarità con l’IA?

È sicuramente consigliabile avvicinarsi all’IA seguendo corsi di perfezionamento. Il futuro si prospetta ricco di cambiamenti in molti settori, anche in quello della salute. Sempre più persone si affidano a sistemi basati sull’IA per informarsi o ottenere consulenze sanitarie, spesso senza dichiararlo apertamente. Per questo è importante non limitarsi a seguire occasionalmente i media per essere informati sulle possibilità tecniche, ma approfondire attivamente questi temi. È l’unico modo per sviluppare una reale comprensione di ciò che questi sistemi sanno fare, e dei loro limiti. Chi vuole davvero comprendere il proprio target di riferimento deve anche capire che ruolo giocano queste tecnologie nella vita delle persone e come influenzano il loro pensiero, il loro comportamento e le loro aspettative.

Mancano nuove attività?

Se lavorate in un'autorità, una ONP o un'altra organizzazione nel campo della prevenzione, avete la possibilità di...

  • Scrivere articoli
  • Scaricare immagini
  • Utilizzare l'elenco degli indirizzi

Avete già un account? Accedete adesso

All'inizio della pagina