Il 16% degli adulti statunitensi ora consulta i chatbot basati sull’intelligenza artificiale per ottenere informazioni sanitarie, un cambiamento drammatico nel modo in cui le persone affrontano la propria assistenza sanitaria. Sebbene l’intelligenza artificiale possa consentire ai pazienti di comprendere termini medici complessi e prepararsi meglio per gli appuntamenti, introduce veri e propri rischi per la privacy e la sicurezza. Questa guida fornisce cinque passaggi pratici per sfruttare i vantaggi dell’intelligenza artificiale riducendo al minimo i danni.

Comprendere i rischi: perché è importante la cautela

L’ascesa dell’intelligenza artificiale nel settore sanitario riflette una tendenza più ampia di pazienti che cercano un maggiore controllo sul proprio percorso sanitario. Tuttavia, il semplice incollaggio delle cartelle cliniche nei chatbot dei consumatori può esporre dati sensibili, poiché queste piattaforme non sono regolate da rigide leggi sulla privacy sanitaria come HIPAA. Persino aziende come Grok hanno riconosciuto pubblicamente la loro mancanza di conformità, nonostante le richieste per un uso più ampio in ambito medico.

Il problema principale è che i modelli di intelligenza artificiale imparano dai dati che ricevono. A meno che tu non disattivi attivamente o utilizzi funzionalità di chat temporanee, le tue informazioni potrebbero contribuire all’addestramento di iterazioni future, riemergendo potenzialmente in modi inaspettati. Le politiche cambiano rapidamente, quindi ciò che è sicuro oggi potrebbe non esserlo domani.

Cinque guardrail per un utilizzo più sicuro dell’IA

1. Dai priorità alla privacy: condividi al minimo e rimuovi gli identificatori

Evita di caricare intere cartelle cliniche nei chatbot AI. Condividi invece solo le informazioni necessarie, eliminando gli identificatori personali come nome, data di nascita, indirizzo e numero di cartella clinica. Supponiamo che tutto ciò che inserisci possa essere archiviato, registrato o addirittura recuperato in seguito attraverso modifiche alle policy. Se uno strumento mette esplicitamente in guardia contro l’uso medico, presta attenzione a quell’avvertimento.

2. Richiedi fonti attendibili o chiedi all’intelligenza artificiale di rifiutare

I consigli dell’intelligenza artificiale possono essere inaffidabili, a volte non migliori delle ricerche casuali. Costringere l’IA a citare fonti affidabili come CDC, NIH o Mayo Clinic per ogni richiesta. Chiedergli di dire “Non lo so” se non riesce a trovare supporto. Tratta le risposte non citate come inaffidabili.

Suggerimento di esempio: “Spiega questo risultato di laboratorio a un livello di lettura di terza media, citando solo CDC, NIH o MedlinePlus. Fornisci collegamenti cliccabili per ciascuna affermazione.”

3. Utilizza l’intelligenza artificiale per la traduzione, non per la diagnosi

L’intelligenza artificiale può aiutarti a comprendere il gergo medico, a riassumere la sequenza temporale dei sintomi e a formulare domande per il tuo medico. Tuttavia, è pericoloso fare affidamento su di esso per l’autodiagnosi (“Ho X?”), per decisioni terapeutiche (“Devo interrompere questo farmaco?”) o per sfidare il giudizio di un medico. Se l’IA suggerisce un cambiamento nell’azione medica, consultare immediatamente un operatore sanitario qualificato.

4. Evitare le tane del coniglio dell’ansia: riconoscere quando fermarsi

L’aspetto più pericoloso non è solo una risposta sbagliata, ma lo schema di suggerimenti ripetitivi che alimenta l’ansia. I pazienti possono rimanere intrappolati in un circolo vizioso, mettendo in discussione il consiglio del proprio medico sulla base delle paure generate dall’intelligenza artificiale. Se il chatbot aumenta la tua paura, ti spinge a ignorare una guida professionale o ti suggerisce visite urgenti non necessarie, fermati immediatamente. Se hai posto ripetutamente la stessa domanda e la tua ansia aumenta, disimpegnati.

5. Scegli saggiamente: dai priorità agli strumenti AI vincolati

La maggior parte dei pazienti utilizza l’intelligenza artificiale più conveniente. Tuttavia, i sistemi sanitari stanno incorporando chatbot basati sull’intelligenza artificiale nei portali dei pazienti con protezioni integrate, come “Emmie” di Epic. Le aziende modello di fondazione stanno anche rilasciando esperienze specifiche per la salute, come ChatGPT Health di OpenAI. Anche se le prestazioni dei modelli variano, la scelta di uno strumento vincolato e attento alla privacy riduce al minimo i rischi.

Il punto: l’intelligenza artificiale come supplemento, non come sostituto

L’intelligenza artificiale può essere uno strumento prezioso per la navigazione tra le informazioni mediche, ma non dovrebbe mai sostituire la consulenza sanitaria professionale. Seguendo questi limiti, i pazienti possono sfruttare i vantaggi dell’intelligenza artificiale proteggendo al contempo la propria privacy ed evitando ansie inutili. Trattate sempre l’intelligenza artificiale come un supplemento, e non come un sostituto, di un medico qualificato.