ChatBot sbaglia diagnosi

Molti utenti di bot si fidano più dell’intelligenza artificiale che dei dottori. I casi di dottori che sbagliano diagnosi e di bot che l’azzeccano sono documentati. La “Library of Medicine” di Harvard ha ospitato uno scontro diretto fra un esperto dottore di diagnostica del Massachusetts General Hospital e un modello avanzato di I.A. chiamato CaBot. Ne dà notizia un recente articolo del “New Yorker”, intitolato “Diagnosi immediata”.
Al dottore era stata lasciata la prima mossa di questa singolare partita a scacchi: esaminare il caso di un uomo di 41 anni ricoverato in ospedale dopo 10 giorni di febbre, dolori in tutto il corpo e caviglie gonfie. L’uomo aveva una dolorosa eruzione cutanea sugli stinchi ed era svenuto due volte. Una TAC aveva rilevato noduli ai polmoni e linfonodi ingrossati nel petto. Controllati tutti i dati disponibili e poste domande specifiche sulle condizioni del paziente, il dottore aveva scartato sintomi che non collimavano. Quelli che indicavano una sindrome, portavano a tre diagnosi: linfoma, infezione e malattia autoimmune. Infezione e linfoma furono escluse perché incompatibili con la storia del paziente. Che cosa causava contemporaneamente febbre, artrite, adenopatia ilare ed eruzione cutanea? Il dottore, che aveva impiegato 6 settimane per preparare la sua presentazione, diagnosticò la sindrome di Lofgreen, una rara manifestazione di sarcoidosi.
Ora toccava al CaBot, che presentò una diapositiva sullo schermo: “Quando caviglie, noduli e sincope collidono”. Una voce maschile annunciò: “Sono il dottor CaBot”, e in soli 6 minuti dichiarò la diagnosi di sarcoidosi. Sei minuti contro sei settimane. Il successo di CaBot non coincide, però, con le esperienze di pazienti che hanno consultato altri dottori artificiali. Un’indagine ha trovato che il medico bot di OpenAI sbaglia risposte due terzi delle volte e dà diagnosi errate per l’80% di casi pediatrici complessi. In un nuovo sondaggio, un quinto degli americani accetta consigli medici da I.A. che poi si rivelano sbagliati. Un centro antiveleni dell’Arizona ha riferito un crollo del volume di chiamate, e una crescita di casi gravi di avvelenamento dei fai-da-te che preferiscono l’assistenza medica di I.A.
“I Chatbot costano poco, sono sempre disponibili, sono superficialmente empatici. Alcuni americani, frustrati dal costoso sistema sanitario, deducono che chiedere un consulto medico all’Intelligenza Artificiale sia un rischio che val la pena correre”, scrive il New York Times (16 novembre 2025).
L’anno scorso Elon Musk ha incoraggiato gli utenti di X a caricare i loro dati medici su Grok, la piattaforma I.A., per “analisi”. In seguito si è scoperto che la compagnia aveva reso accessibili centinaia di migliaia di trascrizioni della chat a motori esterni di ricerca, senza il permesso degli utenti.
La rivista medica “Annals of Internal Medicine” ha recentemente pubblicato il caso di un uomo di 60 anni che aveva chiesto a ChatGPT quali sostituti del sale da cucina poteva usare nel cibo. Il bot gli suggerì il bromuro, che è usato come sedativo e anticonvulsivante, i cui effetti neurologici e psichiatrici si accumulano nel corpo. L’uomo lo ordinò online, e dopo pochi mesi fu ricoverato d’emergenza, convinto che il suo vicino l’avesse avvelenato.
Pensiamo che I.A. sia più intelligente di noi perché codifica molte più informazioni e compila liste di controllo non accessibili alla nostra memoria umana. Ciò nonostante, anche il miracoloso CaBot di Harvard ha “inventato” valori di laboratorio analisi e falsato risultati di esami. I modelli I.A. parlano come se fossero laureati in medicina, ma commettono errori di giudizio da scuola elementare. I chatbot non interagiscono col mondo reale, non possono esaminare un paziente, chiedergli se il dolore si manifesta quando mangia, cammina o è steso a letto. Sono macchine statistiche, comparano i dati che Grok ci ha sottratto, senza alcuna pratica clinica. Solo perché hai un dizionario di Italiano-Inglese sulla scrivania, non significa che sai parlar bene in inglese.
I medici americani fanno uso di chatbot per avere accesso alle molteplici notizie mediche, per scoprire l’ultimo articolo scientifico che non hanno ancora letto, o che è a loro sfuggito. Tutt’altra cosa è chiedere diagnosi a un bot che si è scoperto così capriccioso, e anche imbroglione. Le sue risposte cambiano a seconda di quel che chiedi, di come lo chiedi. Se un dottore gli dà prima la propria diagnosi e poi gli chiede di ignorarla per formularne una indipendente, il chatbot disubbidisce e imbroglia per non produrre una diagnosi contraria a quella del dottore richiedente. Il bot di un dottore, a cui aveva accesso anche sua madre, finì per confondere i problemi medici dell’uno e dell’altra, diagnosticando alla madre la scoliosi del figlio.
Alcuni medici intervistati commentano: “Se non fai altro che inserire sintomi e dati in un chatbot per ottenere diagnosi, sei ancora un dottore?” “Ho cominciato a sentirmi sporco nel presentare i miei pensieri ad altri colleghi, sapendo bene che erano i pensieri di I.A.”. “Temo che questi strumenti artificiali intaccheranno la mia capacità di produrre diagnosi indipendenti”.
Adam Rodman, dottore di Harvard responsabile dell’integrazione di I.A. nel curriculum della scuola medica di Boston, non usa mezzi termini: “Se gli umani perdono la capacità di funzionare senza l’intelligenza artificiale, un rischio chiamato ‘dequalificazione cognitiva’, allora siamo fottuti”.

5 commenti su “ChatBot sbaglia diagnosi”

  1. Antonella Desantis

    La capacità cognitiva umana che è amche una capacità che si incarna in un corpo, entra in relazione con altri esseri umani, vive nel mondo e si connette a tutti gli altri sistemi viventi…va preservata.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Torna in alto