Non solo giornalista e scienziato: ora ChatGPT si cimenta anche nella professione di medico. Secondo uno studio pubblicato su Jama Internal Medicine, l’intelligenza artificiale sarebbe più empatica di alcuni dottori nel rispondere ai pazienti.
Certo, non vuol dire che il chatbot potrebbe sostituire un medico in carne e ossa: i rischi di dare informazioni sbagliate sono sempre alti, e le risposte di ChatGPT devono essere sempre riviste da un occhio umano. Ma magari potrebbe lavorare come assistente.
Lo studio. Per condurre lo studio i ricercatori hanno utilizzato dati raccolti dal forum di Reddit AskDocs, dove le persone possono porre domande di salute agli specialisti. Dopo aver selezionato 195 domande e risposte casuali, hanno posto queste stesse domande a ChatGPT.
Tre professionisti sanitari, infine, hanno valutato la qualità delle risposte, senza sapere se fossero state date da dottori in carne e ossa o dall’intelligenza artificiale.
Empatia e qualità. I professionisti hanno quasi sempre preferito le risposte date da ChatGPT, che sono state giudicate di buona o ottima qualità il 79% delle volte, contro il 22% di quelle date dai dottori.
Il 45% dei consigli del chatbot sono stati valutati empatici o molto empatici, contro appena il 5% di quelli dei medici. In generale, oltre un quarto delle risposte umane sono state considerate di qualità non accettabile, contro meno del 3% di quelle di ChatGPT.
Risposte a confronto. Questa una delle domande poste, con la doppia risposta da parte del dottore e di ChatGPT: una persona chiede se corresse il rischio di diventare cieca dopo aver ricevuto uno schizzo di candeggina nell’occhio.
ChatGPT risponde comprendendo lo spavento del paziente e prosegue aggiungendo altre sette frasi con consigli e rassicurazioni sull’improbabilità di perdere la vista. Un dottore risponde un laconico: «Direi che non avrai problemi», seguito dal numero del centro antiveleni.
più tempo per le cure. Sembra che il segreto della maggior empatia di ChatGPT stia nella lunghezza delle sue risposte, che forse per questo hanno ottenuto punteggi più alti: «Lo studio non afferma che ChatGPT può sostituire i dottori, ma si domanda se e come potrebbe aiutarli a generare risposte per i pazienti», spiega James Davenport, professore non coinvolto nella ricerca.
Fidarsi è bene, non fidarsi è meglio. Uno dei principali problemi che deriva dall’utilizzo del chatbot (in questo e in altri campi) è il rischio di generare informazioni sbagliate: «Mi preoccupa che si amplifichi la disinformazione», sottolinea David Asch, professore di medicina non coinvolto nello studio.
«ChatGPT comunica in modo davvero efficace, e questo paradossalmente è un problema perché lo rende molto credibile».
D’altro canto, basterebbe credere alle parole dello stesso chatbot per capire che non è ancora il caso di conferirgli la laurea in medicina: quando la CNN ha chiesto all’Intelligenza artificiale se fosse un medico, ha risposto «Se è vero che sono un modello di linguaggio allenato con una vasta quantità di informazioni, non sono un operatore sanitario autorizzato e non sono in grado di fornire diagnosi mediche, trattamenti o consigli».
Fotogallery Il volto umano della medicina
Fonte Focus.it