Secondo un nuovo studio, la tecnologia AI è risultata straordinariamente accurata nella diagnosi dei pazienti in ambito sanitario.
Il chatbot di intelligenza artificiale (AI) ChatGPT è risultato accurato al 72% nel processo decisionale clinico in ambito sanitario, lo studio pubblicato nel Giornale di ricerca medica su Internet trovato. Il software è stato in grado di elaborare diagnosi per i pazienti e persino fornire i passaggi successivi per la cura.
“Il nostro documento valuta in modo completo il supporto decisionale tramite ChatGPT fin dall’inizio del lavoro con un paziente attraverso l’intero scenario di cura, dalla diagnosi differenziale fino ai test, alla diagnosi e alla gestione”, ha dichiarato l’autore corrispondente Marc Succi, MD, in una stampa pubblicazione.

pcess609/Getty
“Non esistono parametri di riferimento reali, ma stimiamo che questa performance sia al livello di qualcuno che si è appena laureato in medicina, come uno stagista o un residente. Questo ci dice che gli LLM in generale hanno il potenziale per essere uno strumento di aumento per il pratica della medicina e supportare il processo decisionale clinico con impressionante accuratezza”, ha affermato Succi, presidente associato dell’innovazione e della commercializzazione e leader dell’innovazione strategica presso il Mass General Brigham e direttore esecutivo dell’incubatore MESH.
È stato inoltre riscontrato che il chatbot ha funzionato altrettanto bene in diversi ambienti sanitari, dalle cure primarie a quelle di emergenza.
Per raggiungere questi risultati, i ricercatori del Mass General Brigham hanno chiesto al sistema di intelligenza artificiale varie diagnosi basate sulle informazioni dei pazienti che lo alimentavano. I ricercatori hanno anche incluso dettagli specifici come sesso, età e sintomi del paziente.
Sebbene il bot fosse accurato al 72% nel processo decisionale clinico, ha ottenuto i migliori risultati nelle diagnosi finali, dove era accurato al 77%.
Ha subito alcune battute d’arresto. I ricercatori hanno scoperto che era meno accurato (60%) nel fare diverse possibili diagnosi. Con altre decisioni come l’assegnazione di farmaci a seconda della diagnosi, era anche meno efficace, ma comunque accurato al 68%.
“ChatGPT ha lottato con la diagnosi differenziale, che è la carne e le patate della medicina quando un medico deve capire cosa fare”, ha detto Succi. “Questo è importante perché ci dice dove i medici sono veramente esperti e aggiungono il massimo valore nelle prime fasi della cura del paziente con poche informazioni di presentazione, quando è necessario un elenco di possibili diagnosi”.
Sebbene non possa mai sostituire i professionisti umani in questo modo, la crescita della tecnologia AI potrebbe cambiare l’aspetto di molti settori nel giro di pochi anni. Sebbene la sua capacità di assistere settori come quello sanitario debba essere testata in modo più approfondito, questo studio suggerisce che potrebbe essere implementata in futuro.
“Il generale di massa Brigham vede grandi promesse per i modelli in lingua larga (LLM) per aiutare a migliorare l’assistenza e l’esperienza clinica”, ha affermato il coautore Adam Landman, chief information officer e vicepresidente senior del digitale presso il generale di massa Brigham.
“Attualmente stiamo valutando soluzioni LLM che assistono con la documentazione clinica e redigono risposte ai messaggi dei pazienti con particolare attenzione alla comprensione della loro accuratezza, affidabilità, sicurezza ed equità. Sono necessari studi rigorosi come questo prima di integrare gli strumenti LLM nell’assistenza clinica”.
Hai un suggerimento su una storia scientifica che Newssettimana dovrebbe coprire? Hai una domanda sull’IA? Fatecelo sapere tramite [email protected].