Allarmante Studio Sull’Affidabilità dei Chatbot Medici: 70% di Risposte Errate e Diagnosi Potenzialmente Pericolose

Allarmante Studio Sull’Affidabilità dei Chatbot Medici: 70% di Risposte Errate e Diagnosi Potenzialmente Pericolose

Il recente studio condotto a Roma nel 2025 mette in evidenza le numerose criticità legate all’utilizzo dei chatbot medici in ambito clinico. La ricerca ha esaminato 200 domande in scenari reali e simulati, rivelando che circa il 70% delle risposte fornite da questi strumenti è errato. Questo dato allarma considerando l'impiego crescente dell'intelligenza artificiale nella diagnosi medica. Le problematiche principali riguardano errori diagnostici, informazioni fuorvianti e la presenza di riferimenti bibliografici falsi o inventati in circa il 30% dei casi, alimentando dubbi sulla sicurezza e la responsabilità clinica associata a tali tecnologie.

Un fenomeno particolarmente preoccupante è rappresentato dalle "allucinazioni" dell'IA, ossia la generazione di contenuti non corrispondenti alla realtà scientifica, con conseguenti diagnosi potenzialmente dannose per i pazienti. Nonostante modelli come ChatGPT abbiano mostrato una certa utilità (risposte utili nel 62,2% dei casi), soltanto il 32,1% delle risposte è risultato completamente privo di errori, dimostrando che nessun modello attuale assicura affidabilità piena. Questi elementi sottolineano l'urgenza di sviluppare misure di controllo rigorose e supervisione umana professionale per mitigare i rischi derivanti dall'impiego dei chatbot in sanità.

Per il futuro, lo studio raccomanda l’integrazione ferma tra intelligenza artificiale e personale sanitario, dove i chatbot fungano da supporto ma non da sostituti nella pratica clinica. Azioni come l’implementazione di filtri automatici, la verifica incrociata con database certificati, e la trasparenza sui limiti dei modelli sono necessari per migliorare sicurezza e qualità dell’assistenza digitale. La collaborazione tra sviluppatori, medici e istituzioni deve concretizzarsi per garantire un utilizzo responsabile e affidabile dei chatbot, proteggendo la salute pubblica e rafforzando la fiducia nella sanità digitale.

Questo sito web utilizza cookies e richiede i dati personali per rendere più agevole la tua esperienza di navigazione.