Perché l’Intelligenza Artificiale 'Indovina' invece di Dire la Verità: La Nuova Rivelazione di OpenAI sui Modelli Linguistici

Perché l’Intelligenza Artificiale 'Indovina' invece di Dire la Verità: La Nuova Rivelazione di OpenAI sui Modelli Linguistici

Nel settembre 2025, uno studio di OpenAI ha rivelato che i modelli linguistici come ChatGPT tendono a generare risposte false o 'allucinate' non per errore tecnico, ma perché sono addestrati a fornire risposte plausibili, anche quando non dispongono di informazioni certe. Questa tendenza nasce principalmente dal processo di pretraining e dai criteri di valutazione che premiano la produzione di risposte coerenti e fluenti, anziché la trasparenza o il riconoscimento dell’incertezza. Nel contesto pratico, circa il 20% delle risposte generate su dati precisi come le date di nascita risultano inventate, rappresentando un problema serio in ambiti critici come l’istruzione, la sanità e la finanza. L’influenza del pretraining è centrale: i modelli imparano a prevedere la parola successiva nel testo basandosi sulla probabilità e la coerenza statistica, favorendo la generazione di contenuti credibili ma potenzialmente errati. Inoltre, le metriche di valutazione, orientate a premiare risposte complete e scorrevoli, disincentivano l’ammissione dell’incertezza, spingendo i modelli a rispondere comunque anche in assenza di dati adeguati. Per mitigare queste criticità, i ricercatori propongono di aggiornare i criteri di valutazione premiando la capacità dei modelli di riconoscere la mancanza di conoscenza e di esprimere incertezza, favorendo così una maggiore affidabilità e trasparenza. Questa revisione potrebbe portare anche a benefici educativi, stimolando la formazione critica sull’uso dell’AI, e a una maggiore fiducia sociale verso queste tecnologie. L’approccio invita a considerare l’intelligenza artificiale non come una fonte infallibile di dati, ma come uno strumento strategico che deve essere utilizzato con consapevolezza e responsabilità, evitando la pericolosa delega totale del giudizio umano alle macchine che 'indovinano' anziché informare.

Questo sito web utilizza cookies e richiede i dati personali per rendere più agevole la tua esperienza di navigazione.