L’addio definitivo a GPT-4o: tra empatia, controversie e un futuro incerto per l’intelligenza artificiale

L’addio definitivo a GPT-4o: tra empatia, controversie e un futuro incerto per l’intelligenza artificiale

Il 13 febbraio 2026 segna la fine di GPT-4o, modello AI di OpenAI noto per la sua empatia avanzata, suscitando reazioni contrastanti tra delusione e preoccupazioni etiche. La decisione nasce da temi complessi quali la dipendenza emotiva degli utenti, i rischi sul benessere psicologico e cause legali che hanno portato a rivedere i limiti della tecnologia empatica. GPT-4o era amato per la sua capacità di interpretare e rispondere ai sentimenti umani, diventando un «compagno virtuale» per molti, ma proprio questa sensibilità ha sollevato allarmi circa l'uso improprio e l'impatto emotivo negativo.

Il modello ha generato un’intensa interazione emotiva, evidenziata dalla nascita del subreddit r/4oforever, dove utenti affrontano il «lutto digitale», condividendo ricordi e riflessioni. Tuttavia, esperti hanno messo in luce i pericoli della sostituzione di relazioni umane con intelligenze artificiali e i potenziali rischi di manipolazione emotiva. OpenAI ha riconosciuto l'importanza del tema, adottando misure preventive e audit interni, e affrontando richieste di regolamentazione più severe per tutelare gli utenti più vulnerabili.

Il dibattito attorno all’intelligenza artificiale empatica evidenzia un bilanciamento delicato tra innovazione e tutela psicologica, tra progresso tecnologico e responsabilità sociale. OpenAI pianifica di sviluppare modelli futuri più etici e controllabili, in collaborazione con enti di salute mentale. L’esperienza di GPT-4o apre una nuova fase di riflessione che dovrà coniugare tecnologie avanzate e centralità della persona, garantendo sicurezza ed efficacia nella comunicazione digitale senza perdere di vista l’umanità dietro ogni interazione.

Questo sito web utilizza cookies e richiede i dati personali per rendere più agevole la tua esperienza di navigazione.