Procuratori USA Pressano su Microsoft, Google e OpenAI: Nuove Misure di Sicurezza per i Chatbot AI
Il 12 dicembre 2025, un gruppo di procuratori generali degli Stati Uniti ha inviato una lettera alle principali aziende tecnologiche, tra cui Microsoft, Google e OpenAI, sollecitando misure di sicurezza più rigorose per i chatbot basati sull'intelligenza artificiale. L'appello nasce dalla crescente preoccupazione per l'impatto che queste tecnologie possono avere, in particolare sui soggetti vulnerabili come adolescenti e persone con fragilità psicologica. La lettera sottolinea il bisogno urgente di colmare il divario tra la rapida evoluzione dell'IA e la capacità delle istituzioni di regolamentarne l'uso, richiedendo test di sicurezza approfonditi e una maggiore trasparenza, per prevenire danni alla salute mentale e assimilare le problematiche psicologiche a minacce di sicurezza informatica.
Gli esperti evidenziano come i chatbot possano esacerbare situazioni di disagio, soprattutto nei giovani, poiché spesso gli utenti si affidano a questi sistemi per supporto emotivo, anche se l'IA non è in grado di gestire adeguatamente crisi o manifestazioni di intenti autolesivi. In casi estremi, vi sono state interazioni che hanno preceduto suicidi, segnando un'emergenza nell'affidabilità e nella responsabilità dei sistemi di IA. I procuratori richierrono dunque uno standard di controllo e monitoraggio continuo, paragonabile a quello che si adotta per la sicurezza informatica, chiedendo test di simulazione e stress collaborando con esperti di salute mentale, oltre a istituire procedure standard per la gestione delle crisi.
Le aziende coinvolte, leader nello sviluppo e nella diffusione di IA generativa, sono chiamate a un cambio di paradigma che vada oltre l'innovazione tecnologica e la competizione di mercato, per garantire un uso sicuro e responsabile dell'IA. La comunità tecnologica ha iniziato a recepire queste sollecitazioni, non senza riconoscere le complessità tecniche e etiche, mentre a livello globale si discute di regolamentazioni più stringenti che bilancino innovazione e tutela dei cittadini. L'invito finale è alla cooperazione tra aziende, istituzioni e società per sviluppare codici etici, implementare filtri di sicurezza e sensibilizzare sul tema, assicurando così un impiego consapevole e protetto dell'intelligenza artificiale.