Anthropic dice no al Pentagono: "Claude non sarà un'arma senza vincoli"
Il primo paragrafo introduce lo scontro fra Anthropic, azienda sviluppatrice del modello di intelligenza artificiale Claude, e il Pentagono. L'azienda ha respinto la richiesta statunitense di un accesso senza restrizioni alla sua IA, rifiutando di rimuovere i sistemi di sicurezza che impediscono usi potenzialmente dannosi della tecnologia. Si è così creata una frattura tra la visione militare, orientata a un uso più libero e strategico, e quella tecnologica di Anthropic, che punta a cautela e tutela.
Il secondo paragrafo descrive l'ultimatum imposto dal ministro della Difesa americano Pete Hegseth, che ha richiesto ad Anthropic di cedere alle condizioni o affrontare una rottura contrattuale. L'amministrazione vuole accelerare l’integrazione dell’IA nelle difese, ma la società guidata da Dario Amodei, ex OpenAI e focalizzata sulla sicurezza IA, ha dichiarato che non intende compromettere i suoi principi. La rimozione dei filtri consentirebbe usi militari non sorvegliati, una prospettiva inaccettabile per Anthropic.
Nel terzo paragrafo, il dibattito viene inquadrato nel contesto globale. L’utilizzo militare di IA è ormai una realtà concreta, con Stati Uniti e Cina in corsa tecnologica e l’Unione Europea che cerca di regolamentare le applicazioni civili con misure spesso escluse per il settore difesa. Questa tensione ha implicazioni anche per l’Italia coinvolta in programmi Nato. La resistenza di Anthropic rappresenta un precedente che potrebbe influenzare le politiche sul controllo e l’etica dell’intelligenza artificiale a livello internazionale.