Anthropic accusa rivali cinesi: "Oltre 24.000 account falsi per copiare il nostro chatbot Claude"

Anthropic accusa rivali cinesi: "Oltre 24.000 account falsi per copiare il nostro chatbot Claude"

La società americana Anthropic ha denunciato che tre aziende cinesi hanno sfruttato oltre 24.000 account falsi sul chatbot Claude per rubare informazioni e replicare il modello linguistico. Questo episodio emerge in un contesto di crescente tensione tecnologica tra Stati Uniti e Cina, con restrizioni sugli export e tentativi di superare il divario tecnologico attraverso pratiche dubbie. La distillazione, tecnica che consiste nell'addestrare un modello più piccolo usando le risposte di uno più grande, pur non essendo illegale in sé, diventa problematica su scala industriale, soprattutto se viola termini di servizio e lascia fuori i sistemi di sicurezza originali progettati da Anthropic per garantire un uso responsabile. Questo apre il rischio concreto che i modelli distillati, privi di "guardrail", possano essere utilizzati in ambiti militari, piattaforme di sorveglianza di massa o disinformazione automatizzata. Tale scenario alimenta la cosiddetta "guerra fredda" dell'intelligenza artificiale, con Washington che introduce restrizioni e Pechino che cerca vie alternative per accedere ai progressi tecnologici occidentali. Attualmente mancano norme specifiche che regolamentino la distillazione su vasta scala, lasciando le aziende americane allerta e pronte a difendere il proprio patrimonio tecnologico. Anthropic ha già reagito chiudendo account falsi e rafforzando sistemi di controllo, ma il caso mette in luce un problema strutturale che coinvolge tutta l'industria dell'IA occidentale.

Questo sito web utilizza cookies e richiede i dati personali per rendere più agevole la tua esperienza di navigazione.