
AI e (Geo)Politica: la falsa convergenza normativo-digitale tra UE e USA sulle regole dell’intelligenza artificiale
L'entrata in vigore dell'AI Act dell'Unione Europea nel 2025 segna un punto di svolta nella regolamentazione dell'intelligenza artificiale, imponendo rigide regole e sanzioni alle aziende, in particolare alle Big Tech statunitensi, che operano nel mercato digitale europeo. Questa normativa si focalizza sulla tutela dei diritti fondamentali, trasparenza e responsabilità, con controlli severi e multe fino al 6% del fatturato globale, introducendo un approccio precauzionale unico al mondo. Tuttavia, gli Stati Uniti mantengono una posizione di autoregolamentazione, senza una normativa federale unitaria, affidandosi a interventi settoriali e a una cultura della libertà di innovazione che lascia spazio a rischi come discriminazioni e opacità algoritmica. L'accordo commerciale UE-USA del luglio 2025 ha tentato una regolamentazione digitale congiunta, ma si è arenato su differenze fondamentali, accentuando la frammentazione tra due modelli opposti. Le divergenti strategie normative influenzano le scelte delle Big Tech e generano implicazioni economiche e geopolitiche, rischiando un protezionismo digitale e una frammentazione del cyberspazio globale. In questo contesto di incertezza, l'UE deve bilanciare la rigidezza normativa con l'innovazione, promuovendo il dialogo internazionale e costruendo alleanze per standard condivisi. Il futuro della governance dell'IA transatlantica dipenderà dalla capacità di superare frizioni e creare un quadro comune che favorisca crescita, sicurezza e equità, garantendo che l'intelligenza artificiale sia un volano di progresso piuttosto che un terreno di conflitto.