Discord adotta il riconoscimento facciale: nuove regole per la sicurezza e il controllo dell’età sulla piattaforma

Discord adotta il riconoscimento facciale: nuove regole per la sicurezza e il controllo dell’età sulla piattaforma

Nel contesto della crescente preoccupazione per la sicurezza online dei minori, Discord ha annunciato per marzo 2026 l'introduzione obbligatoria del riconoscimento facciale per la verifica dell'età. Questa misura, ispirata alle pratiche di Roblox, mira a garantire un ambiente più sicuro, prevenendo l'accesso di utenti non verificati a contenuti sensibili e limitando i rischi di adescamento online. L'impostazione predefinita per tutti gli account sarà il livello "adolescente", con restrizioni severe su chat private e accesso a contenuti 18+. Tutti gli utenti dovranno sottoporsi a una procedura di verifica tramite video selfie o documenti d'identità per sbloccare le funzionalità avanzate. Nonostante le rassicurazioni di Discord riguardo alla privacy e alla conformità con normative come il GDPR, la community manifesta preoccupazioni sull'uso e la conservazione dei dati biometrici. Le istituzioni educative supportano le nuove regole, sottolineando anche l'importanza di un'educazione digitale complementare. A livello internazionale, questa tendenza cresce tra piattaforme digitali, anche se permangono criticità legate all'inclusività e all'impatto tecnico per gli utenti meno esperti. Discord si pone così come un modello innovativo per la tutela dei minori, evidenziando però la necessità di bilanciare sicurezza, privacy e accessibilità per garantire un futuro digitale più sicuro e consapevole.

Questo sito web utilizza cookies e richiede i dati personali per rendere più agevole la tua esperienza di navigazione.