
Il Garante Privacy colpisce Luka Inc.: 5 milioni di euro di multa per violazioni legate al chatbot Replika
Il Garante per la protezione dei dati personali ha inflitto una multa di 5 milioni di euro alla società americana Luka Inc., sviluppatrice del chatbot Replika, a causa di gravi violazioni nella gestione della privacy degli utenti. Replika, un chatbot basato su intelligenza artificiale progettato per offrire supporto emotivo e compagnia virtuale, ha riscosso enorme popolarità globale; tuttavia, le indagini hanno evidenziato numerose carenze nella trasparenza e nella conformità al GDPR, soprattutto in relazione alle basi giuridiche del trattamento dei dati e alla chiarezza della privacy policy offerta agli utenti. L’indagine ha rivelato anche problematiche legate all’addestramento del modello AI, che ha incluso dati personali di utenti, compresi minorenni, senza adeguate misure di anonimizzazione o di separazione dei dati sensibili. A ciò si aggiunge l’assenza di efficaci sistemi di verifica dell’età, consentendo l’accesso indistinto di utenti minorenni senza il consenso dei genitori, una grave violazione delle normative europee sulla protezione dei dati dei minori.
Le infrazioni riscontrate da Luka Inc. includono la mancanza di un fondamento giuridico valido per il trattamento dei dati, informazioni incomplete e poco accessibili agli utenti sull’uso dei dati personali, nonché la mancata adozione di misure organizzative e tecniche adeguate per tutelare la privacy e la sicurezza degli utenti. Questa situazione ha causato la violazione di diversi articoli del GDPR, sottolineando la necessità di un processo di accountability efficace e di stretta conformità normativa. L’impatto della sanzione va oltre Luka Inc., costituendo un monito per l’intero settore dell’intelligenza artificiale: la privacy by design deve essere centrale fin dalle fasi di progettazione di prodotti e servizi AI, accompagnata da controlli rigorosi che proteggano in particolare i più vulnerabili.
La decisione del Garante ha suscitato reazioni contrastanti: mentre le associazioni per la tutela dei consumatori hanno apprezzato il rigore nella protezione dei dati, molte aziende tecnologiche hanno espresso preoccupazione per possibili effetti restrittivi sullo sviluppo dell’intelligenza artificiale. In risposta, sono state elaborate linee guida per promuovere buone pratiche, quali definire chiaramente le basi giuridiche del trattamento, redigere privacy policy multilingue e comprensibili, implementare sistemi di verifica dell’età, minimizzare la raccolta dei dati e garantire efficaci procedure per le richieste degli utenti. Questo caso rappresenta un importante passo verso una maggiore tutela della privacy digitale, confermando la centralità del rispetto della normativa come pilastro imprescindibile per la fiducia e l’etica nell’innovazione tecnologica.