
I garanti privacy dei Paesi del G7 si sono riuniti a Tokyo per occuparsi, fra le altre cose, dei problemi di protezione dei dati legati ai modelli di AI generativa come ChatGPT. La rapida proliferazione di tali modelli, se non regolamentati adeguatamente, potrebbe comportare potenziali rischi per la privacy e i diritti umani.
Il “Processo di Hiroshima”, un’iniziativa dei ministri del digitale del G7, mira ad affrontare queste sfide, concentrandosi su governance, trasparenza e uso responsabile della tecnologia. L’iniziativa si traduce in un Codice di condotta volontario sull’AI generativa, sviluppato con la Commissione europea e i partner del G7.
I rappresentanti delle autorità garanti della riservatezza hanno sottolineato le questioni legali nell’uso dei dati personali per l’addestramento dei modelli di AI, in particolare dei minori, e la necessità di solide garanzie di sicurezza. Essi hanno inoltre chiesto trasparenza nelle operazioni condotte dai modelli AI e di limitare la raccolta di dati personali.
I fornitori di sistemi di AI generativa sono invitati ad attuare misure che rispettino i diritti individuali, come la rettifica e la cancellazione dei dati, citando la sospensione temporanea di ChatGPT da parte dell’Italia come esempio di azione normativa.
Parallelamente, le autorità del G7 continuano a fornire agli sviluppatori di AI linee guida sulla conformità alla privacy e a promuovere la cooperazione attraverso una task force dedicata. Agli sviluppatori è consigliata l’adozione dei princìpi di “privacy by design” e di conservare la documentazione per la valutazione dell’impatto sulla privacy. Ulteriori discussioni sulle sfide dell’AI generativa in materia di privacy sono previste nell’ambito di un gruppo di lavoro sulle tecnologie emergenti.
Per approfondire: G7 data protection authorities point to key concerns on generative AI