
In Francia la CNIL (Commission nationale de l’informatique et des libertés, il Garante privacy d’oltralpe) si sta preparando a essere l’ente designato a supervisionare gli algoritmi di intelligenza artificiale. In vista di questo compito tutt’altro che facile, a gennaio ha creato al suo interno un dipartimento di intelligenza artificiale per acquisire le competenze e le conoscenze necessarie.
Ora l’autorità ha pubblicato un piano d’azione per migliorare la comprensione delle tecnologie di AI generativa e delle questioni legali ed etiche che esse sollevano. In questo contesto, il nuovo dipartimento per l’intelligenza artificiale e il Laboratorio per l’innovazione digitale (Linc) della CNIL svolgeranno un ruolo centrale e forniranno supporto agli altri dipartimenti dell’autorità.
Il piano sull’AI della CNIL si articola su quattro obiettivi:
1. Comprendere il funzionamento dei sistemi di AI e il loro impatto sugli individui
Le tecniche innovative utilizzate nella progettazione e nel funzionamento degli strumenti di AI sollevano nuove questioni relative alla protezione dei dati, tra cui la veridicità e la trasparenza del trattamento dei dati sottostanti, la protezione contro lo scraping (la sistematica raccolta dei dati disponibili sul web da parte di sistemi automatizzati), la protezione dei dati degli utenti durante l’utilizzo degli strumenti AI, le conseguenze sui diritti degli individui sui loro dati, la protezione contro i pregiudizi e la discriminazione, oltre che le particolari sfide di sicurezza posti da questi nuovi sistemi. Tutti questi aspetti costituiranno una delle aree di lavoro prioritarie del dipartimento AI della CNIL e del suo laboratorio di innovazione digitale (LINC).
2. Guidare e regolamentare lo sviluppo dell’AI nel rispetto dei dati personali
Molte parti interessate hanno espresso incertezza sulle modalità di applicazione del Regolamento generale sulla protezione dei dati (GDPR) all’AI, in particolare per l’addestramento dei sistemi di AI generativa. Per supportare le parti in causa e prepararsi all’entrata in vigore dell’AI Act, la CNIL ha già proposto delle linee guida sull’AI e una posizione sull’uso della videosorveglianza “potenziata” dall’AI negli spazi pubblici. L’autorità presenterà presto una guida sulle regole di condivisione e riutilizzo dei dati, concentrandosi sull’utilizzo dei dati pubblicamente accessibili per l’addestramento di modelli di AI. La CNIL continuerà inoltre a lavorare sulla progettazione di sistemi di AI e sulla creazione di database per l’apprendimento automatico, con diverse pubblicazioni a partire dall’estate 2023.
3. Unire e sostenere gli attori innovativi dell’ecosistema dell’AI in Francia e in Europa
Il piano della CNIL mira a promuovere e aiutare gli stakeholder dell’AI a prosperare in un quadro che rispetti i diritti e le libertà fondamentali francesi ed europei. L’autorità ha lanciato una “sandbox” per sostenere progetti e attori innovativi nel settore dell’AI, un programma di supporto specifico per i fornitori di videosorveglianza aumentata e un nuovo programma di “supporto rafforzato” nel 2023 per assistere le aziende innovative nella conformità al GDPR.
4. Audit e controllo dei sistemi di AI e protezione delle persone
L’autorità svilupperà strumenti per eseguire controlli sui sistemi di AI e garantire il rispetto dei diritti e delle libertà individuali. Nel 2023 le azioni di controllo della CNIL si concentreranno sul rispetto della sua posizione in merito alla videosorveglianza con l’AI, sull’uso dell’AI nell’individuazione delle frodi e sulla gestione dei reclami presentati contro gli sviluppatori e i fornitori di sistemi di AI. Da ricordare che la CNIL ha già ricevuto diversi reclami contro OpenAI, l’azienda dietro ChatGPT, e ha aperto un’indagine (proprio come aveva fatto il nostro Garante privacy, anticipando i tempi).
La CNIL sta compiendo passi significativi per diventare un attore di riferimento nella regolamentazione dell’intelligenza artificiale in Europa. La sua strategia equilibrata, volta anzitutto a una comprensione profonda dell’AI, alla creazione di linee guida chiare, al sostegno dell’innovazione rispettosa dei diritti individuali e al controllo rigoroso delle pratiche, rappresenta un modello di governance dell’AI che potrebbe ispirare altri Paesi. Tuttavia, data la velocità con cui l’AI si evolve, qualsiasi organismo di controllo dovrà mantenere un alto livello di flessibilità e adattabilità per far fronte a nuovi problemi e sfide che emergeranno nei prossimi anni.
Per approfondire: Intelligence artificielle : le plan d’action de la CNIL