
In questo ultimo approfondimento, ho preferito inserire gli ultimi quattro capitoli di questo lungo Report Interpol-Unicri, perché intimamente connessi alle recenti regolamentazioni anche in ambito privacy, nonché proiettati in quella che è la roadmap e il percorso a venire, per le forze dell’ordine. Il capitolo quattro inizia con la presentazione dei principi generali che le forze dell’ordine dovrebbero cercare di rispettare, vale a dire il rispetto dei diritti umani, della democrazia, della giustizia e dello stato di diritto, nonché i relativi requisiti di equità, responsabilità, trasparenza e spiegabilità che dovrebbero essere adottati affinché le forze dell’ordine possano rispettare questi principi.
Nel capitolo cinque, inizia il cammino verso la realizzazione di un uso responsabile dell’IA, con l’individuazione di specifiche esigenze di polizia e di azioni raccomandate che sono state presentate e discusse dai rappresentanti delle forze dell’ordine.
Il capitolo sei presenta una proposta, di INTERPOL e UNICRI, per lo sviluppo di un kit di strumenti operativi a supporto e guida della legge. l’applicazione nella progettazione, nello sviluppo e nella diffusione dell’IA in modo responsabile.
Il rapporto si conclude con il capitolo sette, che definisce una selezione di punti di azione per la comunità internazionale delle forze dell’ordine, i responsabili politici e le organizzazioni intergovernative.
4. ATTINGERE AD UNA AI RESPONSABILE
Nel primo rapporto INTERPOL-UNICRI sull’IA per le forze dell’ordine, le prospettive giuridiche ed etiche della l’uso dell’IA sono state ampiamente introdotte con un avvertimento: che le forze dell’ordine debbano garantire un uso responsabile dell’IA. Anche se il presente rapporto mira ad essere orientato alla pratica e al funzionamento, è utile chiarire il termine “responsabile” fin dall’inizio per evitare interpretazioni ambigue. Lo suggerisce il fondamentale libro bianco del 2019 “AI ed etica nella polizia” dell’Università di Leiden, dal punto di vista giuridico, agire in modo responsabile significa «accettare l’integrità morale e l’autenticità come ideali e compiere uno sforzo ragionevole per raggiungerli». La ricerca dell’integrità morale, a sua volta, implica «adesione ai valori della libertà, dell’uguaglianza e della solidarietà». In questo contesto, l’uso responsabile dell’IA da parte delle forze dell’ordine deve essere inteso come uso che sancisce i principi generali del rispetto dei diritti umani, della democrazia, della giustizia e dello stato di diritto. Per il raggiungimento di questi principi, le forze dell’ordine devono lavorare per soddisfare i requisiti di equità, responsabilità, trasparenza e spiegabilità (FATE: fairness, accountability, transparency and explainability).
Fairness — L’equità implica che le decisioni algoritmiche non creino discriminazioni o ingiustizie sugli utenti finali. Le decisioni automatizzate non dovrebbero essere prese sulla base di attributi, come l’etnia, il genere, l’orientamento sessuale, in quanto possono portare a discriminazioni. Allo stesso tempo, evitare semplicemente questi attributi non è una soluzione, poiché essi possono tuttavia derivare indirettamente da altri criteri. Per esempio, anche quando la “etnicità” non è un criterio, se le persone di una specifica etnia vivono in una certa zona e l’”indirizzo” è un criterio, il modello può comunque fare una valutazione ingiusta. Equità richiede che tutti i sistemi di IA siano rigorosamente controllati per dimostrare la conformità con il diritto alla non discriminazione e, nel caso in cui si verifichi una discriminazione, devono essere messe in atto misure di diritto per un rimedio efficace.
La (accountability) responsabilità può essere intesa come la responsabilità di un’azione intrapresa ed essere in grado di fornire una giustificazione soddisfacente per tale azione. Il sistema giuridico è costruito su agenti umani e quindi, sostituendoli con agenti autonomi, come l’IA, getta questo sistema nel caos. Data la difficoltà di portare un sistema autonomo davanti a un tribunale, risulta fondamentale individuare chi porta su di sé la responsabilità per le azioni intraprese da un sistema di IA. È lo sviluppatore, il produttore o l’utente finale?
La (transparency) trasparenza comprende la fornitura di informazioni chiare sulle decisioni umane prese al momento della costruzione del modello. Questo va oltre la fornitura di ‘termini’ complessi di servizi” e comprende invece materie come: qual è l’obiettivo dell’utilizzo dell’IA in un contesto specifico? Quali decisioni sono completamente automatizzate? Quale modello di apprendimento automatico viene impiegato? Quali dati vengono utilizzati? Quali caratteristiche del set di dati vengono prese in considerazione? Vengono presi in considerazione anche gli attributi individuali sensibili? Come viene rispettata la privacy dei dat? La trasparenza richiede che domande come queste siano chiaramente poste e che coloro che implementano il sistema di IA, siano in grado di rispondere.
La (explainability) spiegabilità, è strettamente legata all’esigenza di trasparenza. Si differenzia tuttavia per il fatto che la spiegabilità si concentra sulla garanzia che le decisioni algoritmiche possano essere comprese dagli utenti finali in termini non tecnici. Ciò riguarda il cosiddetto problema della “black box”. I sistemi di deep learning sono letteralmente scatole nere che combinano e ricombinano gli attributi in molti modi arbitrari. Una volta fornito un input, il comportamento interno che porta il sistema all’output può non essere chiaro. La spiegabilità richiede che gli utenti finali siano in grado di interpretare le informazioni estratte dalla scatola nera e di capire quali elementi utilizzati nel modello di apprendimento automatico erano responsabili di ogni specifico output. A differenza degli altri requisiti di correttezza, responsabilità e trasparenza, la spiegabilità è una sfida tecnica per gli sviluppatori e i produttori. Diversi gruppi stanno comunque lavorando per sviluppare strumenti in grado di spiegare e presentare in termini comprensibili quali caratteristiche dei dati erano più importanti per il modello, così come l’effetto di ogni caratteristica su ogni particolare output.
Oltre a questi quattro requisiti, i concetti di sicurezza e robustezza sono spesso sollevati anche in termini di affidabilità generale dei sistemi di IA e di resilienza agli attacchi e in termini di sicurezza, attraverso, in primo luogo, l’integrità periodica del sistema e gli aggiornamenti da parte di sia ingegneri interni, agenti di polizia (essendo gli utenti) che, se necessario, un partner esterno di fiducia, in secondo luogo, la capacità di interoperabilità, che può essere intesa come garanzia che il sistema sia “facile da operare” da parte dei funzionari e “fattibile da utilizzare con altri sistemi futuri”.
Affinché, faro di ogni implementazione, sia la fiducia della gente verso l’operato dei corpi di polizia, il Rapporto elenca alcuni elementi necessari, quali:
– diritto
– accettazione sociale
– etica.
Diritto: ci sono importanti sfide legali per le forze dell’ordine nel campo dell’IA. Se le forze dell’ordine non riescono a superare queste sfide, l’uso dell’IA può violare i diritti umani fondamentali, come il diritto alla privacy, l’uguaglianza e la non discriminazione, oltre a minare i principi della legge, come la presunzione di innocenza, il privilegio contro l’autoincriminazione e la prova al di là di ogni ragionevole dubbio. L’uso dell’IA deve essere conforme alla legge. Vengono, all’uopo, richiamati due testi che devono fungere da guida, e sono il GDPR e il LED. Del GDPR già sappiamo. Il LED, noto anche come Direttiva di Polizia, è entrato in vigore nel maggio 2016 e mira ad applicare le norme che disciplinano i dati personali nel GDPR, alle attività delle forze dell’ordine. È stata annunciata per il suo ruolo in costruire «uno spazio di libertà, sicurezza e giustizia con un elevato livello di protezione dei dati, in conformità con la Carta dei diritti fondamentali dell’UE». Con l’obiettivo di proteggere i dati personali delle persone, garantendo al contempo un elevato livello di sicurezza pubblica, il LED prevede diritti per gli interessati, nonché obblighi per le “autorità competenti” in caso di trattamento dei dati per “finalità di contrasto”, ossia per la prevenzione, le indagini, l’accertamento, il perseguimento di reati o l’esecuzione di sanzioni penali, compresa la protezione e la prevenzione delle minacce alla sicurezza pubblica.
Poiché, però, nessuna delle due legislazioni è nata per sistemi decisionali autonomi, non pochi problemi sono sorti, nel momento della loro applicabilità. Se il GDPR, ai sensi dell’articolo 22, implica un diritto di spiegazione per le decisioni automatizzate, compresa la profilazione, il che significa che “i controllori dovranno progettare, sviluppare e applicare i loro algoritmi in modo trasparente, in modo prevedibile e verificabile”, aggiungendo che “la persona interessata ha il diritto di non essere oggetto di una decisione basata esclusivamente su un trattamento automatizzato”, a meno che non si basi sul consenso esplicito del soggetto, Il LED copre anche specificamente i sistemi ADM, ai sensi dell’articolo 11, che prevede che tali sistemi che producono un effetto giuridico negativo sull’interessato o lo colpiscono in modo significativo, dovrebbe essere vietato, a meno che non sia autorizzato dalla legislazione dell’UE o degli Stati membri in base alla quale il titolare del trattamento è il soggetto che fornisce adeguate garanzie per i diritti e le libertà della persona interessata.
Accettazione sociale. Un’efficace azione di polizia si basa molto sulla fiducia della comunità. La sicurezza pubblica può essere compromessa quando le comunità perdono fiducia nelle forze dell’ordine. A questo proposito, l’accettazione sociale dell’uso dell’IA da parte del pubblico è di fondamentale importanza in questo settore. È essenziale che le forze dell’ordine restino consapevoli di questa necessità, così come dell’importanza della comunicazione e della condivisione delle informazioni con i principali soggetti interessati e con il pubblico in generale.
Per comunicare in modo appropriato con il pubblico, è anche essenziale capire come meglio raggiungere le parti interessate. A questo proposito, l’indagine, condotta nel 2018 dal Centro di studi superiori del Ministero dell’Interno francese, dall’Accademia nazionale francese di polizia e dalla Gendarmeria nazionale francese, con l’Università di Lione, ha anche rivelato che il pubblico tende a preferire di ottenere informazioni sull’uso dell’IA, da un’autorità indipendente o dal governo, piuttosto che dal mondo accademico o dal settore privato, e che gli ufficiali delle forze dell’ordine preferiscono ricevere una formazione professionale da un ufficiale che ha esperienza sul campo con la tecnologia.
Etica. Diverse sono state, come sappiamo, le iniziative, all’interno dell’Unione Europea, per uniformare un disegno unico su una fondamentale visione etica, legittima, robusta ed antropocentrica dell’Intelligenza Artificiale. Oltre ai quattro principi etici generali (rispetto dell’autonomia umana; prevenzione del danno; equità e spiegabilità), vengono ulteriormente identificati una serie di sette requisiti per lo sviluppo dei sistemi IA,
– agenzia umana e supervisione;
– robustezza tecnica e sicurezza;
– privacy e governance dei dati;
– trasparenza e diversità;
– non discriminazione ed equità;
– benessere sociale e ambientale;
– e responsabilità,
attuabili attraverso metodi sia tecnici (progettazione e privacy-by-design, così come i test per la convalida del sistema e gli indicatori di qualità del servizio) che non tecnici (regolamentazione; codici di condotta; la standardizzazione; la certificazione; e la partecipazione e gli sforzi in termini di responsabilità, ad esempio attraverso, quadri di governance, educazione e sensibilizzazione per promuovere una mentalità etica, la partecipazione di stakeholder, il dialogo sociale e la creazione di team di progettazione diversificati e inclusivi).
Quegli stessi sforzi, fatti a livello transnazionale, si stanno verificando anche nei singoli stati, ad opera di organismi privati o Enti di ricerca: è il caso, nel settore finanziario, nel novembre 2018, della Monetary Authority of Singapore (MAS), la quale ha pubblicato i suoi Principles to Promote Fairness, Ethics, Accountability and Transparency in the Use of AI and Data Analytics in Singapore’s Financial Sector, per fornire una guida alle aziende che offrono prodotti e servizi finanziari, per promuovere una maggiore fiducia nell’uso dell’IA in questo settore. O, nel settore sanitario, il Royal Australian and New Zealand College of Radiologists ha proposto un quadro di riferimento, ad agosto 2019, contenente nove principi etici che hanno lo scopo di guidare tutti i soggetti coinvolti nella ricerca o nella diffusione dell’IA in medicina, compresi gli sviluppatori, i dirigenti dei servizi sanitari e i medici.
5. AZIONI RACCOMANDATE
Bisogni:
– Stabilire un linguaggio comune e una linea di base comune tra le forze dell’ordine, l’industria, il mondo accademico e gli stakeholder della società civile riguardo all’uso dell’IA da parte delle forze dell’ordine;
– aumentare la collaborazione tra le forze dell’ordine, l’industria, il mondo accademico e gli attori della società civile;
– condividere le idee sui casi d’uso e le prospettive sull’adozione dell’IA;
– progettare meccanismi per la valutazione dell’uso dell’IA in progetti pilota e collaborare alla sua valutazione;
– standardizzare i dati, la raccolta dei dati, le misure di protezione dei dati;
– sviluppare approcci comuni per l’anonimizzazione dei dati; e,
– impostare piattaforme digitali per la condivisione delle conoscenze, l’aggiornamento dei progetti, la ricerca e lo sviluppo e le opportunità di finanziamento.
RACCOMANDAZIONI:
· Sviluppare una guida per le forze dell’ordine sull’implementazione di nuove tecnologie per sostenerle e incoraggiarle ad esplorare e investire in nuove opportunità IA e di sviluppare la formazione in nuove applicazioni di IA;
· creare una base di conoscenza con la comunità delle forze dell’ordine sui requisiti per l’adozione dell’IA, come ad esempio quali tipi di problemi l’IA è in grado di affrontare, le limitazioni attuali o intrinseche e le risorse (strumenti, dati, competenze, potenza di calcolo) necessarie per implementare soluzioni di IA;
· sviluppare una guida per le forze dell’ordine sull’ammissibilità dell’IA in tribunale che valuti l’impatto e i risultati dell’uso specifico dell’IA nei tribunali, garantendo al tempo stesso l’efficacia delle soluzioni di IA. rispetto dei diritti umani e dello stato di diritto;
· creare un comitato consultivo di esperti che possa fornire una guida alle forze dell’ordine in termini di legislazione e funga da forum per discutere le opportune misure legislative con esperti legali e altre parti interessate;
· identificare un organismo esterno globale per fornire supporto consultivo alle forze dell’ordine su questioni etiche e di fornire supporto nello svolgimento di audit per verificare se uno è responsabile e rispetta i requisiti di legge;
· favorire una comunità e organizzare corsi di formazione e workshop per attrarre e collegare i diversi soggetti interessati provenienti dalle forze dell’ordine, dall’industria, dal mondo accademico e dal settore civile e dagli organismi internazionali con i diversi background e le prospettive essenziali per raccogliere e sintetizzare i punti di vista di settori trasversali della società, al fine di fornire un quadro equilibrato.
6. TOOLKIT PER RAFFORZAMENTI DELLA LEGGE
Il focus del toolkit potrebbe includere:
– Una spiegazione generale dell’IA, inclusa una definizione di lavoro rilevante per le forze dell’ordine;
– guida all’uso dell’IA per le forze dell’ordine, compresa l’identificazione e la compilazione dei principali documenti di intelligence. domini tecnologici e possibili casi d’uso;
– considerazioni su esempi o buone pratiche di uso affidabile, legale e responsabile dell’IA nelle forze dell’ordine — sintesi di requisiti importanti, come l’equità, la responsabilità, la trasparenza e la spiegabilità, da prendere in considerazione quando un’agenzia di polizia intende sviluppare un progetto abilitato all’IA (in-house) o procurarsi uno strumento/sistema di IA (soluzioni esterne) — e una serie di buone pratiche raccomandate che riflettono i principi generali e cercano di costruire la fiducia e l’accettazione sociale;
– raccomandazioni passo dopo passo per lo sviluppo, l’implementazione e la manutenzione di un Sistema potenziato dall’IA nelle forze dell’ordine, compresa una lista di controllo delle considerazioni operative per garantire che il sistema/funzionamento sia conforme alla considerazione sopra menzionata.
7. PIANO DI AZIONE
È utile sottolineare lo scopo, la struttura e il livello di astrazione del documento. Prima di tutto, come toolkit, dovrebbe servire da guida di riferimento per l’applicazione della legge e, in nessun caso, deve essere considerata di natura obbligatoria o vincolante, e deve essere sempre orientato alla pratica e all’operatività e deve evitare di cadere in discussioni concettuali. È pertanto rivolto a:
– I dirigenti della polizia o i principali responsabili delle decisioni nelle forze dell’ordine;
– i funzionari delle forze dell’ordine responsabili dell’innovazione e dell’uso della tecnologia nei loro rispettivi paesi. agenzie; funzionari di R&S incaricati di sviluppare capacità di IA all’interno dell’azienda o che possono influenzare i processi di approvvigionamento in outsourcing; e
– legali o consulenti legali che forniscono consulenza sulle leggi e i regolamenti riguardanti l’uso specifico di IA nel lavoro di polizia.
Per chi avesse perso le sezioni uno, due, tre del Report, può trovarle nei miei precedenti post.
Riproduzione Riservata
Avv Raffaella Aghemo