Report AI per le Forze dell’ordine (terza parte) continua

Affinché, faro di ogni implementazione, sia la fiducia della gente verso l’operato dei corpi di polizia, il Rapporto elenca alcuni elementi necessari, quali:

– diritto

– accettazione sociale

– etica.

Diritto: ci sono importanti sfide legali per le forze dell’ordine nel campo dell’IA. Se le forze dell’ordine non riescono a superare queste sfide, l’uso dell’IA può violare i diritti umani fondamentali, come il diritto alla privacy, l’uguaglianza e la non discriminazione, oltre a minare i principi della legge, come la presunzione di innocenza, il privilegio contro l’autoincriminazione e la prova al di là di ogni ragionevole dubbio. L’uso dell’IA deve essere conforme alla legge. Vengono, all’uopo, richiamati due testi che devono fungere da guida, e sono il GDPR e il LED. Del GDPR già sappiamo. Il LED, noto anche come Direttiva di Polizia, è entrato in vigore nel maggio 2016 e mira ad applicare le norme che disciplinano i dati personali nel GDPR, alle attività delle forze dell’ordine. È stata annunciata per il suo ruolo in costruire «uno spazio di libertà, sicurezza e giustizia con un elevato livello di protezione dei dati, in conformità con la Carta dei diritti fondamentali dell’UE». Con l’obiettivo di proteggere i dati personali delle persone, garantendo al contempo un elevato livello di sicurezza pubblica, il LED prevede diritti per gli interessati, nonché obblighi per le “autorità competenti” in caso di trattamento dei dati per “finalità di contrasto”, ossia per la prevenzione, le indagini, l’accertamento, il perseguimento di reati o l’esecuzione di sanzioni penali, compresa la protezione e la prevenzione delle minacce alla sicurezza pubblica.

Poiché, però, nessuna delle due legislazioni è nata per sistemi decisionali autonomi, non pochi problemi sono sorti, nel momento della loro applicabilità. Se il GDPR, ai sensi dell’articolo 22, implica un diritto di spiegazione per le decisioni automatizzate, compresa la profilazione, il che significa che “i controllori dovranno progettare, sviluppare e applicare i loro algoritmi in modo trasparente, in modo prevedibile e verificabile”, aggiungendo che “la persona interessata ha il diritto di non essere oggetto di una decisione basata esclusivamente su un trattamento automatizzato”, a meno che non si basi sul consenso esplicito del soggetto, Il LED copre anche specificamente i sistemi ADM, ai sensi dell’articolo 11, che prevede che tali sistemi che producono un effetto giuridico negativo sull’interessato o lo colpiscono in modo significativo, dovrebbe essere vietato, a meno che non sia autorizzato dalla legislazione dell’UE o degli Stati membri in base alla quale il titolare del trattamento è il soggetto che fornisce adeguate garanzie per i diritti e le libertà della persona interessata.

Accettazione sociale. Un’efficace azione di polizia si basa molto sulla fiducia della comunità. La sicurezza pubblica può essere compromessa quando le comunità perdono fiducia nelle forze dell’ordine. A questo proposito, l’accettazione sociale dell’uso dell’IA da parte del pubblico è di fondamentale importanza in questo settore. È essenziale che le forze dell’ordine restino consapevoli di questa necessità, così come dell’importanza della comunicazione e della condivisione delle informazioni con i principali soggetti interessati e con il pubblico in generale.

Per comunicare in modo appropriato con il pubblico, è anche essenziale capire come meglio raggiungere le parti interessate. A questo proposito, l’indagine, condotta nel 2018 dal Centro di studi superiori del Ministero dell’Interno francese, dall’Accademia nazionale francese di polizia e dalla Gendarmeria nazionale francese, con l’Università di Lione, ha anche rivelato che il pubblico tende a preferire di ottenere informazioni sull’uso dell’IA, da un’autorità indipendente o dal governo, piuttosto che dal mondo accademico o dal settore privato, e che gli ufficiali delle forze dell’ordine preferiscono ricevere una formazione professionale da un ufficiale che ha esperienza sul campo con la tecnologia.

Etica. Diverse sono state, come sappiamo, le iniziative, all’interno dell’Unione Europea, per uniformare un disegno unico su una fondamentale visione etica, legittima, robusta ed antropocentrica dell’Intelligenza Artificiale. Oltre ai quattro principi etici generali (rispetto dell’autonomia umana; prevenzione del danno; equità e spiegabilità), vengono ulteriormente identificati una serie di sette requisiti per lo sviluppo dei sistemi IA,

– agenzia umana e supervisione;

– robustezza tecnica e sicurezza;

– privacy e governance dei dati;

– trasparenza e diversità;

– non discriminazione ed equità;

– benessere sociale e ambientale;

– e responsabilità,

attuabili attraverso metodi sia tecnici (progettazione e privacy-by-design, così come i test per la convalida del sistema e gli indicatori di qualità del servizio) che non tecnici (regolamentazione; codici di condotta; la standardizzazione; la certificazione; e la partecipazione e gli sforzi in termini di responsabilità, ad esempio attraverso, quadri di governance, educazione e sensibilizzazione per promuovere una mentalità etica, la partecipazione di stakeholder, il dialogo sociale e la creazione di team di progettazione diversificati e inclusivi).

Quegli stessi sforzi, fatti a livello transnazionale, si stanno verificando anche nei singoli stati, ad opera di organismi privati o Enti di ricerca: è il caso, nel settore finanziario, nel novembre 2018, della Monetary Authority of Singapore (MAS), la quale ha pubblicato i suoi Principles to Promote Fairness, Ethics, Accountability and Transparency in the Use of AI and Data Analytics in Singapore’s Financial Sector, per fornire una guida alle aziende che offrono prodotti e servizi finanziari, per promuovere una maggiore fiducia nell’uso dell’IA in questo settore. O, nel settore sanitario, il Royal Australian and New Zealand College of Radiologists ha proposto un quadro di riferimento, ad agosto 2019, contenente nove principi etici che hanno lo scopo di guidare tutti i soggetti coinvolti nella ricerca o nella diffusione dell’IA in medicina, compresi gli sviluppatori, i dirigenti dei servizi sanitari e i medici.

5. AZIONI RACCOMANDATE

Bisogni:

– Stabilire un linguaggio comune e una linea di base comune tra le forze dell’ordine, l’industria, il mondo accademico e gli stakeholder della società civile riguardo all’uso dell’IA da parte delle forze dell’ordine;

– aumentare la collaborazione tra le forze dell’ordine, l’industria, il mondo accademico e gli attori della società civile;

– condividere le idee sui casi d’uso e le prospettive sull’adozione dell’IA;

– progettare meccanismi per la valutazione dell’uso dell’IA in progetti pilota e collaborare alla sua valutazione;

– standardizzare i dati, la raccolta dei dati, le misure di protezione dei dati;

– sviluppare approcci comuni per l’anonimizzazione dei dati; e,

– impostare piattaforme digitali per la condivisione delle conoscenze, l’aggiornamento dei progetti, la ricerca e lo sviluppo e le opportunità di finanziamento.

RACCOMANDAZIONI:

· Sviluppare una guida per le forze dell’ordine sull’implementazione di nuove tecnologie per sostenerle e incoraggiarle ad esplorare e investire in nuove opportunità IA e di sviluppare la formazione in nuove applicazioni di IA;

· creare una base di conoscenza con la comunità delle forze dell’ordine sui requisiti per l’adozione dell’IA, come ad esempio quali tipi di problemi l’IA è in grado di affrontare, le limitazioni attuali o intrinseche e le risorse (strumenti, dati, competenze, potenza di calcolo) necessarie per implementare soluzioni di IA;

· sviluppare una guida per le forze dell’ordine sull’ammissibilità dell’IA in tribunale che valuti l’impatto e i risultati dell’uso specifico dell’IA nei tribunali, garantendo al tempo stesso l’efficacia delle soluzioni di IA. rispetto dei diritti umani e dello stato di diritto;

· creare un comitato consultivo di esperti che possa fornire una guida alle forze dell’ordine in termini di legislazione e funga da forum per discutere le opportune misure legislative con esperti legali e altre parti interessate;

· identificare un organismo esterno globale per fornire supporto consultivo alle forze dell’ordine su questioni etiche e di fornire supporto nello svolgimento di audit per verificare se uno è responsabile e rispetta i requisiti di legge;

· favorire una comunità e organizzare corsi di formazione e workshop per attrarre e collegare i diversi soggetti interessati provenienti dalle forze dell’ordine, dall’industria, dal mondo accademico e dal settore civile e dagli organismi internazionali con i diversi background e le prospettive essenziali per raccogliere e sintetizzare i punti di vista di settori trasversali della società, al fine di fornire un quadro equilibrato.

6. TOOLKIT PER RAFFORZAMENTI DELLA LEGGE

Il focus del toolkit potrebbe includere:

– Una spiegazione generale dell’IA, inclusa una definizione di lavoro rilevante per le forze dell’ordine;

– guida all’uso dell’IA per le forze dell’ordine, compresa l’identificazione e la compilazione dei principali documenti di intelligence. domini tecnologici e possibili casi d’uso;

– considerazioni su esempi o buone pratiche di uso affidabile, legale e responsabile dell’IA nelle forze dell’ordine — sintesi di requisiti importanti, come l’equità, la responsabilità, la trasparenza e la spiegabilità, da prendere in considerazione quando un’agenzia di polizia intende sviluppare un progetto abilitato all’IA (in-house) o procurarsi uno strumento/sistema di IA (soluzioni esterne) — e una serie di buone pratiche raccomandate che riflettono i principi generali e cercano di costruire la fiducia e l’accettazione sociale;

– raccomandazioni passo dopo passo per lo sviluppo, l’implementazione e la manutenzione di un Sistema potenziato dall’IA nelle forze dell’ordine, compresa una lista di controllo delle considerazioni operative per garantire che il sistema/funzionamento sia conforme alla considerazione sopra menzionata.

7. PIANO DI AZIONE

È utile sottolineare lo scopo, la struttura e il livello di astrazione del documento. Prima di tutto, come toolkit, dovrebbe servire da guida di riferimento per l’applicazione della legge e, in nessun caso, deve essere considerata di natura obbligatoria o vincolante, e deve essere sempre orientato alla pratica e all’operatività e deve evitare di cadere in discussioni concettuali. È pertanto rivolto a:

– I dirigenti della polizia o i principali responsabili delle decisioni nelle forze dell’ordine;

– i funzionari delle forze dell’ordine responsabili dell’innovazione e dell’uso della tecnologia nei loro rispettivi paesi. agenzie; funzionari di R&S incaricati di sviluppare capacità di IA all’interno dell’azienda o che possono influenzare i processi di approvvigionamento in outsourcing; e

– legali o consulenti legali che forniscono consulenza sulle leggi e i regolamenti riguardanti l’uso specifico di IA nel lavoro di polizia.

Per chi avesse perso le sezioni uno, due, tre del Report, può trovarle nei miei precedenti post.

Riproduzione Riservata

Avv Raffaella Aghemo

Avvocato del Foro di Roma, presta consulenza stragiudiziale e tecnologica alle imprese: ha operato per 15 anni nei settori della comunicazione, del project management, dei social media e del content marketing, nonché della proprietà intellettuale (copyright) e della privacy. Appassionatasi delle nuove tecnologie, segue progetto blockchain in ambito luxury. È stata di recente nominata Senior Member del Comitato di Presidenza dell’Ente Nazionale per la Trasformazione Digitale, con delega alle Comunicazioni Internazionali e supporto alla Normazione in Innovation Technology. Studia e si occupa delle tematiche di diritto legate all’applicazione dell’intelligenza artificiale.