La Francia vuole usare l’AI per monitorare i terroristi

Francia

Il governo francese si affiderà, fra le altre cose, agli algoritmi di intelligenza artificiale per monitorare la navigazione web delle persone sospettate di terrorismo.

Il primo ministro Jean Castex, come riporta il Wall Street Journal, ha affermato che il governo prevede di presentare un disegno di legge per ottenere l’autorità permanente di ordinare alle società di telecomunicazioni di monitorare non solo i dati telefonici, ma anche le URL visitate dai loro utenti, in tempo reale. La navigazione verrebbe poi sottoposta a un’analisi di non meglio precisati sistemi AI che avvertirebbero in caso di situazioni sospette.

In linea di massima avere a disposizione la navigazione web e altre attività online (app, instant messaging, ecc) delle persone che poi hanno effettivamente partecipato ad attentati potrebbe fornire un punto di partenza, ma il vero problema sarebbe poi evitare i falsi positivi. Per ridurli è necessario addestrare il modello con i dati di navigazione di un numero enorme di persone, e intendo persone normali, senza intenzioni terroristiche, consentendo così al sistema di machine learning di imparare (se ve ne sono) le differenze fra chi naviga su certi siti per mero interesse, e chi lo fa invece con l’obiettivo di compiere attentati. Si procederà con il controllo a tappeto della navigazione di tutti i cittadini francesi, solo per addestrare l’algoritmo?

Senza contare che molti terroristi o aspiranti tali, presumo, sappiano cos’è una VPN o perlomeno verranno istruiti a usarne una, e lì i dati dei provider saranno inutili. Si potrebbe obiettare che questo progetto del governo francese aiuta a capire se vi siano utenti che si stanno via via radicalizzando, con la navigazione che diventa sempre più correlata a quella delle persone che poi hanno compiuto attentati. La cosa allora farebbe nascere un altro tipo di problema, molto “precog”: tratteremo come pre-criminali dei normalissimi utenti in base a un mero giudizio dell’AI?

Altro problema: una volta noto a tutti che il governo potrebbe interessarsi a quegli utenti che visitano soprattutto certi tipi di siti, o che usano soprattutto certe app, non sarà difficile adeguarsi. Sicuramente gli algoritmi usati dal governo saranno segreti, non sarà facile studiare attacchi Adversarial senza avere accesso al modello, ma questo non impedirebbe di creare metodi “artigianali” per confondere il sistema. Ad esempio, basterebbe realizzare software o procedure RPA che simulino una navigazione normale nel 99% del tempo per “inquinare” i dati elaborati dal modello di intelligenza artificiale ed evitare il flagging dell’utente. O ancora, basterebbe avere più account con provider diversi (ad es. uno per la connessione fissa, uno differente per lo smartphone) e assegnati a nomi diversi per impedire al sistema di considerare automaticamente le molteplici tracce digitali come riconducibili alla stessa persona.

Insomma, non basta dire “intelligenza artificiale” per risolvere il problema.

Ma tutte queste sono mie considerazioni molto teoriche. Per approfondire potete leggere l’articolo (non tecnico) del WSJ: France’s Macron Eyes Artificial Intelligence to Monitor Terrorism

(se non avete un account sul Wall Street Journal, qui potete leggerlo per intero)

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.