Anche gli Stati Uniti si sono dati delle regole per un’AI etica

Regole AI

Inizialmente non volevano farlo, fonti dell’amministrazione Trump dichiaravano che sarebbe stato meglio metterci meno governo possibile, ora invece anche gli Stati Uniti hanno rilasciato le loro regole per uno sviluppo etico dell’intelligenza artificiale (pdf).

Forse sono stati incalzati dal fatto che sia l’Unione Europea sia la Cina, assieme a molti altri Paesi, hanno già stilato i loro princìpi, e non era il caso di lasciare ad altri la superiorità morale dello sviluppo AI. Fatto sta che adesso tutte le amministrazioni federali, comprese le varie agenzie civili, saranno tenute a rispettare i dettami di questo elenco per tutti i loro progetti di intelligenza artificiale.

Il documento è stato redatto dall’Office of Science and Technology Policy (OSTP) della Casa Bianca a seguito dell’ordine esecutivo dello scorso febbraio Executive Order on Maintaining American Leadership in Artificial Intelligence. I 10 princìpi sono volutamente generici e non scendono troppo nei dettagli per evitare di ostacolare lo sviluppo dell’AI con regole eccessivamente stringenti o severe. Emblematico un passaggio del testo di presentazione, che recita “Le agenzie devono evitare approcci precauzionali che tengano i sistemi di intelligenza artificiale a livelli di standard così esageratamente elevati da impedire alla società di goderne i benefici” (Agencies must avoid a precautionary approach that holds AI systems to such an impossibly high standard that society cannot enjoy their benefits).

Ovviamente sarà da vedere se al testo seguirà una reale presa di coscienza da parte delle agenzie federali statunitensi, oppure se l’ambigua esortazione a non aspirare a degli “impossibly high standard” farà da paravento per applicazioni AI controverse.

Ecco i 10 princìpi del governo USA (la sintesi è mia).

1. Fiducia del pubblico nell’AI
Promozione di applicazioni robuste e affidabili, tali da indurre la società ad avere fiducia nell’AI anziché sfiducia.

2. Partecipazione pubblica
I cittadini dovranno essere in grado di fornire commenti e suggerimenti sulle applicazioni AI, soprattutto quando esse gestiscono dati personali.

3. Integrità scientifica e qualità dell’informazione
Gli approcci all’intelligenza artificiale dovranno seguire i princìpi di integrità scientifica, trasparenza e qualità dei dati.

4. Valutazione e gestione dei rischi
In un paragrafo hanno riassunto cos’è l’analisi del rischio. In pratica si dovranno valutare i rischi accettabili e quelli non accettabili, gestendo i primi e mitigando/evitando i secondi.

5. Benefici e costi
Effettuare una analisi costi-benefici di ogni approccio, prendendo seriamente in considerazione quali costi e quali benefici certe decisioni sull’AI porteranno ai settori implicati e alla società in generale.

6. Flessibilità
Poiché il settore è in continua evoluzione bisogna progettare regolamenti che si adattino con rapidità al cambiamento, evitando approcci troppo rigidi che diventerebbero obsoleti quasi subito.

7. Equità e non discriminazione
Prendere sempre in considerazione le possibilità discriminatorie o anti-discriminatorie di una soluzione o di un approccio, assicurandosi che l’AI non faccia discriminazioni illegali.

8. Comunicazione e trasparenza
Indicare chiaramente dove e come si usano soluzioni di intelligenza artificiale.

9. Sicurezza
I sistemi AI dovranno essere sicuri, robusti, il più possibile a prova di violazioni e di malfunzionamenti. Si dovranno prendere in considerazione anche gli attacchi di adversarial AI, quelli cioè condotti appositamente per ingannare un sistema di intelligenza artificiale.

10. Coordinamento fra le agenzie
Vi dovrà essere comunicazione e coordinamento fra tutti i settori pubblici (agenzie, dipartimenti, ecc) che utilizzano soluzioni AI, inclusa la condivisione delle esperienze come rischi e migliori pratiche.

Per approfondire il documento originale USA: MEMORANDUM FOR THE HEADS OF EXECUTIVE DEPARTMENTS AND AGENCIES (in pdf)

Qui potete trovare un articolo di Associated Press che lo commenta: White House proposes guidelines for regulating the use of AI

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.