Anche gli Stati Uniti si sono dati delle regole per un’AI etica

Regole AI

Inizialmente non volevano farlo, fonti dell’amministrazione Trump dichiaravano che sarebbe stato meglio metterci meno governo possibile, ora invece anche gli Stati Uniti hanno rilasciato le loro regole per uno sviluppo etico dell’intelligenza artificiale (pdf).

Forse sono stati incalzati dal fatto che sia l’Unione Europea sia la Cina, assieme a molti altri Paesi, hanno già stilato i loro princìpi, e non era il caso di lasciare ad altri la superiorità morale dello sviluppo AI. Fatto sta che adesso tutte le amministrazioni federali, comprese le varie agenzie civili, saranno tenute a rispettare i dettami di questo elenco per tutti i loro progetti di intelligenza artificiale.

Il documento è stato redatto dall’Office of Science and Technology Policy (OSTP) della Casa Bianca a seguito dell’ordine esecutivo dello scorso febbraio Executive Order on Maintaining American Leadership in Artificial Intelligence. I 10 princìpi sono volutamente generici e non scendono troppo nei dettagli per evitare di ostacolare lo sviluppo dell’AI con regole eccessivamente stringenti o severe. Emblematico un passaggio del testo di presentazione, che recita “Le agenzie devono evitare approcci precauzionali che tengano i sistemi di intelligenza artificiale a livelli di standard così esageratamente elevati da impedire alla società di goderne i benefici” (Agencies must avoid a precautionary approach that holds AI systems to such an impossibly high standard that society cannot enjoy their benefits).

Ovviamente sarà da vedere se al testo seguirà una reale presa di coscienza da parte delle agenzie federali statunitensi, oppure se l’ambigua esortazione a non aspirare a degli “impossibly high standard” farà da paravento per applicazioni AI controverse.

Ecco i 10 princìpi del governo USA (la sintesi è mia).

1. Fiducia del pubblico nell’AI
Promozione di applicazioni robuste e affidabili, tali da indurre la società ad avere fiducia nell’AI anziché sfiducia.

2. Partecipazione pubblica
I cittadini dovranno essere in grado di fornire commenti e suggerimenti sulle applicazioni AI, soprattutto quando esse gestiscono dati personali.

3. Integrità scientifica e qualità dell’informazione
Gli approcci all’intelligenza artificiale dovranno seguire i princìpi di integrità scientifica, trasparenza e qualità dei dati.

4. Valutazione e gestione dei rischi
In un paragrafo hanno riassunto cos’è l’analisi del rischio. In pratica si dovranno valutare i rischi accettabili e quelli non accettabili, gestendo i primi e mitigando/evitando i secondi.

5. Benefici e costi
Effettuare una analisi costi-benefici di ogni approccio, prendendo seriamente in considerazione quali costi e quali benefici certe decisioni sull’AI porteranno ai settori implicati e alla società in generale.

6. Flessibilità
Poiché il settore è in continua evoluzione bisogna progettare regolamenti che si adattino con rapidità al cambiamento, evitando approcci troppo rigidi che diventerebbero obsoleti quasi subito.

7. Equità e non discriminazione
Prendere sempre in considerazione le possibilità discriminatorie o anti-discriminatorie di una soluzione o di un approccio, assicurandosi che l’AI non faccia discriminazioni illegali.

8. Comunicazione e trasparenza
Indicare chiaramente dove e come si usano soluzioni di intelligenza artificiale.

9. Sicurezza
I sistemi AI dovranno essere sicuri, robusti, il più possibile a prova di violazioni e di malfunzionamenti. Si dovranno prendere in considerazione anche gli attacchi di adversarial AI, quelli cioè condotti appositamente per ingannare un sistema di intelligenza artificiale.

10. Coordinamento fra le agenzie
Vi dovrà essere comunicazione e coordinamento fra tutti i settori pubblici (agenzie, dipartimenti, ecc) che utilizzano soluzioni AI, inclusa la condivisione delle esperienze come rischi e migliori pratiche.

Per approfondire il documento originale USA: MEMORANDUM FOR THE HEADS OF EXECUTIVE DEPARTMENTS AND AGENCIES (in pdf)

Qui potete trovare un articolo di Associated Press che lo commenta: White House proposes guidelines for regulating the use of AI

Mi sono appassionato all'intelligenza artificiale da quando ho potuto vedere all'opera i primi sistemi esperti negli anni '80. Già dal 1989 mi occupavo di cybersecurity (analizzando i primi virus informatici) ma non ho mai smesso di seguire gli sviluppi dell'AI. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.