
Lo U.S. Government Accountability Office (GAO) ha pubblicato un manuale di 112 pagine, destinato alle Agenzie e agli Enti federali del governo americano, nel quale ha presentato un nuovo framework su come le agenzie governative possono utilizzare le tecnologie di intelligenza artificiale. Il framework si basa sui principi di governance, dati, performance e monitoraggio.
Taka Ariga, chief data scientist del GAO, ha dichiarato in una recente intervista a Fortune che l’ufficio inizierà ad aumentare i controlli sui sistemi di intelligenza artificiale utilizzati dagli enti federali. In particolare, il GAO chiederà di ottenere molte più informazioni dai fornitori sul funzionamento e sulle dinamiche interne dei loro modelli AI, e i fornitori non potranno opporre dinieghi basandosi sulla proprietà intellettuale. Ariga è stato molto chiaro “La gente non può nascondersi dietro la sua proprietà intellettuale; questo non funzionerà per il governo federale”.
Da notare che questa è anche l’impostazione della proposta di regolamento europea, dove gli uffici europei preposti potranno chiedere alle aziende produttrici – in determinati casi – di rivelare informazioni sul funzionamento dei modelli e sulla composizione dei dataset.
Il documento è scaricabile da qui (in PDF), mentre se volete saperne di più: Artificial Intelligence:An Accountability Framework for Federal Agencies and Other Entities