La comunità AI prova ad autoregolamentarsi

Quando si parla di governance dell’intelligenza artificiale gli approcci normativi sono spesso lenti ad emergere, non sempre catturano il centro della questione e sono – per forza di cose – sempre post facto.

Un anno fa l’importante conferenza sull’intelligenza artificiale NeurIPS ha introdotto il requisito per gli autori di inserire nelle loro ricerche una dichiarazione sull’impatto sociale dell’argomento o del sistema AI che vanno a presentare. Questo per cercare di sensibilizzare gli stessi sviluppatori di sistemi AI a prendere sempre in considerazione le implicazioni etiche, sociali, ambientali ed economiche delle loro scoperte o creazioni.

La proposta non è stata senza polemiche, segno che non vi è ancora un vero consenso in merito a iniziative del genere fra i ricercatori. Ora un gruppo indipendente ha deciso di svolgere uno studio sugli impatti derivanti da tali requisiti, esaminando pro e contro, e arrivando alla conclusione che condizioni del genere non sono perfette, ma rappresentano un buon punto di partenza per ulteriori iniziative di governance da parte della comunità AI.

Per approfondire: Institutionalizing Ethics in AI Through Broader Impact Requirements

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.