Quando si parla di governance dell’intelligenza artificiale gli approcci normativi sono spesso lenti ad emergere, non sempre catturano il centro della questione e sono – per forza di cose – sempre post facto.
Un anno fa l’importante conferenza sull’intelligenza artificiale NeurIPS ha introdotto il requisito per gli autori di inserire nelle loro ricerche una dichiarazione sull’impatto sociale dell’argomento o del sistema AI che vanno a presentare. Questo per cercare di sensibilizzare gli stessi sviluppatori di sistemi AI a prendere sempre in considerazione le implicazioni etiche, sociali, ambientali ed economiche delle loro scoperte o creazioni.
La proposta non è stata senza polemiche, segno che non vi è ancora un vero consenso in merito a iniziative del genere fra i ricercatori. Ora un gruppo indipendente ha deciso di svolgere uno studio sugli impatti derivanti da tali requisiti, esaminando pro e contro, e arrivando alla conclusione che condizioni del genere non sono perfette, ma rappresentano un buon punto di partenza per ulteriori iniziative di governance da parte della comunità AI.
Per approfondire: Institutionalizing Ethics in AI Through Broader Impact Requirements