BMW adotta un codice etico per l’intelligenza artificiale

Fabbrica

L’Unione Europea ha voluto imprimere fin da subito l’aggettivo “affidabile” all’intelligenza artificiale che sarà sviluppata all’interno dei suoi confini. Per fare questo cerca di coinvolgere cittadini, istituzioni e aziende nello sviluppo condiviso di pratiche e regole che portino a un’AI “etica”.

Non sorprende quindi vedere i grandi gruppi europei che via via si adeguano a tali requisiti. BMW, ad un esempio, ha recentemente emanato un suo codice etico per l’intelligenza artificiale usata nei processi aziendali. Basandosi sui requisiti fondamentali formulati dall’UE per l’AI affidabile, il gruppo BMW ha elaborato sette principi di base che riguardano l’uso dell’intelligenza artificiale all’interno dell’azienda:

Agenzia umana e supervisione: implementare un adeguato monitoraggio umano delle decisioni prese dall’AI e considerare i possibili modi in cui l’uomo può prevalere sulle decisioni algoritmiche.

Robustezza tecnica e sicurezza: sviluppare applicazioni AI robuste e osservare gli standard di sicurezza applicabili, progettati per ridurre il rischio di conseguenze ed errori indesiderati.

Privacy e governance dei dati: estendere le misure aziendali in materia di privacy e sicurezza dei dati anche all’archiviazione e all’elaborazione nelle applicazioni AI.

Trasparenza: rendere spiegabili le applicazioni di intelligenza artificiale e comunicare chiaramente dove queste tecnologie sono utilizzate.

Diversità, non discriminazione ed equità: nel rispetto della dignità umana il gruppo costruisce applicazioni AI eque.

Benessere ambientale e sociale: sviluppare e utilizzare applicazioni AI che promuovano il benessere di clienti, dipendenti e partner. Ciò è in linea con gli obiettivi di BMW per quanto riguarda i diritti umani e la sostenibilità, inclusi il cambiamento climatico e la protezione dell’ambiente.

Responsabilità: le applicazioni AI saranno implementate in modo che funzionino in modo responsabile. BMW identificherà, valuterà, riferirà e mitigherà i rischi, in conformità con la buona governance aziendale.

Notare come si tenda (giustamente) a mantenere il primato dell’essere umano con il monitoraggio e la precedenza decisionale, un concetto noto anche come “human in the loop”.

Mi sono appassionato all'intelligenza artificiale da quando ho potuto vedere all'opera i primi sistemi esperti negli anni '80. Già dal 1989 mi occupavo di cybersecurity (analizzando i primi virus informatici) ma non ho mai smesso di seguire gli sviluppi dell'AI. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.