
Ricordate le tre leggi della robotica di Asimov? Servivano ad assicurare una coesistenza pacifica fra robot intelligenti ed esseri umani.
Ora che l’intelligenza artificiale sta diventando realtà, sembra vi sia una gara a chi crea le leggi fondamentali che tutti dovranno seguire.
Solo per citare alcuni esempi recenti, ad aprile la Commissione Europea – tramite il suo gruppo di esperti – ha emanato 7 regole per una “IA affidabile”. Pochi giorni fa si è aggiunta l’OCSE, che ha indicato 5 princìpi per una “IA democratica”. Infine è notizia recente che anche il World Economic Forum ha intenzione di creare regole globali che tutti gli Stati – in particolare superpotenze come USA, Cina e Russia – possano seguire nello sviluppo dell’intelligenza artificiale.
Le ragioni di questa “corsa alle regole” sono abbastanza chiare. Interessi contrapposti, probabili applicazioni militari, oltre a una sostanziale inabilità nel capire con certezza quali sviluppi potrà avere la tecnologia, portano i vari Stati – operando su palcoscenici sovranazionali – a voler trovare un accordo di massima sulle “regole del gioco” prima che qualcosa scappi di mano.
Vi è poi una silenziosa gara parallela fra questi (e altri?) organismi sovranazionali su chi emanerà le leggi fondamentali dell’IA, una specie di “convenzione di Ginevra” che fra dieci, venti o cinquant’anni tutti ancora possano seguire. Sperando che nel frattempo queste regole non siano diventate obsolete.