Esperti del MIT: Serve una zona franca per la ricerca responsabile sull’AI

Ricercatori AI

Una lettera aperta firmata da ricercatori ed esperti chiede alle aziende di AI di tutelare la ricerca indipendente in buona fede, per promuovere trasparenza e accountability.

L’intelligenza artificiale generativa sta rivoluzionando il nostro mondo, ma con grandi potenzialità arrivano anche grandi responsabilità. È il messaggio chiave di “AI Safe Harbor“, una lettera aperta pubblicata da un gruppo di ricercatori del MIT e firmata da esperti di AI, diritto e policy. L’obiettivo? Chiedere alle aziende che sviluppano questi potenti sistemi di adottare misure per proteggere la ricerca indipendente sui loro modelli.

Centinaia di milioni di persone hanno già interagito con l’AI generativa, da DALL-E a ChatGPT. Promette benefici immensi, ma pone anche seri rischi legati a bias, violazione del copyright e diffusione non consensuale di immagini intime. Per gestirli, la valutazione indipendente è essenziale. Ma c’è un problema: le attuali policy delle aziende di AI possono scoraggiarla.

I termini di servizio, pensati per deterrere usi malevoli, non prevedono esenzioni per la ricerca in buona fede. I ricercatori rischiano sospensioni degli account o anche ripercussioni legali. A differenza della ricerca sulla sicurezza del software tradizionale, quella sui sistemi di AI ha poche protezioni. E se alcune aziende offrono programmi di accesso, la struttura permette loro di selezionare i propri valutatori. Utile, ma non sufficiente.

Ecco perché i firmatari chiedono due livelli di protezione. Primo, una “zona franca” legale per la ricerca in buona fede condotta nel rispetto di regole chiare. Secondo, un impegno per un accesso più equo, con revisori indipendenti per valutare le richieste ed evitare blocchi ingiustificati. Non risolverà tutto, ma è un primo passo cruciale.

L’AI generativa non deve ripetere gli errori dei social media, che hanno di fatto bandito alcuni tipi di ricerca volti a rendere tali servizi più responsabili. Anzi, tutelare i ricercatori indipendenti è nell’interesse delle stesse aziende, oltre che del bene comune.

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.