
A gennaio partecipai (da spettatore) al webinar “L’AI MIA“, un evento a metà fra tecnologia e diritto, per cercare di fare il punto su alcuni nodi giuridici legati all’utilizzo dei sistemi di intelligenza artificiale.
In questa fase ancora pesantemente pionieristica dell’AI, parlare di diritto solleva sempre più domande di quelle che si riesce a rispondere. Ho quindi voluto incontrare nuovamente gli organizzatori di quell’evento, i professori Federico Cabitza e Andrea Rossetti dell’Università di Milano Bicocca, per far loro alcune domande che mi ronzavano in testa.
Ne è nata un’intervista doppia, che per la lunghezza delle mie domande forse sarebbe più corretto chiamare conversazione a tre, su tecnologia e diritto, innovazione e responsabilità, legge e società.
Luca Sambucci: L‘evento “L’IA MIA – Proprietà e propietà della intelligenza artificiale” tenutosi il 20 Gennaio – come spesso avviene con le cose interessanti – ha generato più domande che risposte. Nella storia dell’innovazione però sono proprio le domande giuste, poste nella maniera giusta e affrontate con le persone e le istituzione giuste, che portano a risposte utili e fruttuose. Secondo voi, in questa fase di sviluppo dell’AI, quali sono le domande più importanti che dobbiamo porci e con quali attori sociali e istituzionali dovremmo discuterne?
Andrea Rossetti (professore di filosofia del diritto): Porre le domande giuste è il primo passo per trovare le risposte giuste; non abbiamo risposte giuste, perché ancora non abbiamo le domande giuste. Ma, a differenza di 20 anni fa, le stiamo cercando: era il 1999 quando ho iniziato a occuparmi di questi temi e allora credevo, ed era una convinzione diffusa, che la Rete sarebbe stata in grado di autoregolamentarsi – eravamo giovani, poche centinaia di milioni in tutto il mondo e tutti motivati a contribuire al mondo nuovo che percepivamo stesse per nascere. Oggi tutti si rendono conto che, anche se le regole che valgono nel “reale” valgono anche nel “virtuale” (una diffamazione è una diffamazione!), sono necessarie regole per disciplinare comportamenti in rete che stanno diventando socialmente pericolosi (basti pensare alle strategie di manipolazione del consenso per mezzo dei social network). Ma dire come queste regole debbano essere fatte è ancora prematuro, anche se l’Europa negli ultimi cinque anni ha avviato studi e confronti di cui nel prossimo decennio vedremo i frutti normativi.
Federico Cabitza (professore di informatica): Reputo fondamentale, in questa fase storica, contribuire ad una decolonizzazione dell’immaginario (per citare Latouche) riguardo all’intelligenza artificiale, in quanto trovo che la narrazione che la riguarda è attualmente condizionata da interessi locali (“vendere attenzione” o tempo di lettura su improbabili intrattenimenti pseudo-giornalistici) o più ampi (abituare la folla dei consumatori all’idea di un certo tipo di servizio da acquistare e considerare “buono e giusto” se non necessario, un’operazione non troppo diversa da quella relativa alla prima fase di espansione e promozione dell’uso/adozione dei social media). Le domande sono quelle che comprendono la natura essenziale della intelligenza artificiale, intesa non come “essere” ma come “fare”, cioè una capacità di automatizzare compiti che, se eseguiti da un essere umano, non esiteremmo a definire cognitivi o intellettuali: che compiti vogliamo automatizzare, accettando di perdere a riguardo una certa dose di autonomia e controllo? Perché vogliamo automatizzarli? Nell’interesse di chi? Mentre queste sono domande che possiamo porre a chiunque abbia un interesse nel mondo dell’intelligenza artificiale, e anche al consumatore e utente finale, reputo che sia divenuto prioritario porre queste questioni in alto nell’agenda degli enti regolatori, delle istituzioni di controllo e governo, degli stati nazionali e delle istituzioni sovranazionali, e integrarle in precisi framework legislativi e certificatori, e infine negli standard e nelle “good practices” professionali. Solo così è possibile rendere queste questioni parte dello sfondo e capaci quindi di “agire” ad un livello più profondo di quanto possano fare sterili dichiarazioni di intenti e cioè al livello della pratica professionale diffusa, della sensibilità progettuale e infine della consapevolezza e cultura dell’utilizzatore finale e cittadino a cui certi servizi e prodotti sono destinati.
Luca Sambucci: Durante la discussione avete paragonato la proprietà di un sistema di intelligenza artificiale che crea problemi all’avere un “cane irruento”. Se il cane azzanna qualcuno (leggi: se il modello AI danneggia qualcuno) la nostra legge dà la colpa al padrone.
Non so se in un’eventualità del genere la legge tenga in considerazione aspetti come la natura dei genitori del cane in questione (erano anch’essi irruenti?), oppure addestramenti sbagliati avvenuti in precedenza (magari il padrone precedente lo aveva malmenato tutta la vita rendendolo aggressivo). È probabile che il padrone attuale del cane si dovrà assumere tutta le responsabilità. Credete sia possibile, e giusta, un’impostazione del genere anche per i modelli AI? Quando ti metti in casa il sistema AI “irruento” te ne assumi la piena responsabilità?
Federico Cabitza: Ragionare su questi casi d’uso è una buona occasione per ripensare i nostri modi di assegnare le responsabilità, che al momento troppo ancora troppo orientate a identificare l’essere umano responsabile, o financo colpevole, il capro espiatorio che esprime un profilo di imperizia, o imprudenza o negligenza. È così difficile accettare l’idea che, in virtù del nostro essere interconnessi, gli errori sono manifestazioni terminali, potremmo dire rilevanti o manifesti, di una rete di micro-comportamenti dalla natura più sistemica e collettiva e condizionata da un insieme di prassi, abitudini, convenzioni, protocolli, procedure (o la mancanza di esse) che non possono essere ricondotte ad un solo (o pochi) esseri umani? Dobbiamo rompere la cosiddetta “moral crumple zone”, l’idea che l’essere umano possa e debba assorbire ogni mancanza, inadeguatezza o difetto dell’ambiente socio-tecnico in cui vive, opera e lavora ed essere l’alibi per ogni tecnologia che fallisce e lo condiziona nel fallimento. Nell’intelligenza artificiale dei supporti decisionali intelligenti o delle automobili a guida autonoma questo significa ripercorrere il filo rosso delle responsabilità al sistema che non ha intercettato l’errore, a chi ha progettato la macchina e i protocolli di interazione in cui essa è inserita come componente di un sistema socio-tecnico più ampio, a chi ha prodotto la tecnologia, a chi ha prodotto e raccolto i dati di addestramento, a chi ha finanziato e giustificato l’automazione di e in un certo ambito della nostra vita e società. Insomma, il filo rosso della responsabilità (intesa nella triplice componente di responsibility, accountability e liability) unisce molte persone, e in un certo senso tutti e nessuno in particolare. Se si risarcisce la vittima, eventualmente accedendo ad un fondo specifico e di congrua entità, è comunque importante identificare un colpevole e “punirlo”?
Andrea Rossetti: Il concetto di responsabilità nel diritto non è concepito come una esplicitazione di un rapporto di causa-effetto, così come non lo è la relazione tra fatto illecito e pena; il rapporto è del tutto arbitrario e posto da un legislatore o da convenzioni sociali. Nel passato, fino a non pochi anni fa nel calcio in Italia, si usava ancora il concetto di “responsabilità oggettiva”: la squadra padrona di casa rispondeva di qualunque cosa avvenisse sugli spalti, anche se, evidentemente, né aveva causato gli incidenti né aveva alcun modo di prevenirli. La costruzione del legame di imputazione tra un soggetto, un fatto e le sue conseguenze giuridiche o sociali è dunque il frutto di una condivisione che si costruisce con il tempo e con l’esperienza; come suggeriva Federico, partire dallo studio dei fenomeni in questa fase è l’unica cosa che possiamo fare e che si è sempre fatta; ad esempio, in Italia e in Europa all’inizio degli anni Settanta del ‘900 si sviluppò un intenso dibattito sul concetto di privacy, ma, in Italia, si dovettero aspettare altri 25 anni prima che fosse promulgata una legge e anche oggi, nonostante la diffusione di pervasivi sistemi digitali, molti cittadini non comprendono pienamente l’importanza di proteggere i propri dati personali.
Luca Sambucci: Come giustamente affermate, la legge arriva sempre e per forza di cose in ritardo, poiché i giuristi si attivano solo quando qualcosa inizia a entrare a far parte della società in cui viviamo, non prima. Le leggi sull’intelligenza artificiale iniziano ad arrivare ora perché non aveva senso farle venti anni fa. Eppure quando ciò avviene si cerca sempre di guardare a cose già fatte per tentare di mutuarle, evitando così di reinventare concetti o intere impostazioni da zero.
Per fare un esempio, quando si iniziò a parlare di nomi a dominio negli anni Novanta i giuristi mutuarono gli stessi concetti del diritto d’autore, considerando un dominio www.tuonome.org come un marchio registrato, con tutti i vantaggi e i difetti di questa “scorciatoia”. Ora, e ne è la prova la domanda precedente sull’equiparazione fra modelli AI e cani irruenti, forse si sta cercando di fare un po’ la stessa cosa: guardare cosa è già disponibile e capire come e in che modo adattarlo all’innovazione che avanza. Ma un’AI non è un animale. Secondo voi quali rischi corriamo nel mutuare leggi o concetti legali già esistenti per applicarli all’intelligenza artificiale? Cosa ci perdiamo per strada? Su quali aspetti dell’AI sarebbe meglio rimboccarsi le maniche per creare concetti e impostazioni ad-hoc?
Andrea Rossetti: ll diritto resiste al cambiamento in primo luogo perché i giusti affermati non hanno voglia di mettersi a studiare daccapo. 🙂 Ma io credo che questa resistenza al cambiamento del diritto rispecchi i tempi di adattamento degli esseri umani a una innovazione che provochi cambiamenti paradigmatici. Il diritto ha a che fare con esseri umani che, per loro natura, sono restii al cambiato (Kant diceva che l’abitudine è una seconda natura). È quello che è successo, ad esempio, con il PCT, il processo civile telematico, il cui modello è stato sviluppato al Tribunale e al CISIA di Milano nella seconda metà degli anni 2000: dapprima ciò che si è fatto è stato adattare i programmi al diritto e alla prassi esistenti, anche se dal punto di vista tecnico ci sarebbero stati modi più efficienti di disegnare i flussi informativi e le organizzazioni; adesso, con il PCT applicato a tutto l’ambito del diritto civile e a 6 anni dalla sua obbligatorietà, si sta pensando di modificare l’organizzazione dei classici studi di avvocati e qualcuno pensa anche a qualche timida riforma nel campo della procedura civile che possa sfruttare al meglio le possibilità di una trasformazioni digitale. Ma la strada sarà ancora lunga: ci si oppone un’inerzia che deriva dai tempi di Andrea Alciato il primo studente al mondo che si sia laureato in utriusque iuris.
Federico Cabitza: Per me non dobbiamo applicare o semplicemente adattare le leggi già esistenti, ma prendere queste occasioni e nuovi casi d’uso come opportunità per fare innovazione anche legale e sociale, nella direzione della deresponsabilizzazione del singolo e di una maggiore responsabilizzazione del gruppo e del sistema: intenderci meno come individui e più come nodi di reti di attori in cui nessuno opera come monade ma piuttosto esegue programmi in parte già determinati (la cui parte di limitata indeterminatezza la potremmo chiamare forse libero arbitrio). Ma non sono un giurista, né un filosofo del diritto o dell’informazione, come si suole dire ora, quindi queste idee le condivido solo per puro beneficio di inventario e amore della discussione.
Luca Sambucci: Io ho una strana ipotesi. Nel nostro immaginario collettivo crediamo che da una situazione negativa o comunque insufficiente possa in qualche modo nascere – tramite lampi di genio o miracoli della natura – una situazione positiva o un risultato straordinario. Dal concime nasce un fiore, dai conflitti armati nascono atti di pietà o di eroismo. Per non parlare dei periodi di sommosse e guerre civili che portavano alla nascita di geni come Michelangelo o Leonardo Da Vinci.
Forse per questo nostro bias ci aspettavamo che un modello di intelligenza artificiale riuscisse a tirar fuori il genio anche se i dati con cui è stato addestrato erano stati presi alla rinfusa, magari dai “bassifondi” di Internet. Come dire, io ti do il concime, ma tu dammi un fiore. Ora ci stiamo accorgendo che così non è: se gli do concime, il modello restituisce lo stesso concime rielaborato. In informatica si dice garbage-in, garbage-out.
Credete che questo sia soprattutto un problema di algoritmi, che dovrebbero capire da soli quale dato è spazzatura e quale invece è utile, oppure siamo noi che dobbiamo prestare più attenzione ai dataset che prepariamo?
Andrea Rossetti: Il focus del preambolo alla tua domanda non è però, mi pare, la qualità dei dati, quando piuttosto il conflitto; credo che il confronto tra modelli diversi e modi diversi di concepire l’IA sia la strada che porterà gli scienziati come Federico e il suo brillante assistente Campagner a progettare IA che si confrontino tra di loro. Da qui in avanti, mi pare che sia tutta fantascienza di cui sono un appassionato lettore, ma che non confondo con la scienza.
Per concludere, parafraso una citazione che Federico farebbe meglio di me: bisogna avere il caos per partorire una stella danzante. Citare l’originale, spesso stampato sulle magliette degli studenti, è inutile.
Federico Cabitza: Un algoritmo, per quanto possa integrare in esso elementi relativi a procedure stocastiche (cioè casuali), è sostanzialmente rigido nella struttura e “stupido”, secondo i canoni di giudizio del comportamento umano. Un tema poco dibattuto è la riflessione su cosa sia giusto intendere come autonomo. Se automa è tutto ciò che si muove e funziona da sé (anche se l’origine della parola include un senso più ampio, comprendendo anche quell’azione introflessa che è il pensiero), autonomo è un concetto più radicale, che comprende la capacità di porsi regole da sé, quindi di governarsi in autonomia, appunto, da altre autorità e senza padroni (“auctor”). Quindi, almeno in teoria, un sistema davvero autonomo dovrebbe essere in grado di giudicare il proprio comportamento e valutarne la qualità da solo (si noti che questa capacità è intrinseca al concetto di “learning” quando si parla di machine learning, anche se indulgendo un po’ troppo sull’evocazione metaforica).
È quindi interessante l’idea di delegare ad un software il compito di valutare la qualità del training set (in ottica predittiva) ed è una cosa che in effetti io e Campagner abbiamo cominciato a sondare. Ma questo sarebbe solo un elemento di un processo più ampio, un cambio di sensibilità che ponga molta più enfasi sulla qualità del dato, anziché sul processo computazionale (l’algoritmo) e, quindi, sul processo socio-tecnico (sociale, organizzativo) che produce e consuma i dati. Insomma, sulla nostra realtà umana, piuttosto che su quella, molto più semplice e banale, della “realtà” artificiale.