Giudice corte suprema USA: aziende responsabili dei contenuti generati dall’AI

AI e diritto

Con l’avanzare della tecnologia, aumentano anche le questioni legali che la circondano. Il caso Gonzalez contro Google, attualmente all’esame della Corte Suprema degli Stati Uniti, solleva un’importante questione sulla potenziale responsabilità di quanto prodotto dai sistemi di AI generativa, in particolare quando si tratta di libertà di parola online.

La famiglia di un americano ucciso in un attacco terroristico dell’ISIS a Parigi nel 2015 sostiene che Google e la sua controllata YouTube non abbiano fatto abbastanza per rimuovere o smettere di promuovere i video terroristici dell’ISIS che cercano di reclutare membri. La famiglia sostiene che ciò ha violato la legge antiterrorismo. Tuttavia, Google ha vinto le sentenze dei tribunali di grado inferiore sostenendo che la Sezione 230 del Communications Decency Act la mette al riparo dalla responsabilità per ciò che gli utenti pubblicano sulla sua piattaforma.

Durante una recente udienza della Corte Suprema, il giudice associato Neil M. Gorsuch ha parlato della potenziale responsabilità per i risultati dell’intelligenza artificiale generativa. Poiché i motori di ricerca iniziano a rispondere direttamente ad alcune domande degli utenti, utilizzando il proprio software di intelligenza artificiale, è una questione aperta se possano essere citati in giudizio in quanto editori o diffusori di ciò che dicono i loro chatbot.

Gorsuch ha utilizzato l’intelligenza artificiale generativa come esempio ipotetico di quando una piattaforma tecnologica non sarebbe tutelata dalla Sezione 230. Ha osservato che “l’intelligenza artificiale genera poesia. Oggi genera controversie che sarebbero contenuti che vanno oltre la selezione, la scelta, l’analisi o la fruizione dei contenuti. E questo non è protetto. Supponiamo che sia così. Allora la domanda diventa: cosa facciamo con le raccomandazioni?“.

Questo solleva una questione più ampia, che riguarda la responsabilità delle aziende tecnologiche quando si tratta di AI generativa. Le battaglie legali sono già in corso da mesi, come la proposta di una class action contro GitHub, Microsoft e OpenAI per la presunta violazione di codice software protetto tramite GitHub Copilot, uno strumento di AI generativa destinato ad assistere gli sviluppatori. A metà gennaio è stata presentata la prima azione legale per violazione del copyright sulle opere artistiche contro Stability AI, Midjourney e DeviantArt (qui il pdf).

È chiaro che la popolarità degli strumenti di AI generativa continuerà a crescere, così come le questioni legali che li circondano. Come ha osservato il giudice Gorsuch, la domanda diventa: cosa fare con le raccomandazioni? Sarà interessante vedere quale impatto avranno le future battaglie legali che coinvolgono l’AI generativa.

Per approfondire: Could Big Tech be liable for generative AI output? Hypothetically ‘yes,’ says Supreme Court justice