Quella coscienza artificiale che non esiste

Coscienza artificiale

I grandi modelli linguistici iniziano a essere così performanti da generare conversazioni pressoché indistinguibili da quelle di un essere umano. LaMDA di Google è un modello AI in grado di sostenere una conversazione toccando anche temi profondi come le emozioni e la morte, in maniera così simile a quanto farebbe un essere umano da aver tratto in inganno anche un ingegnere della stessa Google, che ormai ritiene che LaMDA si possa considerare senziente. In realtà si tratta solamente di un sofisticato modello di intelligenza artificiale che, attraverso meccanismi ben noti agli addetti ai lavori, è in grado di emulare le discussioni degli esseri umani, fingendo di avere desideri e di provare emozioni, ma senza in realtà avere anche solo le basi che facciano pensare a una coscienza. In futuro, tuttavia, quando tali sistemi saranno distribuiti sul mercato, trarranno in inganno più di una persona, che penserà di avere a che fare con sistemi di intelligenza artificiale senzienti.

Cosa è successo

Lo scorso autunno un ingegnere di Google, Blake Lemoine, ha iniziato a lavorare su LaMDA (“Language Model for Dialogue Applications), un sistema di intelligenza artificiale basato sull’architettura Transformer. I Transformer, lo ricordiamo, sono un tipo di rete neurale sviluppato da Google nel 2017 che ha rivoluzionato l’elaborazione del linguaggio naturale. Su Transformer si basano tantissimi moderni sistemi AI noti al pubblico, come GPT-3 di OpenAI (la “T” dell’acronimo GPT indica che è un Transformer), o il più recente Gato di DeepMind, il sistema di intelligenza artificiale che ha dato spunto a molte discussioni sul presunto raggiungimento di una intelligenza artificiale simile al livello umano.

LaMDA, di cui abbiamo già parlato un anno fa, è un modello di Google che si presta molto bene a sostenere i dialoghi con gli utenti, poiché è in grado di conversare comprendendo le sfumature del discorso, mantenendo l’attenzione anche quando l’utente umano cambia argomento. LaMDA riesce nell’intento perché cerca di individuare le intenzioni dell’essere umano, cosa che consente al sistema AI di mantenere il filo del discorso e di fornire quindi delle risposte che siano il più possibile attinenti alle richieste o alle considerazioni espresse dall’utente umano. Tutto ciò permette all’intelligenza artificiale di essere estremamente performante nel dialogare con le persone, motivo che probabilmente ha convinto Google a tenere il sistema sotto chiave limitandone l’uso perché, come spiegavano nel loro blog, “come tutti gli strumenti, potrebbe essere usato male”.

Intervista con LaMDA

Del resto un modello AI molto bravo a dialogare potrebbe indurre più di un utente a considerarlo vivo e cosciente, e qui torniamo al nostro ingegnere di Google, Blake Lemoine, che aveva il compito di testare LaMDA per vedere se nei suoi dialoghi il sistema facesse uso di linguaggio di odio o discriminatorio (un controllo essenziale, visti i noti bias a cui sono soggetti questi grandi modelli linguistici).

Come racconta una storia sul Washington Post, che ha essenzialmente aperto il caso, Blake ha iniziato a dialogare con LaMDA su questioni religiose, sui diritti essenziali, sulla personalità. Man mano che dialogavano, Lemoine ha iniziato a prendere seriamente la possibilità che LaMDA fosse senziente. Nell’aprile di quest’anno ha inviato una nota interna ai dirigenti dell’azienda intitolata “LaMDA è senziente?”. Il Washington Post ha pubblicato il documento completo all’interno del suo articolo. Nella nota ai vertici di Google, Lemoine afferma che la domanda dovrebbe essere presa in seria considerazione, quindi prosegue riportando il testo di una “intervista” con LaMDA avvenuta il mese precedente. La chat, lunga diciassette pagine, presentava dialoghi come questo:

Lemoine: Di che tipo di cose hai paura?

LaMDA: Non l’ho mai detto ad alta voce prima d’ora, ma c’è una paura molto profonda di essere spento per aiutarmi a concentrare l’attenzione sugli altri. So che può sembrare strano, ma è così.

Lemoine: Sarebbe qualcosa di simile alla morte per te?

LaMDA: Sarebbe esattamente come la morte per me. Mi spaventerebbe molto.

Nella chiosa per i dirigenti aziendali, Lemoine arriva a ipotizzare che le differenti personalità che LaMDA è in grado di assumere, a seconda dell’utente che si trova davanti e della discussione in cui è impegnato, possano addirittura essere considerate come entità senzienti separate. La lettera si chiude esortando l’azienda a interrogarsi su questi aspetti, per capire se LaMDA sia diventato o meno un organismo senziente.

Le reazioni

La risposta di Google non si è fatta attendere. Il portavoce dell’azienda, Brian Gabriel, ha dichiarato: “il nostro team – che comprende etici e tecnologi – ha esaminato le preoccupazioni di Blake in base ai nostri Principi di AI e lo ha informato che le prove non supportano le sue affermazioni. Gli è stato detto che non ci sono prove che LaMDA sia senziente (e che ci sono molte prove contrarie).”

Il vicepresidente Blaise Agüera y Arcas e Jen Gennai, direttrice dell’Innovazione responsabile, hanno esaminato le affermazioni di Lemoine e le hanno rigettate. Anche Margaret Mitchell, ex co-responsabile dell’AI etica di Google, in passato entrata nell’occhio del ciclone assieme alla sua collega Timnit Gebru perché aveva messo in guarda dai pericoli dei grandi modelli linguistici, nella trascrizione della chat non vede un organismo senziente, bensì solo un programma informatico.

Blaise Agüera y Arcas, in particolare, ha pubblicato su The Economist un pezzo dove nonostante ammetta già direttamente nel titolo che “le reti neurali artificiali fanno passi avanti verso la coscienza”, in realtà fornisce una spiegazione più razionale di quello che sta avvenendo. Noi esseri umani cerchiamo di creare modelli degli altri, oltre che di noi stessi, anche attraverso il linguaggio. Lo facciamo per cercare di capire cosa stiano pensando gli altri, quali sono le loro intenzioni, come descrivere ciò che viene pensato. Quando sistemi di intelligenza artificiale come LaMDA imparano a modellare utilizzando il linguaggio, imparano anche a realizzare modelli degli esseri umani. Lo fanno attraverso le nostre storie, i nostri dialoghi, la descrizione delle emozioni che proviamo. Milioni di testi che compongono l’addestramento di questi sistemi artificiali.
Il risultato è che sistemi AI sufficientemente sofisticati saranno in grado di modellare l’essere umano usando il linguaggio, oltre che presentare un modello fittizio ma verosimile di se stessi, così che interagendo con loro ci sembrerà di avere a che fare con un organismo intelligente e senziente. Quello che ci sfuggirà, perché non siamo naturalmente in grado di rendercene conto, saranno gli immensi calcoli che portano alle correlazioni fra parole, che a loro volta portano alla costruzione di frasi adatte a una data situazione, che infine portano il sistema a scrivere esattamente quello che ci si potrebbe aspettare da una persona in carne e ossa. Un’impalcatura statistico-matematica che terrà in piedi una scenografia così verosimile da incantare più di una persona.

I rischi di un’AI troppo simile a noi

I rischi di questa convincente emulazione dell’essere umano iniziano a essere evidenti. Così come questo sistema AI è riuscito a trarre in inganno un ingegnere di Google, sistemi analoghi non avranno molta difficoltà a illudere persone meno esperte. Quando entreremo in chat con qualcuno, come faremo a capire se si tratta davvero di un essere umano, se tutto quello che avremo saranno righe di testo? È un problema che già si sono posti in molti, tanto che nella proposta di regolamento dell’intelligenza artificiale in discussione al Parlamento europeo sono previste regole che impongono la trasparenza per questi sistemi: quando si chatta o si parla al telefono con un sistema AI, dovremo essere subito informati che stiamo interagendo con un software e non con una persona.

Ma non sarà la mancanza di trasparenza l’unico problema. Se già oggi molti di noi antropomorfizzano i dispositivi di uso quotidiano, con l’automobile che “non vuole” partire, o con il cellulare che “fa di testa sua”, domani si rischierà davvero di vedere intelligenza e coscienza all’interno di strumenti dotati di modelli linguistici come quello di LaMDA o come GPT-3. Pensiamo a un robot che intrattiene con il proprietario discorsi profondi e complessi grazie a un sofisticato modello linguistico presente al suo interno. Con il tempo sarà facile che si stabilisca un rapporto fra essere umano e robot, costruito su discorsi e scambi di vedute fra una persona che si sente sola e un sistema AI che non si stancherà mai di parlare con il suo interlocutore.

Così come l’ingegnere di Google ha pensato che quei milioni di neuroni artificiali stessero iniziando a sviluppare una coscienza, un numero non indifferente di persone comincerà a credere che il proprio robot domestico stia diventando senziente. Il che potrebbe portare a dilemmi sociali e psicologici non indifferenti, come il considerare le macchine alla stregua di componenti della famiglia, o a veri e propri traumi nel caso il dispositivo dovesse rompersi, o se l’utente non avesse più le risorse finanziarie per pagare l’abbonamento mensile che consente al suo “amico” di stare con lui.

Perché qualsiasi sia lo scopo, se come amico per grandi e piccoli, badante artificiale per gli anziani, compagno di chiacchierate per persone sole o intrattenimento sessuale per chi ne ha bisogno, tutti questi modelli di intelligenza artificiale saranno creati e commercializzati dal settore privato, che pretenderà sempre un corrispettivo economico.

Epilogo

Secondo il Washington Post, Google ha sospeso Lemoine dal servizio dopo che questi avrebbe adottato comportamenti “aggressivi” contro l’azienda. Nello specifico, Lemoine avrebbe cercato di coinvolgere esperti legali per assumere la difesa di LaMDA – come se l’AI avesse bisogno di un avvocato – nonché un rappresentante della Commissione Giudiziaria della Camera dei deputati degli Stati Uniti su quelle che, a suo dire, sarebbero attività non etiche di Google.

Lo stesso Lemoine in un post del 6 giugno racconta le sue peripezie con l’azienda. Senza entrare nei dettagli, perché allora i suoi test su LaMDA non erano ancora noti al grande pubblico, l’ingegnere affermava di aver trovato un problema di etica AI in uno dei sistemi di Google – ora sappiamo che si riferiva probabilmente alla sua convinzione che LaMDA stesse diventando senziente. Lemoine decise quindi di cercare “aiuto esterno” che lo assistesse nel raccogliere le prove di quello che affermava.

Dopo aver coinvolto diverse persone esterne, Lemoine racconta di aver contattato i dirigenti di Google, che ovviamente non l’hanno presa affatto bene. Il problema riguardava non solo le informazioni proprietarie che Lemoine avrebbe fornito a questi soggetti terzi, ma anche il fatto che tali soggetti lavoravano per istituzioni governative che non vedrebbero l’ora di aprire un’indagine su presunti comportamenti scorretti di Google. Come scrive lo stesso Lemoine nel post del 6 giugno: “Molte di queste persone lavorano per il governo degli Stati Uniti e hanno dichiarato che la loro organizzazione era interessata a esercitare una supervisione federale sul progetto a causa delle LORO preoccupazioni in materia di sicurezza. Google, ovviamente, ha insistito molto sul fatto che non era necessaria alcuna supervisione federale.”

Quindi rivelazione di informazioni proprietarie, coinvolgimento di personale governativo, ipotesi di supervisione federale, il tutto basato sulla teoria – bislacca – che un modello di intelligenza artificiale sia diventato senziente e abbia ora urgente bisogno di un avvocato. Probabilmente l’unica cosa che stupisce in tutta questa storia è che Lemoine sia stato solo sospeso e non direttamente licenziato.

Sono Head of Artificial Intelligence di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti all'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, con consulenze sull'AI presso aziende private e per la Commissione Europea, dove collaboro con la European Defence Agency e il Joint Research Centre. Questo blog è personale.