AURORA-M: il LLM che sfida le big tech sull’AI etica

Etica AI

Un team internazionale di ricercatori lancia il guanto di sfida ai colossi della Silicon Valley con AURORA-M, un modello di intelligenza artificiale che promette di essere più sicuro e rispettoso delle normative rispetto ai competitor.

Basato su StarCoderPlus e con ben 15 miliardi di parametri, AURORA-M è stato addestrato con oltre 2000 miliardi di token in lingue come inglese, finlandese, hindi, giapponese e vietnamita, oltre che sul codice di programmazione. L’obiettivo? Creare un’AI capace di dialogare in modo naturale in contesti multilinguistici e di generare codice efficiente.

Ma la vera novità è l’approccio alla sicurezza: il team dichiara di aver sottoposto AURORA-M a un “red teaming” secondo l’Ordine Esecutivo sull’AI firmato dal presidente Biden, utilizzando un dataset creato ad hoc chiamato “The Biden-Harris Redteam Dataset“, contenente circa 5000 istruzioni progettate per testare la “robustezza etica” del modello. Dopo essere stato addestrato su questo dataset, AURORA-M ha effettivamente dimostrato di avere prestazioni migliori su alcune metriche di sicurezza e non dannosità.

Tuttavia, analizzando nel dettaglio, emergono alcuni punti interrogativi: il dataset utilizzato sembra essere basato su un lavoro precedente di Anthropic sviluppato prima dell’Ordine Esecutivo stesso, non è quindi chiaro se contenga esempi sufficientemente dettagliati e mirati per testare la conformità a tale ordine. Insomma, quanto è reale la compliance dichiarata da AURORA-M?

Il caso di AURORA-M solleva quindi importanti interrogativi su come valutare e certificare l’eticità e la conformità normativa dei modelli di intelligenza artificiale. Con il moltiplicarsi di leggi e linee guida in materia, il rischio è che si crei un divario tra conformità dichiarata e conformità effettiva, rendendo più difficile per utenti e autorità di regolamentazione distinguere tra AI autenticamente “etica” e operazioni di facciata.

Nonostante i dubbi, l’esperimento di AURORA-M rappresenta comunque un passo importante nel tentativo di allineare lo sviluppo dell’AI a standard normativi esterni, ponendo l’etica al centro del processo. Nei prossimi mesi capiremo se iniziative come questa porteranno a modelli effettivamente più sicuri oppure se serviranno approcci più rigorosi. La strada verso un’intelligenza artificiale pienamente affidabile è ancora lunga.

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.