
Il principale risultato della riunione del 24 ottobre, conclusasi poco prima della mezzanotte, è stata l’approvazione dei dettagli del filtro che consentirà a un fornitore di concludere che il suo sistema è privo di rischi (articolo 6).
I negoziatori hanno ristretto il campo di applicazione per due dei quattro criteri che consentono tale esenzione: ora si riferiscono ai sistemi progettati per “migliorare” il risultato di un’azione umana completata o per rilevare modelli decisionali o deviazioni “senza sostituire o influenzare la valutazione umana precedentemente effettuata”.
Per il resto, la discussione ha fornito principalmente linee guida per il lavoro tecnico, compreso il quadro per i modelli di fondazione e i sistemi di AI generale. I negoziatori hanno concordato di applicare semplici requisiti di trasparenza ai modelli di base e obblighi più severi – come i test di attacco (in gergo “red teaming”) – per i modelli di fondazione ad alto impatto, secondo la nuova terminologia.
Essi si stanno orientando verso diversi criteri per distinguere le due categorie, al di là del puro volume di calcoli utilizzati per la loro realizzazione.
Nelle prossime settimane si terrà una serie di incontri tecnici per preparare il trilogo del 6 dicembre, che si prevede sarà l’ultimo.