Pagati per addestrare l’AI, subappaltano il lavoro all’AI

"AI on AI", immaginato con Midjourney

Secondo uno studio del Politecnico federale di Losanna (EPFL), i lavoratori occasionali incaricati di preparare o pulire i dataset usati per addestrare i sistemi AI, potrebbero rivolgersi agli stessi sistemi di intelligenza artificiale per aumentare la loro produttività. Questi lavoratori, tipicamente impegnati in compiti difficili da automatizzare come la risoluzione di CAPTCHA, l’etichettatura di dati e l’annotazione di testi, utilizzerebbero sistemi come ChatGPT di OpenAI per massimizzare la loro produttività. Il team dell’EPFL ha stimato che circa il 33-46% di questi lavoratori potrebbe utilizzare strumenti di AI, una percentuale destinata ad aumentare man mano che i sistemi di AI diventeranno più potenti e accessibili.

Tale pratica, tuttavia, presenta un problema significativo. I modelli di AI, intrinsecamente soggetti a errori, potrebbero generare dati errati che poi potrebbero essere utilizzati per addestrare altri modelli di AI. L’effetto a cascata, nel tempo, porterebbe ad amplificare tali errori, rendendo sempre più difficile rintracciarne l’origine. I dati errati potrebbero poi rischiare di influenzare i risultati di altri modelli di AI.

Lo studio solleva questioni cruciali sull’integrità dei dati nei sistemi di AI. Inoltre, esso sottolinea i problemi legati all’affidamento, da parte delle aziende tecnologiche, a lavoratori occasionali del compito essenziale di pulire e correggere i dati forniti ai sistemi di AI. La comunità dell’AI, come suggerisce Robert West dell’EPFL, dovrà studiare i compiti che hanno maggiori probabilità di essere automatizzati e sviluppare strategie per evitarlo.

Per approfondire: The people paid to train AI are outsourcing their work… to AI