Due nuovi metodi per il poisoning degli algoritmi

Gli attuali modelli di machine learning sono spesso addestrati su enormi quantità di dati raccolti da Internet. Un nuovo studio condotto da ricercatori di Google, del Politecnico di Zurigo (ETH), NVIDIA e Robust Intelligence presenta due tipi di attacchi che possono “avvelenare” i dataset al fine di influenzare le proprietà dei modelli addestrati su tali dati. Questi attacchi sono economici, fattibili e ampiamente applicabili: possono essere utilizzati su dataset di immagini e testi (come quelli utilizzati per Stable Diffusion e CLIP) e su dataset su web come Wikipedia (come quelli utilizzati per i modelli linguistici come GPT-3, alla base di ChatGPT).

La ricerca si trova qui: Poisoning Web-Scale Training Datasets is Practical