Samsung vieta ai dipendenti l’uso di ChatGPT per questioni di sicurezza

Samsung al CES 2009

Samsung Electronics Co. ha recentemente vietato ai dipendenti l’uso di popolari strumenti di AI generativa come ChatGPT, Google Bard e Bing, motivando il divieto con problemi di sicurezza. Secondo una nota interna esaminata da Bloomberg, l’azienda è preoccupata del fatto che i dati trasmessi alle piattaforme di intelligenza artificiale vengano memorizzati su server esterni, rendendoli difficili da recuperare, cancellare e potenzialmente divulgabili ad altri utenti.

Questa decisione segue preoccupazioni simili sollevate dalle banche di Wall Street, tra cui JPMorgan Chase & Co, Bank of America Corp. e Citigroup Inc, che hanno vietato o limitato l’uso di ChatGPT solo un paio di mesi dopo il suo rilascio.

L’incidente menzionato nella nota, in cui gli ingegneri di Samsung hanno accidentalmente fatto trapelare il codice sorgente interno caricandolo su ChatGPT, è un esempio dei potenziali rischi connessi. Vale la pena notare che ChatGPT ha recentemente aggiunto una modalità “incognito” per aiutare gli utenti a bloccare le loro chat dall’essere utilizzate per l’addestramento dei modelli di intelligenza artificiale, ma questo da solo potrebbe non essere sufficiente a risolvere i problemi di sicurezza aziendale. Ricordiamo che in questa modalità le chat, anche se non visibili all’utente che le ha inserite, sono comunque salvate sui server di OpenAI per 30 giorni prima di essere cancellate.

In risposta a questo problema, Samsung sta sviluppando i propri strumenti interni di intelligenza artificiale per la traduzione, la sintesi di documenti e lo sviluppo di software, oltre a procedure per bloccare il caricamento di informazioni aziendali sensibili su servizi esterni.

Anche se le piattaforme di intelligenza artificiale generativa come ChatGPT possono effettivamente migliorare la produttività e l’efficienza, le aziende devono soppesare i vantaggi con i potenziali rischi per la sicurezza. La decisione di Samsung di vietare questi strumenti e di sviluppare i propri sistemi AI interni evidenzia la necessità di un ambiente più sicuro e controllato per sfruttare la potenza dell’intelligenza artificiale senza mettere a rischio le informazioni sensibili.

Per approfondire: Samsung Bans Staff’s AI Use After Spotting ChatGPT Data Leak