
In un’epoca in cui i chatbot AI come Bard di Google e ChatGPT di OpenAI sono sempre più integrati nei flussi di lavoro quotidiani, Alphabet ha preso posizione su come i suoi dipendenti dovrebbero interagire con queste tecnologie. Mentre l’azienda promuove il proprio chatbot AI Bard in tutto il mondo, contemporaneamente consiglia ai propri dipendenti di astenersi dall’inserirvi informazioni riservate, promuovendo una costante attenzione alla sicurezza dei dati e alla salvaguardia delle informazioni.
I chatbot come Bard e ChatGPT sfruttano l’intelligenza artificiale generativa per portare avanti conversazioni complesse, rispondere a un’ampia gamma di richieste e persino generare codice informatico. Ma questa versatilità comporta potenziali rischi. I revisori umani, nell’ambito dei loro compiti, potrebbero leggere alcune delle conversazioni tenute dagli utenti con questi sistemi. Inoltre, una ricerca ha dimostrato che tali modelli AI possono riprodurre i dati assorbiti durante l’addestramento. Questi fattori creano un potenziale rischio di leak di informazioni, in particolare per quelle sensibili o riservate.
Infine, Alphabet ha messo in guardia i suoi sviluppatori affinché utilizzino con cautela il codice generato da questi chatbot. La posizione dell’azienda è che se da un lato Bard può dare suggerimenti utili ai programmatori, dall’altro potrebbe generare codice indesiderato.
Questa maggiore cautela riflette non solo il desiderio di Google di evitare qualsiasi danno potenziale derivante dal suo software, ma anche uno standard di sicurezza aziendale emergente. Man mano che i sistemi di AI diventano più sofisticati e pervasivi, aumenta la necessità di mitigare i potenziali rischi di fuga dei dati. Sta diventando la norma mettere in guardia il personale dall’uso di chatbot disponibili pubblicamente, dove i dati sensibili potrebbero essere inavvertitamente esposti.
La posizione di Google è anche racchiusa nella sua nota sulla privacy recentemente aggiornata, che consiglia esplicitamente agli utenti di non includere informazioni riservate o sensibili nelle loro conversazioni su Bard.
Per approfondire: Google, one of AI’s biggest backers, warns own staff about chatbots