Hacker di Stato sfruttano l’AI per potenziare le loro campagne di attacco

Sicurezza informatica

In un recente rapporto pubblicato da Microsoft è stato rivelato che gruppi di hacker sponsorizzati da Stati come la Russia, la Cina, l’Iran e la Corea del Nord hanno utilizzato strumenti di intelligenza artificiale forniti da OpenAI per affinare le loro capacità e ingannare con maggior successo i loro bersagli.

Tom Burt, Vice Presidente per la Sicurezza dei Clienti di Microsoft, ha dichiarato a Reuters che la società ha tracciato vari gruppi hacker affiliati all’intelligence militare russa, alla Guardia Rivoluzionaria iraniana e ai governi cinesi e nordcoreani mentre cercavano di perfezionare le loro campagne di hacking tramite i grandi modelli linguistici (LLM).

Un comportamento, questo, che va ben oltre il tradizionale ambito dello spionaggio cibernetico, indicando come la rapida proliferazione delle tecnologie AI possa essere sfruttata anche per attività malevole. Nell’intervista a Reuters, Tom Burt ha sottolineato come la società si impegna a impedire l’accesso a queste tecnologie da parte di attori ritenuti pericolosi, indipendentemente dalla violazione di leggi o dei termini di servizio.

Il portavoce dell’ambasciata cinese negli Stati Uniti ha risposto sostenendo l’opposizione della Cina ad “accuse e calunnie infondate” e sottolineando l’importanza di un impiego dell’AI che sia “sicuro, affidabile e controllabile” per migliorare il benessere comune dell’umanità. Una dichiarazione che evidenzia le complesse dinamiche geopolitiche che circondano lo sviluppo e l’uso dell’AI.

Molti esperti di cybersecurity, soprattutto occidentali, avevano già lanciato avvertimenti riguardo all’abuso di tali strumenti da parte di attori ostili, ma finora mancavano dettagli concreti. L’annuncio di Microsoft marca, quindi, una delle prime volte in cui un’azienda impegnata nello sviluppo dell’intelligenza artificiale divulga pubblicamente l’abuso delle proprie tecnologie AI a fini di spionaggio.

Il rapporto descrive inoltre come i vari gruppi hacker abbiano impiegato i LLM per scopi diversi: da ricerche su tecnologie satellitari e radar che potrebbero riguardare le operazioni militari convenzionali dell’Ucraina, fino alla generazione di contenuti per campagne di phishing mirato e la redazione di email ingannevoli per attirare vittime in siti web compromessi.

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.