AI e disinformazione: il caso X-Grok

Mano robot, immaginato da L. Sambucci e da Claude Opus, realizzato da Midjourney

L’acquisizione di Twitter da parte di Elon Musk e il suo rebranding in X hanno portato a cambiamenti significativi nella gestione della piattaforma. Uno dei più recenti, l’aggiornamento della pagina Explore, ha messo in luce un problema critico: la dipendenza dai chatbot di intelligenza artificiale per la cura delle notizie di tendenza.

Il caso emblematico si è verificato qualche giorno fa, quando X ha dato grande risalto al titolo “L’Iran colpisce Tel Aviv con missili pesanti“, una breaking news che avrebbe avuto enormi implicazioni geopolitiche se fosse stata vera. Peccato (anzi, per fortuna) che si trattasse di una notizia falsa, generata dal chatbot Grok di X sulla base di post di account verificati che diffondevano disinformazione.

Disinformazione di Grok su X

La scelta di Musk di eliminare il team di editor umani che curavano i trending topics, sostituendoli con l’AI di Grok, si è rivelata rischiosa. Sebbene X ammetta – con un font piccolo – che Grok “può fare errori” e inviti a verificarne l’output, il danno è stato fatto: la fake news è stata promossa in homepage a centinaia di milioni di utenti.

Questo episodio solleva interrogativi cruciali sull’uso dell’intelligenza artificiale nell’informazione. Affidare la cura delle notizie a chatbot come Grok espone al rischio di diffondere su larga scala errori e manipolazioni, senza il filtro del controllo umano. In un’epoca già segnata dalla disinformazione, gli algoritmi possono amplificare il problema invece di risolverlo.

Il caso X-Grok è un campanello d’allarme per il mondo dell’informazione digitale. Mostra come l’automazione spinta e la rimozione delle verifiche umane possano trasformare le piattaforme in megafoni per notizie false ma credibili. Serve un ripensamento di questo approccio, bilanciando l’efficienza dell’AI con la supervisione di professionisti dell’informazione.

Le breaking news, per loro natura, richiedono particolare attenzione: un singolo titolo falso può scatenare reazioni a catena prima di essere smentito. Lasciare che sia un chatbot a gestirle, senza controllo, è un azzardo che piattaforme con milioni di utenti non possono permettersi.

In gioco c’è la credibilità stessa dell’informazione nell’era digitale. Se vogliamo che il pubblico possa fidarsi delle notizie che legge online, investire in sistemi di verifica e cura umana è fondamentale. L’intelligenza artificiale può essere un alleato prezioso, ma non può sostituirsi al giudizio critico di editor e giornalisti. Solo un approccio ibrido, che unisca il meglio di entrambi i mondi, può contrastare efficacemente la disinformazione.

Il caso X-Grok deve servire da lezione per tutto il settore. La corsa all’automazione non può andare a scapito della veridicità delle notizie. Ne va della salute del nostro spazio informativo e, in ultima analisi, della nostra democrazia.

Per approfondire: Elon Musk’s X pushed a fake headline about Iran attacking Israel. X’s AI chatbot Grok made it up.

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.