
In occasione dell’evento Google I/O, Google ha presentato il suo ultimo colosso della tecnologia AI, PaLM 2, una famiglia di modelli linguistici di grandi dimensioni (LLM) pensati per competere con GPT-4 di OpenAI. L’evento, tenutosi a Mountain View, in California, ha anche rivelato che 25 prodotti di Google già utilizzano le capacità di PaLM 2, compreso il suo assistente conversazionale Bard.
Nato da un vasto corpus di dati, PaLM 2 – acronimo di “Pathways Language Model”, che impiega una tecnica di apprendimento automatico innovata da Google – è in grado di prevedere il testo più probabile sulla base di un input umano. Questo modello è il successore del PaLM originale, lanciato da Google nell’aprile 2022.
Secondo quanto dichiarato da Sundar Pichai, CEO di Google, durante il keynote del Google I/O, PaLM 2 supporta ben 100 lingue e si dimostra abile nella generazione di codici, nel ragionamento e nella traduzione multilingue. Il modello ha quattro varianti: Gecko, Otter, Bison e Unicorn, con Gecko che è il più piccolo e abbastanza efficiente da funzionare su un dispositivo mobile. L’utilità di PaLM 2 si estende al di là di Bard, contribuendo alle funzioni AI di Google Docs, Sheets e Slides.
Tuttavia, molti si chiedono se PaLM 2 sia all’altezza di GPT-4. Il rapporto tecnico di PaLM 2 suggerisce che supera GPT-4 in alcuni compiti relativi alla matematica, alla traduzione e al ragionamento. Ma questi risultati sono stati messi in discussione da Ethan Mollick, un professore di Wharton che discute spesso di AI. Egli sostiene che in vari test di linguaggio informale, PaLM 2 sembra avere prestazioni inferiori rispetto a GPT-4 e Bing.
Google Bard has a new AI model, and the whitepaper Google released focuses mostly on translation and math (where it seems to beat GPT-4) and coding (where it doesn't).
In my various informal language tests I run on every model (write a sestina, etc.) it trails GPT-4 & Bing a lot pic.twitter.com/iEmKovwfeG
— Ethan Mollick (@emollick) May 11, 2023
PaLM 2 è una pietra miliare nella ricerca sull’intelligenza artificiale di Google. Il primo PaLM era notevole per le sue dimensioni, con 540 miliardi di parametri, che costituiscono la “conoscenza” che può modellare il sistema. Questa dimensione colossale, rispetto ai 175 miliardi di parametri di GPT-3 di OpenAI, invita a chiedersi quanto sia grande PaLM 2. Google non lo ha ancora rivelato, così come anche OpenAI ha mantenuto il riserbo sulle dimensioni di GPT-4, un punto di scontro tra i professionisti del settore che chiedono una maggiore trasparenza nella tecnologia AI.
Ma il silenzio di Google va oltre le dimensioni di PaLM 2. L’azienda sostiene che PaLM 2 è stato addestrato su “una serie di fonti diverse: documenti web, libri, codici, matematica e dati di conversazione”, ma le specifiche di queste fonti non sono state rivelate. I critici sostengono che questi dataset potrebbero contenere materiale protetto da copyright utilizzato senza consenso, o dati potenzialmente dannosi presi da Internet. Poiché i modelli di intelligenza artificiale sono fortemente influenzati dai dati di addestramento, sono in aumento le richieste di utilizzo di dataset aperti per garantire la riproducibilità scientifica e la responsabilità etica.
Ma l’evoluzione dell’AI non si ferma a PaLM 2. Pichai ha annunciato al keynote dell’I/O l’addestramento di un nuovo modello di AI multimodale chiamato “Gemini“. Con Gemini all’orizzonte, la gara per il dominio dell’intelligenza artificiale è tutt’altro che conclusa.
Per approfondire: The AI race heats up: Google announces PaLM 2, its answer to GPT-4