Cosa cambia con Grok 3, il nuovo modello di xAi (Musk)

Tutte le funzionalità di Grok 3 Beta di xAi, la startup di intelligenza artificiale di Elon Musk. L'analisi di Peter Kruger.

Feb 22, 2025 - 08:31
 0
Cosa cambia con Grok 3, il nuovo modello di xAi (Musk)

Tutte le funzionalità di Grok 3 Beta di xAi, la startup di intelligenza artificiale di Elon Musk. L’analisi di Peter Kruger

Grok 3 Beta. Nonostante Musk, a mio avviso Grok 2 era già il miglior LLM in circolazione se eri interessato alla ricerca di informazioni (di qualsiasi natura), specialmente informazioni di attualità (la base dati offerta da Twitter è semplicemente fenomenale ed unica). Inoltre, l’uso ridotto di guardrails rispetto ai competitors, garantiva uno stile molto meno verboso, più asciutto e diretto al punto (con conseguenze solo apparentemente inaspettate quando interrogavi il sistema su Musk). Cosa cambia con Grok 3?

Il primo ed evidente cambiamento è la scala. Il pre-training è stato effettuato con 10x flops rispetto a Grok 2. E si vede. Senza neppure attivare la funzione search, il sistema risponde in maniera anche più informativa, dettagliata, e accurata (anche se di norma non mi fido mai).

Questo è stato reso possibile dall’uso di Colossus, il centro di calcolo voluto da Musk a Memphis nel Tennessee, con 100k gpu Nvidia H100 (e questo sempre per quelli che pensano che con DeepSeek la domanda di gpu scenderà).

Piu informazioni, dettagli e accuratezza, tuttavia, arrivano ad un costo: la verbosità. Grok 3 ha perso un po’ della freschezza che caratterizzava Grok 2. Non al punto da renderlo tedioso come gli altri LLM, ma la differenza si nota, soprattutto se vuoi risposte rapide.

Poi ci sono le nuove features (DeepSearch e Think) che, tuttavia, non mi paiono offrire molto di più di ciò che già ottieni con OpenAI o1, DeepSeek R1 o Gemini 2.0 Thinking Experimental. I benchmark sono tutti molto positivi (su ChatBot Arena ha già raggiunto la vetta).

Ma su Search e Time Test Scaling (thinking) siamo appena agli inizi della corsa tra i big dell’AI. Ci vorrà tempo per capire se qualcuno arriverà a dominare realmente gli altri (ammesso che una dominanza sia possibile). 7/15

Qualcuno, con una punta di sarcasmo, si è domandato come mai Musk abbia offerta quasi $100B per l’acquisto di OpenAI, se dispone già di un modello SOTA altamente competitivo. Ma, per rispondere, bisogna capire come si esercita il lock-in dei clienti con i sistemi LLM… O meglio, bisogna capire che il lock-in è molto limitato. Guardate la facilità con cui le persone migrano da OpeanAi a DeepSeek. L’unico modo di fare lock-in è tamite l’integrazione con i servizi.

Per questo Google è molto bene posizionata e procede a passo spedito ad integrare gemini in tutta la offerta di servizi (lo dovrebbe essere anche Microsoft ma fin qui l’integrazione LLM nei servizi MS lascia alquanto a desiderare).

L’altra opzione è quella dell’integrazione con servizi customizzati per le aziende, cioè diventare una specie di LLM integrator (la strategia perseguita da Anthropic e, ora, a quanto pare, anche da Mistral).

In assenza di servizi da integrare o di una strategia corporate, l’unica speranza di lock-in rimane il branding, la base utenti, e il tempo (per sviluppare una tua offerta alternativa di servizi). E questa è una strategia su cui OpenAI mantiene ancora una forte leadership.

xAI ha un grande asset (la base dati di X-Twitter) e anche l’opportunità di fare dumping sui prezzi (con il più grosso centro di calcolo AI al mondo). Vedremo con che costo verranno rese accessibili le API (finora Grok 2 rimane decisamente costoso).

Ma è difficile vedere come questi due vantaggi possano mantenersi nel tempo. I competitor stanno anche investendo in hardware a ritmi senza precedenti. E l’unicità delle basi dati tende a percolare tramite i metodi di distillazione.

Nel lungo periodo, la posizione di xAI è tutt’altro che rosea. Una fusione con OpenAI potrebbe offrire qualche chance in più, ma non è affatto scontato. vedremo.