Andrej Karpathy ha messo a fuoco un problema che molti utenti avevano già percepito senza riuscire a quantificarlo: la modalità vocale di ChatGPT usa un modello significativamente più vecchio rispetto alla versione testuale. Se chiedi a ChatGPT voice mode qual è il suo knowledge cutoff, risponde: aprile 2024. Quasi due anni di ritardo rispetto al momento attuale.

Il divario tra voce e testo

Simon Willison ha sintetizzato la situazione il 10 aprile 2026 citando direttamente Karpathy: la Advanced Voice Mode gratuita “fumble the dumbest questions” mentre i modelli Codex pagati a livello enterprise “restructure an entire code base” per un’ora intera. Non è una questione di interfaccia — è un modello diverso sotto al cofano.

La discrepanza è strutturale: OpenAI investe risorse di ottimizzazione dove i risultati sono verificabili oggettivamente (coding, dove i test unitari passano o no, i benchmark SWE-Bench misurano tutto) molto più che sulla conversazione vocale, dove la qualità è soggettiva e difficile da misurare.

Cosa significa nella pratica

Il confronto con gli LLM locali

Chi usa LLM locali con Ollama o LM Studio per coding (Qwen3-coder, Gemma 4) sta usando modelli con training aggiornato ad aprile 2026 o oltre. La voice mode di ChatGPT non è il punto di riferimento per confrontare le capacità AI — il modello testuale o API lo è.

Il takeaway pratico: se usi ChatGPT voice mode per task informativi o tecnici che richiedono conoscenza recente, stai usando uno strumento con un gap di quasi due anni. Per conversazione generica funziona — per domande su modelli AI usciti nell’ultimo anno, cerca altrove.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *