Anthropic ha triplicato il proprio fatturato annualizzato in meno di quattro mesi, superando i 30 miliardi di dollari di run rate. Con questa scala, l’azienda sta valutando la progettazione di chip AI proprietari per ridurre la dipendenza da fornitori esterni. Il progetto è ancora esplorativo — nessun team dedicato né design definitivo — ma la direzione è chiara.
La struttura attuale: chi fornisce i chip per Claude
Oggi Anthropic non controlla nessun chip. Il training e l’inference di Claude girano su una combinazione di tre infrastrutture:
- TPU Google/Broadcom — chip custom progettati da Google con Broadcom, ottimizzati per i carichi di training di grandi modelli
- Chip custom Amazon — sviluppati nell’ambito del partnership strategico AWS
- GPU NVIDIA — per workload specifici e flessibilità
Ogni fornitore ha la propria roadmap, i propri costi e i propri vincoli. Per un’azienda che spende miliardi in compute, dipendere da roadmap esterne è una vulnerabilità strategica crescente.
I numeri: quanto costa fare chip propri
| Voce | Dato |
|---|---|
| Run rate Anthropic (aprile 2026) | >30 miliardi $ |
| Crescita run rate (ultimi 4 mesi) | 3x |
| Costo sviluppo chip AI avanzato | ~500 milioni $ |
| Accordo TPU Google/Broadcom (dal 2027) | 3,5 GW di capacità (~3x attuale) |
| Impegno totale infrastrutture | 50 miliardi $ |
Perché questa mossa ha senso a questa scala
Sviluppare un chip AI avanzato costa circa 500 milioni di dollari tra progettazione, team di ingegneri specializzati e validazione. A un run rate di 30 miliardi, ammortizzare quel costo su più anni diventa economicamente razionale — soprattutto se il chip è ottimizzato per i workload specifici di Claude (architettura transformer, inference scalabile, latency bassa per API in tempo reale).
Il precedente è Google: i TPU sono stati progettati internamente proprio per ridurre la dipendenza da NVIDIA e ottimizzare il costo per token di training. Amazon ha fatto lo stesso con i chip Trainium e Inferentia. Anthropic, se seguirà questa strada, sarebbe il terzo grande player AI a chiudere la verticalizzazione hardware.
Cosa cambia per chi usa Claude oggi
Nel breve termine: nulla. L’accordo con Google/Broadcom per 3,5 GW di TPU dal 2027 garantisce capacità compute per i prossimi anni. Il progetto chip proprietario, se partirà, richiederà 3-5 anni prima di produrre silicon in produzione. Per gli sviluppatori che usano le API Claude, la variabile rilevante è il pricing — e un’infrastruttura più efficiente può tradursi in costi API più bassi nel lungo termine.
