OpenAI vs Nvidia: la sfida sui chip

Ormai sul web prende sempre più forza l'idea che il mondo finanziario che gira intorno all'AI sia una bolla pronta scoppiare, e molti fanno la similitudine con il "Dot Com Bubble" dei primi anni 2000, da cui poi internet ne è uscito vincitore, ma tutti quelli che avevano investito soldi facili in aziende web poco solide hanno visto evaporare i propri risparmi.
E se ci sono due aziende che sono al centro di questa bolla speculativa, sicuramente sono Open AI, quella di Chat GPT per intenderci, e Nvidia e i suoi chip, estremamente richiesti da chi deve fare il "training" dei modelli di AI.
Però, bisogna fare un attimo distinzione tra training e inference: prendendo l'esempio di uno studente che si prepara per un esame universitario, il training possiamo definirlo come le ore passate sui libri per studiare il materiale, mentre l'inference equivale alla performance che il ragazzo riesce ad esprimere in sede di esame.
Se lo studente è intelligente, bravo ed ha studiato molto, ma all'esame si presenta impacciato e nervoso, potrebbe prendere voti non altissimi anche se conosce il materiale alla perfezione.
E ora OpenAI dice di non essere soddisfatta dei chip Nvidia, che sono probabilmente i migliori per il training grazie a GPU potentissime e a un ecosistema software ormai standard di fatto, ma tendono ad avere lacune per quanto riguarda l'inference.
OpenAI ha scoperto che, per prodotti come i modelli di coding (Codex e simili), le GPU Nvidia non offrono la velocità necessaria. Nel coding ogni millisecondo conta: un ritardo minimo si traduce in produttività persa per l’utente e in svantaggio competitivo per chi offre il servizio. Nel frattempo, concorrenti diretti come Anthropic con Claude e Google con Gemini stanno già usando chip progettati specificamente per l’inference, ottenendo latenze più basse e prestazioni migliori. Paradossalmente, OpenAI rischia di restare indietro nella rivoluzione che lei stessa ha innescato.
La risposta? Cercare alternative. OpenAI ha iniziato a parlare con player come Cerebras, Groq e AMD, mostrando una disponibilità totale a collaborare con chiunque potesse garantire maggiore velocità. Ed è qui che la partita diventa quasi una sfida a scacchi. Nvidia ha reagito acquisendo Groq per circa 20 miliardi di dollari, bloccando di fatto una delle strade più promettenti per OpenAI. Non è solo una mossa industriale: è una mossa strategica per mantenere il controllo.
Questo scontro si riflette anche nei retroscena finanziari. L’accordo da oltre 100 miliardi di dollari tra Nvidia e OpenAI, annunciato mesi fa, è ancora impantanato nelle trattative. Quando una deal di questo tipo si trascina così a lungo, il problema non è la burocrazia, ma divergenze profonde sulla visione futura.
Il messaggio è chiaro: non esiste più un vincitore garantito. I chip per inference richiedono architetture diverse, con molta più memoria integrata direttamente sul chip e meno dipendenza da memoria esterna, che introduce colli di bottiglia. Nvidia resta fortissima nel training, ma sull’inference il campo è completamente aperto. E questo dovrebbe far tremare anche gli investitori più convinti.
La tecnologia evolve a una velocità brutale. Il leader di ieri può diventare insufficiente in meno di un anno. Google ha le sue TPU, Amazon sviluppa Trainium, Microsoft ha annunciato chip proprietari. Tutti hanno capito che dipendere da un unico fornitore è un rischio enorme. Il risultato sarà una frammentazione crescente: più innovazione, sì, ma anche più complessità. Architetture multiple, software da ottimizzare per hardware diversi, sviluppatori costretti a pensare in modo più astratto e flessibile.
Ed è qui che emerge l’opportunità. Sam Altman lo ha detto chiaramente: chi usa modelli di coding è disposto a pagare un premio enorme per la velocità. La speed è il nuovo terreno di scontro. Chi riuscirà a dominare l’inference, dominerà l’esperienza quotidiana dell’AI per miliardi di utenti.
La guerra dell’infrastruttura AI è appena iniziata. Nvidia non è fuori gioco, ma non è più l’unica regina sulla scacchiera.
E chi arriva tardi rischia di chiedersi, tra un anno, cosa diavolo sia successo.
Grazie dell'attenzione e alla prossima.
Congratulations @giuatt07! You have completed the following achievement on the Hive blockchain And have been rewarded with New badge(s)
You can view your badges on your board and compare yourself to others in the Ranking
If you no longer want to receive notifications, reply to this comment with the word
STOPCheck out our last posts:
Niente di strano, chi ha potere e peso vuole mantenere quanto più peso possibile, magari monopolio... A proposito guarda la nuova Proposal del dhf sul coding ai
L'idea è buona, ma il momento mi sembra inopportuno, abbiamo bisogno di più investitori/utenti che programmatori adesso.