L’enorme interesse per l’intelligenza artificiale registrato nel 2023 ha fatto la fortuna di NVIDIA, azienda statunitense dominante sul mercato dei semiconduttori per l’IA, dalla capitalizzazione superiore ai 1000 miliardi di dollari. Le società tecnologiche hanno bisogno dei processori di NVIDIA, altamente performanti, per “alimentare” e far progredire i loro sistemi di intelligenza artificiale: l’esempio più noto è quello di ChatGPT, il chatbot di OpenAI, che utilizza migliaia di unità di elaborazione grafica (GPU) realizzate da NVIDIA.
Le grandi compagnie tecnologiche – le cosiddette Big Tech – si stanno però attrezzando per rendersi autonome, almeno in parte.
LE BIG TECH VOGLIONO FARE DA SÉ
Microsoft, Meta, Amazon e Alphabet, infatti, hanno tutte rivelato l’intenzione di sviluppare internamente dei microchip per l’intelligenza artificiale: oltre a ridurre la dipendenza da NVIDIA, puntano anche ad abbassare i costi di sviluppo dei modelli di IA.
L’H100, la principale unità di elaborazione grafica di NVIDIA, si vende infatti a un prezzo di circa 40.000 dollari l’una. Come spiegato da Quartz, la speranza delle Big Tech è che l’aumento dell’offerta di microchip a prezzi competitivi farà scendere i costi di “addestramento” dei modelli di intelligenza artificiale.
LE MOSSE DI GOOGLE, MICROSOFT E AMAZON
Il modello di intelligenza artificiale di Google, chiamato Gemini, utilizza microprocessori sviluppati internamente e noti in gergo come TPU, o tensor processing unit. Il microchip per l’intelligenza artificiale di Microsoft si chiama Maia 100; quello di Amazon Trainium2.
META E MICROSOFT SCELGONO ARM (PER METTERE PRESSIONE SU NVIDIA?)
A dicembre Meta, Microsoft e OpenAI hanno annunciato che utilizzeranno il nuovo microchip di AMD, l’MI300X, per i loro sistemi di intelligenza artificiale: la ragione principale sembra essere il prezzo, inferiore a quello dell’H100 di NVIDIA.