Nvidia lancia il chip AI più potente al mondo

La società star dell'high tech ha presentato il chip B200 "Blackwell" che può completare le operazioni 30 volte più velocemente e ridurre i costi e il consumo energetico di 25 volte, rispetto al suo predecessore (H100).

Nvidia ha presentato il chip B200 “Blackwell” che può completare le attività 30 volte più velocemente e ridurre i costi e il consumo energetico di 25 volte, rispetto al suo predecessore (H100).

Punti chiave

Prodotto da TSMC, le sue caratteristiche includono una migliore connettività con altri chip e un nuovo metodo per elaborare i dati AI, che accelererà il processo.

Blackwell sarà disponibile come parte della linea di “super-chip” di prossima generazione di Nvidia e dovrebbe essere il motore che alimenterà i data center di Amazon, Microsoft e Google.

Con Microsoft (dopo aver dichiarato che stavano riducendo la dipendenza da Nvidia) che annuncia una collaborazione, che la vedrà sfruttare il nuovo chip per alimentare la sua piattaforma cloud, Azure.

Sebbene Nvidia possieda l’80% del mercato dei chip IA, ha difficoltà a espandere la sua tecnologia oltre le principali società di cloud computing, cosa che intende affrontare rendendo i suoi sistemi IA più accessibili.

L’analisi sul nuovo chip B200 “Blackwell”

Con l’obiettivo di continuare a cavalcare un’ondata di domanda guidata dall’intelligenza artificiale, Nvidia sta utilizzando la conferenza degli sviluppatori GTC di questa settimana per pubblicizzare una famiglia di chip più potente insieme a una serie di partnership industriali.

Nvidia è stata finora la più  clamorosa vincitrice del boom dell’intelligenza artificiale generativa tra i produttori di chip, ma i rivali vogliono entrare in azione.

La società ha presentato la sua nuova famiglia di processori Blackwell, prevista per la fine dell’anno: conterrà più di 200 miliardi di transistor.

“Abbiamo bisogno di GPU più grandi”, ha affermato il CEO di Nvidia Jensen Huang. Nvidia ha affermato che i processori Blackwell possono alimentare modelli linguistici molto più grandi di quelli utilizzati oggi: fino a 27 trilioni di parametri, molte volte la dimensione dei modelli più avanzati di oggi, come GPT-4.

Nvidia ha utilizzato l’evento anche per evidenziare la propria espansione in nuove aree, compresi i robot.

Altre aziende tecnologiche erano ansiose di pubblicizzare i loro legami con Nvidia: aziende tra cui Google, Microsoft, Oracle, SAP e Hewlett Packard Enterprise hanno annunciato partnership nuove o ampliate.

Il quadro generale

Nvidia sta affrontando la pressione di potenti rivali, tra cui AMD, così come di piccoli produttori di chip emergenti focalizzati specificamente sulla gestione dell’intelligenza artificiale.

Anche se continuano ad acquistare chip Nvidia, i giganti della tecnologia tra cui Microsoft, Google e Amazon stanno sviluppando i propri processori.

 

Tag

Partecipa alla discussione