Le GPU NVIDIA Blackwell B100 raddoppieranno le prestazioni delle GPU Hopper H200 nel 2024

Le GPU NVIDIA Blackwell B100 raddoppieranno le prestazioni delle GPU Hopper H200 nel 2024

NVIDIA ha svelato il primo teaser delle prestazioni delle sue GPU Blackwell B100 di prossima generazione che raddoppieranno le prestazioni di Hopper H200 nel 2024.

Le GPU NVIDIA Blackwell B100 AI offriranno prestazioni più che doppie rispetto alle GPU Hopper H200 nel 2024

Durante il suo discorso speciale all’SC23, NVIDIA ha anticipato le prestazioni delle sue GPU di prossima generazione, nome in codice Blackwell, che offriranno più del doppio delle prestazioni AI delle GPU Hopper quando faranno il loro debutto nel 2024. La GPU utilizzata è stata la B100 di nuova generazione che succederà alla Hopper H200 e può essere visto schiacciare il benchmark delle prestazioni di inferenza GPT-3 175B, mostrando il suo enorme potenziale di prestazioni IA.

Negli ultimi due anni, NVIDIA si è affidata alle sue GPU Hopper H100 e Ampere A100 per soddisfare le esigenze dei clienti AI e HPC in tutto il mondo, collaborando con vari partner, ma tutto ciò cambierà nel 2024 con l’arrivo di Blackwell. NVIDIA ha visto un grande aumento del suo data center e delle entrate complessive dell’azienda grazie alla mania dell’intelligenza artificiale e sembra che quel treno stia andando a tutto vapore poiché il team verde mira a lanciare due nuovissime famiglie di GPU entro il 2025.

Fonte immagine: NVIDIA

La prima di queste nuove famiglie di GPU AI/HPC di NVIDIA sarà Blackwell, dal nome di David Harold Blackwell (1919-2010). La GPU sarà il successore della serie GH200 Hopper e utilizzerà il chip B100. L’azienda prevede di offrire vari prodotti tra cui GB200NVL (NVLINK), il GB200 standard e il B40 per l’accelerazione del calcolo visivo. Si prevede che la gamma di nuova generazione sarà svelata al prossimo GTC (2024), seguita da un lancio più tardi nel 2024.

Le voci attuali stimano che NVIDIA utilizzerà il nodo di processo TSMC a 3 nm per produrre le sue GPU Blackwell e che i primi clienti riceveranno i chip entro la fine del 2024 (Q4). Si prevede inoltre che la GPU sarà il primo acceleratore HPC/AI a utilizzare un design chiplet e sarà in concorrenza con l’acceleratore Instinct MI300 di AMD , che sarà anche un grosso problema nello spazio dell’intelligenza artificiale, come il team rosso ha pubblicizzato.

Nvidia B100

L’altro chip che è stato divulgato è il GX200 e questo è il seguito di Blackwell con un lancio previsto per il 2025. Ora NVIDIA ha seguito una cadenza di due anni tra i suoi prodotti AI e HPC, quindi è probabile che potremmo vedere solo un annuncio del chip entro il 2025 con le unità effettive che inizieranno le spedizioni entro il 2026.

La gamma sarà basata sulla GPU X100 e includerà una linea di prodotti GX200 e una linea X40 separata per i clienti Enterprise. NVIDIA è nota per dare alle sue GPU il nome di noti scienziati e utilizza già il nome in codice Xavier per la sua serie Jetson, quindi possiamo aspettarci un nome scientifico diverso per la serie X100. Oltre a ciò, sappiamo poco delle GPU X100, ma sono molto migliori dei nomi in codice Hopper-Next che NVIDIA utilizza nelle roadmap precedenti .

NVIDIA prevede inoltre di fornire importanti aggiornamenti “raddoppiati” sui suoi prodotti Quantum e Spectrum-X con i nuovi prodotti Bluefield e Spectrum, offrendo velocità di trasferimento fino a 800 Gb/s entro il 2024 e velocità di trasferimento fino a 1600 Gb/s entro il 2025. Queste nuove reti e le interfacce di interconnessione aiuteranno molto anche il segmento HPC/AI nel raggiungimento delle prestazioni richieste.

Roadmap per data center NVIDIA/GPU AI

Nome in codice GPU X Blackwell Tramoggia Ampere Volta Pascal
Famiglia GPU GX200 GB200 GH200/GH100 GA100 GV100 GP100
GPU WeU X100 B100 H100 A100 V100 P100
Memoria HBM4? HBM3e HBM2e/HBM3/HBM3e HBM2e HBM2 HBM2
Lancio 2025 2024 2022 2020 2018 2016

https://www.youtube.com/watch?v=6g0v3tMK2LU?start=1092

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *