L’industria HBM è destinata a raddoppiare le entrate entro il 2025, per gentile concessione dei chip AI di nuova generazione di NVIDIA e altri
Il mercato HBM, spesso considerato la spina dorsale dell’informatica basata sull’intelligenza artificiale, è destinato a raddoppiare le entrate di mercato entro il 2025 , man mano che il settore si sposta verso i chip di prossima generazione.
I mercati HBM hanno visto una nuova speranza con l’influenza dell’intelligenza artificiale, catalizzando un’enorme crescita delle entrate
Considerando ciò, il ricercatore di mercato Gartner riferisce che il mercato HBM raggiungerà l’enorme cifra di 4,976 miliardi di dollari entro il 2025, che è quasi il doppio se si considerano le cifre raggiunte nel 2023. La stima si basa esclusivamente sulla domanda attuale e prevista dal settore, e nessuna sorpresa qui poiché l’area chiave in cui HBM vende di più è la sua applicazione nelle GPU AI. Come riportato più volte in passato, l’improvviso aumento della domanda di GPU AI ha creato una carenza di HBM nei mercati, poiché HBM è il componente principale nella composizione di un acceleratore AI.
C’è anche un enorme senso di ottimismo riguardo al futuro della HBM, dal momento che, secondo quanto riportato in precedenza, il settore si sta effettivamente spostando verso standard più nuovi, con prodotti come HBM3e e HBM4 destinati a ricevere un’adozione diffusa da parte dei produttori.
NVIDIA ha molto in programma per i suoi clienti nel 2024, dal momento che la società ha già annunciato la GPU H200 Hopper , che dovrebbe vedere l’adozione di massa entro il prossimo anno, seguita dall’introduzione delle GPU AI B100 “Blackwell” , entrambe essere basato sulla tecnologia di memoria HBM3e. Una situazione simile si riscontra anche nel campo di AMD, con il debutto delle GPU AMD Instinct di nuova generazione caratterizzate dal nuovo tipo HBM.
Confronto delle specifiche della memoria HBM
DRAM | HBM1 | HBM2 | HBM2e | HBM3 | HBM3Gen2 | HBMNext (HBM4) |
---|---|---|---|---|---|---|
I/O (interfaccia bus) | 1024 | 1024 | 1024 | 1024 | 1024-2048 | 1024-2048 |
Prelettura (I/O) | 2 | 2 | 2 | 2 | 2 | 2 |
Larghezza di banda massima | 128GB/s | 256GB/s | 460,8 GB/sec | 819,2 GB/s | 1,2 TB/s | 1,5 – 2,0 TB/s |
Circuiti integrati DRAM per stack | 4 | 8 | 8 | 12 | 8-12 | 8-12 |
Capacità massima | 4GB | 8GB | 16 GB | 24 GB | 24 – 36GB | 36-64GB |
tRC | 48ns | 45ns | 45ns | Da definire | Da definire | Da definire |
tCCD | 2ns (=1tCK) | 2ns (=1tCK) | 2ns (=1tCK) | Da definire | Da definire | Da definire |
VPP | VPP esterno | VPP esterno | VPP esterno | VPP esterno | VPP esterno | Da definire |
VDD | 1,2 V | 1,2 V | 1,2 V | Da definire | Da definire | Da definire |
Ingresso di comando | Doppio comando | Doppio comando | Doppio comando | Doppio comando | Doppio comando | Doppio comando |
L’industria delle memorie ha infatti visto una rinascita con l’avvento dell’intelligenza artificiale sui mercati e, per quanto ci dicono gli indicatori, le cose non sembreranno calmarsi per ora.
Fonte notizia: Ctee
Lascia un commento