Micron avvia la produzione in volumi di HBM3e, destinata a debuttare nelle GPU AI H200 di NVIDIA

Micron avvia la produzione in volumi di HBM3e, destinata a debuttare nelle GPU AI H200 di NVIDIA

Micron ha avviato la produzione di massa della sua memoria HBM3e , poiché lo standard riceve l’adozione di massa da aziende come NVIDIA per le GPU AI H200 .

La soluzione HBM3e di Micron promette prestazioni eccezionali, soddisfacendo la crescita delle soluzioni IA e alimentando il colosso IA H200 di NVIDIA

[ Comunicato stampa ]: Micron Technology ha annunciato oggi di aver avviato la produzione in serie della sua soluzione HBM3E (High Bandwidth Memory 3E). L’HBM3E 8H da 24 GB di Micron farà parte delle GPU NVIDIA H200 Tensor Core, le cui spedizioni inizieranno nel secondo trimestre solare del 2024.

Questo traguardo posiziona Micron all’avanguardia nel settore, potenziando le soluzioni di intelligenza artificiale (AI) con le prestazioni leader del settore e l’efficienza energetica di HBM3E. Poiché la domanda di intelligenza artificiale continua ad aumentare, la necessità di soluzioni di memoria per tenere il passo con i carichi di lavoro ampliati è fondamentale.

La soluzione HBM3E di Micron affronta questa sfida direttamente con:

  • Prestazioni superiori: con una velocità pin superiore a 9,2 gigabit al secondo (Gb/s), HBM3E di Micron offre più di 1,2 terabyte al secondo (TB/s) di larghezza di banda di memoria, consentendo un accesso rapidissimo ai dati per acceleratori AI, supercomputer e dati centri.
  • Efficienza eccezionale: HBM3E è leader del settore con un consumo energetico inferiore di circa il 30% rispetto alle offerte della concorrenza. Per supportare la crescente domanda e l’utilizzo dell’intelligenza artificiale, HBM3E offre il massimo throughput con i più bassi livelli di consumo energetico per migliorare importanti parametri di spesa operativa del data center.
  • Scalabilità senza soluzione di continuità: con 24 GB di capacità oggi, HBM3E consente ai data center di scalare senza problemi le proprie applicazioni AI. Che si tratti di addestrare enormi reti neurali o di accelerare le attività di inferenza, la soluzione di Micron fornisce la larghezza di banda di memoria necessaria.

Micron ha sviluppato questo design HBM3E leader del settore utilizzando la sua tecnologia 1-beta, l’avanzato through-silicon via (TSV) e altre innovazioni che consentono una soluzione di imballaggio differenziata. Micron, leader comprovato nelle memorie per l’impilamento 2.5D/3D e nelle tecnologie di packaging avanzate, è orgoglioso di essere partner della 3DFabric Alliance di TSMC e di contribuire a plasmare il futuro delle innovazioni di semiconduttori e sistemi.

Con questa pietra miliare HBM3E Micron sta realizzando un triplice traguardo: leadership nel time-to-market, prestazioni leader del settore e un profilo differenziato di efficienza energetica. I carichi di lavoro IA dipendono fortemente dalla larghezza di banda e dalla capacità della memoria e Micron è molto ben posizionata per supportare la significativa crescita futura dell’IA attraverso la nostra roadmap HBM3E e HBM4 leader del settore, nonché il nostro portafoglio completo di soluzioni DRAM e NAND per applicazioni IA.

– Sumit Sadana, vicepresidente esecutivo e direttore aziendale di Micron Technology

Micron sta inoltre estendendo la propria leadership con il campionamento di 36 GB 12-High HBM3E, che è destinato a fornire prestazioni superiori a 1,2 TB/s e un’efficienza energetica superiore rispetto alle soluzioni della concorrenza, nel marzo 2024. Micron è sponsor di NVIDIA GTC, una conferenza globale sull’intelligenza artificiale che inizierà il 18 marzo, in cui l’azienda condividerà maggiori informazioni sul suo portafoglio di memorie AI leader del settore e sulle roadmap.

Fonte notizia: Micron

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *