Microsoft svela i processori interni per potenziare i suoi servizi di intelligenza artificiale

Microsoft svela i processori interni per potenziare i suoi servizi di intelligenza artificiale

Il colosso del software ha annunciato due chip personalizzati per i carichi di lavoro AI durante la conferenza annuale Microsoft Ignite . Microsoft Azure Maia AI Accelerator per attività di intelligenza artificiale e intelligenza artificiale generativa e Microsoft Azure Cobalt, un processore ARM per carichi di lavoro di elaborazione generici sul cloud Microsoft.

L’idea alla base del progetto è quella di personalizzare “tutto, dal silicio al servizio”, per soddisfare la moderna domanda di intelligenza artificiale. Oltre a creare chip interni, Microsoft ha assicurato che tutto il resto fosse ottimizzato per i carichi di lavoro dell’intelligenza artificiale, come software, rack di server e sistemi di raffreddamento.

Microsoft sta costruendo l’infrastruttura per supportare l’innovazione dell’intelligenza artificiale e stiamo reinventando ogni aspetto dei nostri data center per soddisfare le esigenze dei nostri clienti. Nella scala in cui operiamo, è importante per noi ottimizzare e integrare ogni livello dello stack infrastrutturale per massimizzare le prestazioni, diversificare la nostra catena di fornitura e offrire ai clienti la scelta dell’infrastruttura.

Microsoft afferma che Azur Maia AI Accelerator è progettato specificamente per lo stack hardware di Azure, ottenendo il “massimo utilizzo assoluto dell’hardware”. Per quanto riguarda Azure Cobalt, si tratta di un chip ARM ad alta efficienza energetica per offerte native del cloud con prestazioni ottimizzate. -rapporto per watt nei data center.

Per accogliere i nuovi chip nell’infrastruttura del data center esistente, Microsoft ha riprogettato i rack dei server (i nuovi processori richiedono schede più ampie) e ha implementato soluzioni di raffreddamento a liquido. L’azienda lancerà i suoi nuovi processori focalizzati sull’intelligenza artificiale nei data center all’inizio del prossimo anno, inizialmente alimentando Microsoft Copilot e Azure OpenAI Service.

Chip per data center Microsoft Azure Cobalt e Maia

Oltre a lanciare silicio dedicato per l’intelligenza artificiale, Microsoft sta espandendo le partnership con altri produttori per offrire ai clienti più opzioni. Microsoft ha lanciato un’anteprima delle nuove macchine virtuali basate sulle GPU H100 Tensor Core di NVIDIA. Inoltre, il gigante del software prevede di adottare NVIDIA H200 Tensor Core e MI300X di AMD. Tali aggiunte apporteranno prestazioni, affidabilità ed efficienza per l’addestramento di fascia media e alta e per l’intelligenza artificiale generativa.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *