Phi-3.5-MoE di Microsoft compete con Gemini 1.5 Flash, ora accessibile in Azure AI Studio e GitHub

Phi-3.5-MoE di Microsoft compete con Gemini 1.5 Flash, ora accessibile in Azure AI Studio e GitHub

Il mese scorso, Microsoft ha presentato la famiglia all’avanguardia Phi-3.5 di modelli AI leggeri, che presentano una serie di miglioramenti. Tra questi spicca il Phi-3.5-MoE, che segna il primo modello della serie Phi a incorporare la tecnologia Mixture of Experts (MoE).

Microsoft ha ora annunciato che il modello Phi-3.5-MoE è prontamente disponibile in Azure AI Studio e GitHub tramite un’API serverless. Questa funzionalità consente agli sviluppatori di integrare senza problemi il modello Phi-3.5-MoE nei loro flussi di lavoro e applicazioni senza la necessità di gestire alcuna infrastruttura sottostante.

Il modello Phi-3.5-MoE, insieme ad altri modelli Phi-3.5, è accessibile in diverse regioni, tra cui East US 2, East US, North Central US, South Central US, West US 3, West US e Sweden Central. Come offerta serverless, gli sviluppatori beneficiano di una struttura di prezzi pay-per-use, che è impostata a $ 0,00013 per 1.000 token di input e $ 0,00052 per 1.000 token di output.

In vari benchmark AI, il Phi-3.5-MoE ha dimostrato prestazioni superiori rispetto a quasi tutti gli altri modelli aperti nella sua categoria, come Llama-3.1 8B, Gemma-2-9B e Mistral-Nemo-12B, in particolare utilizzando meno parametri attivi. Microsoft afferma che i suoi rivali in termini di prestazioni, se non superano di poco, il Gemini-1.5-Flash di Google, uno dei principali modelli closed-source in questo dominio.

Phi-35 MoE

Il modello MoE presenta un totale di 42 miliardi di parametri, di cui solo 6,6 miliardi sono attivati, supportati da 16 esperti. Il team di Microsoft Research ha progettato questo modello da zero per migliorare le prestazioni, aumentare le capacità multilingue e rafforzare i protocolli di sicurezza. Inoltre, anziché affidarsi alle tecniche di formazione convenzionali, il team Microsoft Phi ha ideato un nuovo metodo di formazione noto come GRIN (GRadient INformed) MoE. Questo approccio ha portato a un utilizzo dei parametri notevolmente migliorato e alla specializzazione degli esperti, ottenendo risultati di qualità notevolmente superiore rispetto alle modalità di formazione tradizionali.

Con le sue eccezionali metriche di prestazioni e accessibilità, Phi-3.5-MoE è destinato a potenziare gli sviluppatori e a guidare l’innovazione all’interno dell’ecosistema AI. Il suo modello serverless e i prezzi basati sul consumo stanno ulteriormente smantellando le barriere all’ingresso, consentendo a più sviluppatori di accedere a funzionalità AI avanzate che mai.

Fonte: Microsoft

Fonte

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *