Microsoft lancia uno strumento per identificare e correggere i contenuti allucinati nei risultati dell’intelligenza artificiale

Microsoft lancia uno strumento per identificare e correggere i contenuti allucinati nei risultati dell’intelligenza artificiale

Azure AI Content Safety è una soluzione AI innovativa di Microsoft progettata per identificare contenuti dannosi generati dagli utenti e dall’AI all’interno di varie applicazioni e servizi. Il servizio comprende API sia di testo che di immagini, consentendo agli sviluppatori di segnalare in modo efficace il materiale indesiderato.

L’API Groundedness detection, parte di Azure AI Content Safety, può accertare se le risposte provenienti da modelli linguistici di grandi dimensioni sono basate su materiali di origine selezionati dall’utente. Dato che gli attuali modelli linguistici di grandi dimensioni a volte producono informazioni imprecise o non fattuali, spesso definite allucinazioni, questa API aiuta gli sviluppatori a riconoscere tali imprecisioni negli output AI.

Di recente, Microsoft ha annunciato un’anteprima di una funzionalità di correzione che consente agli sviluppatori di rilevare e correggere contenuti allucinatori in tempo reale, garantendo che gli utenti finali ricevano contenuti generati dall’intelligenza artificiale sempre accurati e veritieri.

Ecco come funziona la funzione di correzione:

  • Lo sviluppatore dell’applicazione attiva la funzionalità di correzione.
  • Dopo aver rilevato una frase infondata, viene inviata una nuova richiesta al modello di intelligenza artificiale generativa per una correzione.
  • Il modello linguistico più ampio valuta la frase non fondata rispetto al documento fondante.
  • Le frasi prive di contenuto rilevante per il documento di base potrebbero essere completamente filtrate.
  • Se il contenuto viene trovato nel documento di base, il modello di base riscrive la frase non fondata per allinearla al documento.

Oltre alla funzionalità di correzione, Microsoft ha anche introdotto l’anteprima pubblica di Azure AI Content Safety (AACS) ibrido . Questa iniziativa consente agli sviluppatori di implementare misure di sicurezza dei contenuti sia nel cloud che sul dispositivo. L’AACS Embedded SDK facilita i controlli di sicurezza dei contenuti in tempo reale direttamente sui dispositivi, anche senza una connessione Internet.

Inoltre, Microsoft ha svelato l’anteprima di Protected Materials Detection for Code , che può essere utilizzato con applicazioni di intelligenza artificiale generativa che producono codice per identificare se l’LLM ha generato codice protetto. Questa funzionalità, inizialmente accessibile solo tramite Azure OpenAI Service, è ora disponibile per l’integrazione con altri modelli di intelligenza artificiale generativa che generano codice.

Questi aggiornamenti migliorano significativamente l’affidabilità e l’accessibilità delle tecnologie di moderazione dei contenuti basati sull’intelligenza artificiale, promuovendo applicazioni di intelligenza artificiale più sicure e affidabili su una varietà di piattaforme e ambienti.

Fonte

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *