Il servizio Microsoft Azure OpenAI offre ora il rilevamento in tempo reale delle richieste abusive
Negli ultimi mesi, sono stati segnalati utenti che hanno utilizzato con successo servizi di intelligenza artificiale generativa per aggirare le restrizioni sui contenuti e creare contenuti. Un esempio degno di nota si è verificato all’inizio di quest’anno quando sui social media sono circolate immagini esplicite di deepfake dell’artista pop Taylor Swift. Queste immagini sarebbero state prodotte da un gruppo utilizzando specifici suggerimenti di testo nel generatore di immagini AI Microsoft Designer.
Oggi Microsoft ha presentato un’anteprima pubblica di una nuova funzionalità disponibile sul suo servizio Azure OpenAI. Questo servizio consente ad aziende e organizzazioni di utilizzare i modelli di intelligenza artificiale generativa di OpenAI attraverso i server cloud Azure di Microsoft. La funzionalità “Monitoraggio rischi e sicurezza” recentemente introdotta mira a fornire alle aziende una panoramica in tempo reale dell’utilizzo dei loro sistemi di intelligenza artificiale e identificare eventuali tentativi di abuso da parte dei singoli individui.
Secondo un recente post sul blog, Microsoft ha introdotto una funzionalità in grado di visualizzare dati su varie richieste degli utenti finali sui propri servizi di intelligenza artificiale ritenuti non sicuri. Tali richieste comprendono:
- Conteggio totale delle richieste bloccate e tasso di blocco
- Distribuzione delle richieste bloccate per categoria
- Tasso di blocco nel tempo per categoria
- Distribuzione della gravità per categoria
- Conteggio e frequenza delle richieste bloccate nella blocklist
Utilizzando queste informazioni, le aziende possono modificare i limiti dei contenuti AI per garantire che i loro servizi non vengano utilizzati in modo contrario alle loro linee guida.
Inoltre, esiste una funzione che aiuta le aziende a identificare gli utenti che inviano ripetutamente richieste abusive o dannose ai loro servizi di intelligenza artificiale. Microsoft afferma:
Se qualsiasi contenuto di un utente viene contrassegnato come dannoso e combina il comportamento richiesto dall’utente, il sistema valuterà se l’utente è potenzialmente offensivo o meno. Quindi un report riepilogativo sarà disponibile in Azure OpenAI Studio per ulteriori azioni intraprese.
L’azienda ha la capacità di modificare il proprio sistema in conformità con il proprio insieme di norme e regolamenti al fine di salvaguardarsi da potenziali violazioni causate da questi fastidiosi utenti finali.
Alle funzionalità di monitoraggio aggiunte di recente per il servizio Azure OpenAI possono accedere i clienti nelle regioni degli Stati Uniti orientali, Svizzera settentrionale, Francia centrale, Svezia centrale e Canada orientale. Al momento non è chiaro quando questa anteprima pubblica verrà estesa ad altri paesi o diventerà generalmente disponibile.
Lascia un commento