Un ingegnere AI di Microsoft afferma di aver riscontrato problemi di sicurezza in DALL-E 3 di OpenAI
La scorsa settimana, immagini esplicite della cantante Taylor Swift hanno inondato il social network X (ex Twitter). Di conseguenza X ha bloccato temporaneamente le ricerche di Swift sulla sua piattaforma . Un rapporto afferma che il creatore di immagini Designer AI di Microsoft, che utilizza il modello DALL-E 3 di OpenAI, è stato utilizzato per creare immagini profondamente false di Swift. Microsoft ha dichiarato ufficialmente di non aver trovato prove a sostegno di questa affermazione , ma da allora ha aggiornato le barriere di sicurezza di Designer.
Ora un attuale ingegnere di intelligenza artificiale di Microsoft di nome Shane Jones ha inviato una lettera al procuratore generale dello Stato di Washington Bob Ferguson, insieme a senatori e rappresentanti degli Stati Uniti, sostenendo di aver scoperto un difetto in DALL-E 3 che aggirava i suoi sistemi di sicurezza. Afferma inoltre che Microsoft ha cercato di minimizzare il difetto.
Nella sua lettera, pubblicata da GeekWire , Jones afferma di aver riscontrato i difetti del guardrail in DALL-E 3 all’inizio di dicembre. Non è entrato nei dettagli sulle questioni specifiche. Ha affermato che i difetti erano così gravi che DALL-3 “rappresentava un rischio per la sicurezza pubblica” e avrebbe dovuto essere chiuso mentre OpenAI cercava di correggere i difetti.
Jones afferma di aver inviato le sue preoccupazioni a Microsoft all’inizio di dicembre, ma poi gli è stato chiesto di inviare ciò che aveva trovato a OpenAI. Dice di non aver ricevuto risposta e in seguito ha pubblicato una lettera aperta su LinkedIn al consiglio di amministrazione di OpenAI, chiedendo loro di chiudere DALL-E 3. Afferma che il team legale di Microsoft lo ha contattato per rimuovere quella lettera, cosa che secondo lui fatto. Da allora, Jones afferma di non aver più sentito parlare di Microsoft o OpenAI su questo problema.
Microsoft ha inviato una dichiarazione sulle affermazioni di Jones a GeekWire. L’azienda afferma di “confermare che le tecniche da lui condivise non hanno aggirato i nostri filtri di sicurezza in nessuna delle nostre soluzioni di generazione di immagini basate sull’intelligenza artificiale”.
Nella sua stessa dichiarazione, un portavoce di OpenAI afferma che “la tecnica che ha condiviso non aggira i nostri sistemi di sicurezza”. Ha aggiunto:
Abbiamo inoltre implementato ulteriori misure di protezione per i nostri prodotti, ChatGPT e l’API DALL-E, incluso il rifiuto delle richieste che richiedono un personaggio pubblico per nome. Identifichiamo e rifiutiamo i messaggi che violano le nostre politiche e filtriamo tutte le immagini generate prima che vengano mostrate all’utente. Utilizziamo un team rosso di esperti esterni per verificare eventuali abusi e rafforzare le nostre misure di sicurezza.
La lettera di Jones dice che vuole che il governo degli Stati Uniti crei un nuovo modo per consentire alle persone di segnalare e tenere traccia di qualsiasi problema relativo all’intelligenza artificiale. Dice che dovrebbe essere impostato in modo tale che le aziende che sviluppano prodotti di intelligenza artificiale possano utilizzare questo sistema di reporting senza alcun timore di problemi da parte di tali aziende.
Lascia un commento