Bing e Google sono stati criticati per aver mostrato il porno deepfake basato sull’intelligenza artificiale in primo piano nelle ricerche
I motori di ricerca Bing, Google e DuckDuckGo sono sotto accusa per aver inserito pornografia deepfake basata sull’intelligenza artificiale non consensuale in cima ad alcuni risultati di ricerca specifici. Ciò avviene dopo la pubblicazione di un articolo di NBC News, che evidenziava alcune preoccupazioni relative all’accessibilità della pornografia basata sull’intelligenza artificiale.
I video deepfake espliciti vengono creati utilizzando materiale pornografico originale e scambiando il volto dell’attore o (molto spesso) dell’attrice con la verosimiglianza di una persona reale specifica, ad esempio una celebrità. Il passaggio viene effettuato automaticamente dall’intelligenza artificiale, l’utente che crea le immagini false deve solo alimentare l’intelligenza artificiale con le fotografie della vittima.
Secondo i test condotti da NBC News su un campione di 36 celebrità – utilizzando la combinazione di un nome e la parola “deepfakes” – Bing e Google in quasi tutti i casi hanno mostrato video e immagini deepfake non consensuali in cima ai risultati di ricerca.
Google ha restituito 34 risultati di alto livello, mentre Bing ne ha restituiti 35. Sebbene NBC News abbia affermato che DuckDuckGo ha problemi simili, non ha specificato la portata del problema.
NBC News lamenta inoltre che gli articoli rilevanti sulla questione della pornografia deepfake non consensuale vengono mostrati solo dopo i contenuti inappropriati in alto, quando si cerca il termine “fake nudes”.
Vale la pena ricordare che NBC News ha ammesso di aver prima disattivato le funzionalità di sicurezza di Bing e Google che proteggono l’utente dalla visualizzazione di contenuti espliciti. Entrambi i browser hanno il livello di protezione base attivato per impostazione predefinita mentre offrono un livello di protezione più elevato da attivare manualmente.
Tuttavia, si collega effettivamente a siti Web con contenuti o strumenti inappropriati per creare deepfake AI.
Google mostra immagini esplicite per impostazione predefinita, ma le immagini vengono sfocate e mostrate per intero solo dopo che l’utente viene informato della natura esplicita dell’immagine. L’utente deve premere volontariamente il pulsante per vedere l’immagine originale.
Allo stesso tempo, è giusto dire che la facile accessibilità alla pornografia basata sull’intelligenza artificiale è un problema rilevante e che chiunque cerchi questo tipo di contenuto probabilmente disattiverà le funzionalità di protezione integrate. Il contenuto deepfake esplicito e non consensuale è illegale per natura e pertanto rientra nel tipo di contenuto che Microsoft, Google e altri dovrebbero affrontare.
Il modo più semplice, o un primo passo, magari temporaneo, prima di introdurre misure tecnologiche più avanzate, potrebbe essere quello di sopprimere i siti noti per pubblicare questo tipo di contenuti dai risultati di ricerca o di vietarli del tutto.
Ciò potrebbe ridurre in modo significativo la natura attualmente dannosa dei risultati di ricerca perché, come riporta NBC News, più della metà dei risultati principali nei loro test erano collegamenti a un popolare sito Web deepfake o a un concorrente.
Microsoft è stata l’unica azienda che non ha risposto alla richiesta di commento di NBC News. Un portavoce di DuckDuckGo ha affermato che la sua fonte principale per i collegamenti Web e i risultati delle immagini è Bing. Inoltre, DuckDuckGo offre un modo per inviare una richiesta relativa alla privacy, ad esempio chiedendo l’eliminazione di contenuti specifici da una ricerca.
Google offre un’opzione simile per le vittime del deepfake, ma NBC News sostiene – citando esperti e attivisti – che ciò non sia sufficiente. Inoltre, può causare ulteriori danni alle vittime a cui viene detto di inviare URL specifici con contenuti sensibili per la revisione.
D’altra parte, Google ha messo in atto almeno alcune misure tecnologiche. Ha affermato per NBC News che cerca automaticamente contenuti duplicati per rimuovere le immagini ricaricate che erano già state contrassegnate.
Questo è solo uno dei tanti esempi negativi di utilizzo dell’IA per scopi non etici o dannosi. I deepfake, in particolare, sono un problema anche in molti altri ambiti, ad esempio in politica. Microsoft è una delle aziende che sta cercando di sviluppare una tecnologia per il rilevamento dei deepfake per prevenire l’uso improprio della tecnologia prima delle elezioni.
Separatamente, la FTC sta cercando idee utili per individuare registrazioni audio false create dall’intelligenza artificiale. Oggi scade il termine per le iscrizioni alla Voice Cloning Challenge con un premio principale di $ 25.000 per il vincitore assoluto.
Lascia un commento