Come sapere se le tue immagini hanno addestrato un modello AI (e come rinunciare)

Come sapere se le tue immagini hanno addestrato un modello AI (e come rinunciare)

Con incredulità di molte persone, gli artisti viventi stanno scoprendo che la loro arte è stata utilizzata per addestrare modelli di intelligenza artificiale senza il loro consenso. Utilizzando uno strumento web chiamato “Sono stato addestrato?”, puoi sapere in pochi minuti se le tue immagini sono state inviate a Midjourney, NightCafe e altri popolari generatori di immagini AI.

Se trovi la tua immagine in uno dei set di dati utilizzati per addestrare questi sistemi di intelligenza artificiale, non disperare. Alcune organizzazioni hanno sviluppato modi per rinunciare a questa pratica, impedendo che le tue immagini vengano scartate da Internet e trasmesse alle società di intelligenza artificiale.

In che modo i generatori di immagini AI vengono addestrati in primo luogo

Quando chiedi a un sistema di intelligenza artificiale come DALL-E di generare un’immagine di un “cane che indossa un cappello di compleanno”, deve prima sapere che aspetto ha un cane e che aspetto ha anche un cappello di compleanno. Ottiene queste informazioni da enormi set di dati che raccolgono miliardi di collegamenti a immagini su Internet.

Come tutti sappiamo, Internet contiene praticamente qualsiasi tipo di immagine che puoi immaginare, incluse, con ogni probabilità, tonnellate di immagini di un “cane che indossa un cappello di compleanno”. Con dati sufficienti come questi, un modello di intelligenza artificiale può capire come riprodurre un’immagine a somiglianza di quelle su cui è stata addestrata.

Ma cosa succederebbe se quelle immagini fossero originariamente protette da copyright? E se quelle immagini appartenessero ad artisti, fotografi o persone normali che non erano consapevoli del fatto che le loro immagini alimentassero un sistema di intelligenza artificiale?

Il problema per gli artisti

Molti generatori di immagini AI hanno un livello a pagamento in cui gli utenti possono acquistare crediti per creare più immagini, guadagnando loro un profitto. Ma quel profitto viene guadagnato dalle spalle di persone non accreditate le cui immagini sono state utilizzate per addestrare il sistema di intelligenza artificiale in primo luogo.

Man mano che sempre più artisti scoprono che le loro immagini sono state utilizzate per sviluppare sistemi di intelligenza artificiale, è chiaro che non tutti sono d’accordo. Per lo meno, vogliono che le aziende di intelligenza artificiale ottengano il consenso prima di utilizzare le loro immagini.

Quattro immagini di un cane con un cappello nello stile di Henri Magritte generate con DALL-E

Soprattutto se sei un artista famoso e popolare, avere immagini generate nel tuo stile può affollare il tuo mercato, con fan o potenziali mecenati, senza sapere se l’arte è stata creata da te o replicata a tua immagine dall’intelligenza artificiale. Quel che è peggio, le persone possono creare opere d’arte nel tuo stile per supportare valori in cui non credi.

Questo non è un nuovo problema, i deepfake esistono da anni e potenzialmente stanno per peggiorare con l’ascesa dell’IA. Al giorno d’oggi, riprodurre l’arte “falsa” è veloce, economico e facile. Ci sono solo pochi modi per identificare un’immagine generata dall’IA, rendendo difficile individuare l’arte originale dalla sua controparte generata dall’IA.

Set di dati: ricerca e indicizzazione delle immagini

Come accennato in precedenza, i set di dati di immagini vengono utilizzati dalle aziende di intelligenza artificiale per addestrare i propri modelli. Questi set di dati sembrano un gigantesco foglio di calcolo Excel con una colonna contenente un collegamento a un’immagine su Internet, mentre un’altra ha la didascalia dell’immagine.

Non tutte le società di intelligenza artificiale divulgheranno il set di dati che utilizza, DALL-E ne è un esempio. Ciò rende difficile sapere a cosa si fa riferimento quando genera un’immagine e si aggiunge alla mistica generale dei sistemi di intelligenza artificiale.

D’altra parte, Stable Diffusion, un modello sviluppato da Stability AI, ha chiarito che è stato costruito sul set di dati LAION-5B , che presenta un colossale 5,85 miliardi di coppie immagine-testo filtrate CLIP. Poiché questo set di dati è open-source, chiunque è libero di visualizzare le immagini che indicizza e per questo ha subito pesanti critiche.

All’inizio del 2023, Getty Images ha citato in giudizio Stability AI per aver eliminato le immagini dal suo sito Web per addestrare il suo generatore di immagini AI, Stable Diffusion. Se ti stai chiedendo chi, a sua volta, utilizza Stable Diffusion, sarebbero NightCafe, Midjourney e DreamStudio, alcuni dei più grandi attori del settore.

Come sapere se le tue immagini sono state utilizzate per addestrare un modello AI

Creato da un gruppo di artisti, Spawning è un collettivo il cui scopo è aiutare le persone a scoprire se le loro immagini si trovano su set di dati come LAION-5B, utilizzato per addestrare modelli di intelligenza artificiale. Il loro motore di ricerca web chiamato Have I Been Trained? ti consente di cercare facilmente parole chiave come il nome dell’artista.

Sono stato addestrato?

Sono stato apprendista homepage

Have I Been Trained funziona in modo molto simile a una ricerca di immagini di Google, tranne per il fatto che la tua ricerca è abbinata ai risultati nel set di dati LAION-5B. Hai la possibilità di cercare per parola chiave o per immagine, quest’ultima è utile se vuoi vedere se è stata utilizzata un’immagine esatta.

Risultati della ricerca per Frida Kahlo su Sono stato addestrato?  sito web

Abbiamo usato il nome dell’artista Frida Kahlo (1907-1954) per provarlo e abbiamo trovato un mix di fotografie storiche e quella che sembra fan art sotto forma di scarabocchi, dipinti, punto croce, uncinetto e illustrazioni.

Se sei uno di questi creatori, sei uno dei tanti esseri umani non accreditati la cui creatività ha reso possibile l’esistenza dei generatori di immagini AI. E con quel potere, ora chiunque può creare immagini di Frida come questo bizzarro ritratto di “Frida Kahlo che mangia il gelato”.

Un'immagine generata dall'intelligenza artificiale di Frida Kahlo realizzata con Night Cafe

Prova a digitare il nome dell’artista nella barra di ricerca per vedere se il tuo lavoro è stato utilizzato per addestrare un modello AI.

Come rinunciare ai set di dati di addestramento AI

Lo stesso team dietro il sito Web Have I Been Trained ha creato uno strumento per consentire alle persone di aderire o meno ai sistemi artistici di intelligenza artificiale. È un modo per gli artisti di mantenere il controllo e le autorizzazioni su chi usa la loro arte e per quale scopo.

Altre piattaforme artistiche stanno iniziando a seguire l’esempio e attualmente DeviantArt offre un’opzione per escludere le loro immagini dalla ricerca tramite set di dati di immagini.

Sono stato addestrato: AI Opt-Out Tool

Oltre a poter cercare la tua immagine, puoi anche selezionare le immagini per escludere i dati di formazione LAION-5B utilizzando il sito Have I Been Trained.

Dovrai prima creare un account e, successivamente, fare clic con il pulsante destro del mouse su un’immagine e scegliere Disattiva questa immagine .

Opzione di menu per l'opt-out e immagine utilizzando il sito Sono stato addestrato?

Selezionando questa opzione, l’immagine verrà aggiunta all’elenco di disattivazione a cui puoi accedere facendo clic sul simbolo del tuo account nell’angolo in alto a destra della pagina, quindi selezionando Le mie liste . Per rimuoverlo dall’elenco, fai clic con il pulsante destro del mouse sull’immagine e seleziona Rimuovi dall’elenco Opt-Out .

Visualizzazione della galleria di immagini su un elenco di opt-out di Have I Been Trained

Se sei un artista prolifico, questo metodo è noioso e non adeguato per rinunciare in modo efficiente a tutte le tue immagini. Sfortunatamente, non esiste un’alternativa migliore al momento in cui scriviamo, ma è probabile che in futuro verranno apportati miglioramenti a questo sistema.

Questi elenchi di rinuncia vengono quindi trasmessi alla società dietro LAION-5B, che ha accettato di rimuovere tali immagini dal proprio set di dati.

Preferenza per la disattivazione di DeviantArt

DeviantArt ha finora aperto la strada alle piattaforme di hosting artistico offrendo agli utenti la possibilità di rinunciare alla loro arte. Inizialmente, dovevi trovare la preferenza e selezionare la casella di spunta per la disattivazione. Ma a seguito del forte feedback della community di DeviantArt, questa opzione è ora attivata per impostazione predefinita.

Ciò significa che nessuna immagine pubblicata su DeviantArt viene resa disponibile per i set di dati di immagini, a meno che gli utenti non abbiano aderito. Sebbene non sia del tutto infallibile, il meccanismo che utilizza prevede la segnalazione di un’immagine con un tag HTML “noai”. Questo dice ai set di dati AI che l’immagine non può essere utilizzata e, in tal caso, la società violerà i Termini di servizio di DeviantArt .

Screenshot della preferenza della bandiera noai su DeviantArt

Puoi trovare la preferenza di disattivazione passando il mouse sopra l’icona del tuo account personale e facendo clic su Impostazioni account . Quindi fai clic su Generale dal menu a sinistra e scorri verso il basso fino a visualizzare l’intestazione Dì ai set di dati AI che non possono utilizzare i tuoi contenuti .

Rispettare il lavoro degli artisti

Trovare un buon compromesso tra i sistemi di intelligenza artificiale e gli artisti il ​​cui lavoro aiuta a formarli richiederà tempo. Se sei un creatore, non sentirti impotente. Con forti risposte da parte delle comunità che usano piattaforme artistiche come DeviantArt, puoi avere il controllo su chi usa la tua arte.

Nemmeno tutti vorranno rinunciare, alcune persone non hanno problemi con le loro immagini che addestrano modelli di intelligenza artificiale. Ma la cosa più importante è che le aziende di intelligenza artificiale ottengano il consenso e creino uno spazio equo e rispettoso in cui modelli e artisti di intelligenza artificiale possano coesistere.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *