Google supera DALL-E con l’immagine

Google supera DALL-E con l’immagine
Il mondo dell’intelligenza artificiale mira a lasciarci a bocca aperta ogni tanto da diversi anni, e la verità è che ci riescono. Da aziende specifiche del settore come OpenAI a grandi aziende tecnologiche come Google, in questo periodo abbiamo visto come l’intelligenza artificiale ha imparato a fare di tutto, dalla scrittura di testo su un argomento specifico che indichiamo al ridimensionamento delle immagini di gioco nella vita reale. scala. tempo per migliorare l’esperienza di gioco.

Un ambito molto interessante di questa evoluzione dell’intelligenza artificiale si può trovare nella generazione di immagini, in alcuni casi puramente casuali, in altri sulla base di una descrizione fornita in precedenza dall’utente. E in quest’ultimo gruppo, possiamo trovare soluzioni specializzate per un certo tipo di immagini, come GauGAN2 di NVIDIA o il popolare generatore di volti di Google, oltre a soluzioni generiche.

Tra questi ultimi, finora la medaglia d’oro è stata coerente con il sistema OpenAI DALL-E, ma questo è cambiato con la presentazione di Image, un nuovo sistema sviluppato da Google per creare immagini da descrizioni testuali. E sta nel fatto che, come vediamo nella pagina di presentazione del progetto , alcune delle immagini generate da questa intelligenza artificiale possono benissimo passare per reali, salvo che almeno alcune di esse riproducono motivi non del tutto realistici.

Tuttavia, è importante notare che, come sempre in questi casi, Google selezionerà i migliori risultati ottenuti, ma possiamo presumere che ci siano stati anche risultati poco efficaci. Inoltre, questo è qualcosa che non saremo in grado di testare, almeno a breve termine, poiché Google ha deciso che, almeno per ora, non renderà l’immagine disponibile a potenziali utenti/clienti.

In questo esempio, puoi vedere che il risultato dell’immagine non è sempre perfetto.

Ci sono due ragioni per questo. In primo luogo, l’azienda è preoccupata per il potenziale uso dannoso dell’immagine, dalle notizie false a contenuti sessuali illegali come CSAM. Google in questa materia sta agendo con grande buon senso, poiché possiamo essere certi che tale utilizzo avverrà. quasi dal primo momento in cui questa tecnologia è diventata disponibile per tutti.

L’altro, e anche questo ha molto senso, è che, come nel caso di quasi tutti gli enormi set di dati utilizzati per alimentare i processi di apprendimento dell’IA, potremmo trovare alcuni pregiudizi che devono essere corretti. Il problema è che analizzare in dettaglio questi set di dati è un compito complesso a cui anche le aziende delle dimensioni di Google impallidiscono in confronto. Quindi, invece di avvicinarsi in questo modo, l’approccio è rendere l’IA stessa in grado di conoscere questi pregiudizi per correggerli automaticamente.

Personalmente, ammetto che non sono sicuro se lo trovo eccitante o intimidatorio, quindi probabilmente sono entrambe le cose.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *