Microsoft, Google, OpenAI, Meta, Amazon, X e altri si impegnano a combattere i deepfake elettorali basati sull’intelligenza artificiale

Microsoft, Google, OpenAI, Meta, Amazon, X e altri si impegnano a combattere i deepfake elettorali basati sull’intelligenza artificiale

C’è stata sempre più attenzione sull’uso di app e servizi di intelligenza artificiale generativa per creare immagini e informazioni deepfake. Ciò è certamente arrivato al culmine qualche settimana fa con le immagini create dall’intelligenza artificiale del cantante pop Taylor Swift che hanno inondato il social network X. Alcuni rapporti affermano che le immagini sono state realizzate dal generatore di immagini AI di Microsoft Designer .

Poiché il 2024 è anche un anno elettorale per la carica di Presidente degli Stati Uniti, c’è ancora più preoccupazione che le immagini deepfake dell’intelligenza artificiale possano essere utilizzate per influenzare negativamente i voti in quelle elezioni così come in altre. Oggi, un gran numero di aziende tecnologiche hanno annunciato che rispetteranno un nuovo accordo che prevede che utilizzeranno le proprie risorse per combattere l’uso dell’intelligenza artificiale negli ingannevoli tentativi elettorali.

L’accordo, annunciato alla Conferenza sulla sicurezza di Monaco, si chiama Accordo elettorale AI . Le aziende che hanno aderito a questo accordo, in questo momento, sono:

  • Adobe
  • Amazzonia
  • Antropico
  • Braccio
  • UndiciLabs
  • Google
  • IBM
  • Inflessione dell’intelligenza artificiale
  • LinkedIn
  • McAfee
  • Meta
  • Microsoft
  • Utilizzo
  • OpenAI
  • Snap Inc.
  • Stabilità dell’intelligenza artificiale
  • Tic toc
  • TrendMicro
  • Truepic
  • X

Il comunicato stampa (in formato PDF) che annuncia l’accordo afferma che le società di cui sopra hanno accettato di seguire questi impegni nella lotta contro i tentativi elettorali deepfake:

  • Sviluppo e implementazione di tecnologie per mitigare i rischi legati ai contenuti elettorali ingannevoli dell’intelligenza artificiale, inclusi strumenti open source, ove appropriato
  • Valutare i modelli nell’ambito di questo accordo per comprendere i rischi che potrebbero presentare in merito ai contenuti elettorali ingannevoli dell’intelligenza artificiale
  • Cercando di rilevare la distribuzione di questi contenuti sulle loro piattaforme
  • Cercando di affrontare in modo appropriato questo contenuto rilevato sulle loro piattaforme
  • Promuovere la resilienza intersettoriale ai contenuti elettorali ingannevoli dell’intelligenza artificiale
  • Fornire trasparenza al pubblico su come l’azienda affronta la questione
  • Continuando a impegnarsi con un insieme diversificato di organizzazioni globali della società civile e del mondo accademico
  • Sostenere gli sforzi volti a promuovere la consapevolezza pubblica, l’alfabetizzazione mediatica e la resilienza di tutta la società

Il presidente di Microsoft Brad Smith era tra i dirigenti dell’azienda citati nel comunicato stampa. Ha dichiarato:

Mentre la società abbraccia i vantaggi dell’intelligenza artificiale, abbiamo la responsabilità di contribuire a garantire che questi strumenti non diventino un’arma nelle elezioni. L’intelligenza artificiale non ha creato l’inganno elettorale, ma dobbiamo garantire che non aiuti lo sviluppo dell’inganno.

Un esempio di deepfake elettorale si è verificato qualche settimana fa, quando le chiamate robotizzate con la voce generata dall’intelligenza artificiale del presidente degli Stati Uniti Joe Biden invitavano gli utenti a non votare alle primarie del New Hampshire. Successivamente si scoprì che le chiamate erano state create da una società con sede in Texas .

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *