Brad Smith, presidente di Microsoft, chiede una nuova legislazione contro le frodi Deepfake al Congresso degli Stati Uniti
L’emergere dell’intelligenza artificiale generativa ha portato a un preoccupante aumento dei contenuti digitali “deepfake”, prodotti in modo doloso da attori che mirano a diffondere false informazioni su individui e argomenti online. Questa tendenza solleva notevoli preoccupazioni, soprattutto con le imminenti elezioni presidenziali statunitensi del 2024.
In questo contesto, il Microsoft Threat Analysis Center (MTAC) ha osservato attentamente come gli attori delle minacce sponsorizzati dallo stato provenienti da Russia, Iran e Cina stiano creando siti Web, post sui social media e video fuorvianti per tentare di influenzare le elezioni del 2024. Di recente, la società ha pubblicato un rapporto che indica che gli attori con sede in Russia hanno generato video volti a diffondere disinformazione sulla candidata democratica alla presidenza degli Stati Uniti Kamala Harris e sul candidato alla vicepresidenza Tim Walz.
Oggi, Microsoft ha condiviso la testimonianza scritta del presidente della società Brad Smith sul suo blog , in seguito alla sua apparizione davanti al Comitato per l’intelligence del Senato degli Stati Uniti a Washington DC. L’udienza si è concentrata sulle minacce straniere alle elezioni statunitensi e sugli obblighi delle aziende tecnologiche statunitensi, come Microsoft, di combattere queste minacce.
Nella sua dichiarazione scritta, Smith ha delineato gli sforzi in corso da parte di gruppi sponsorizzati dallo stato per sfruttare l’intelligenza artificiale e la tecnologia deepfake per influenzare le elezioni del 2024. Ha anche invitato il comitato e il Congresso degli Stati Uniti ad adottare misure proattive.
Nella sua testimonianza, Smith ha affermato:
In primo luogo, il Congresso dovrebbe emanare un nuovo statuto federale sulla “frode deepfake”. Dobbiamo fornire ai funzionari delle forze dell’ordine, compresi i procuratori generali degli stati, un quadro giuridico autonomo per perseguire le frodi e le truffe generate dall’intelligenza artificiale, man mano che si moltiplicano in velocità e complessità.
Smith ha inoltre sottolineato che il Congresso dovrebbe imporre a qualsiasi fornitore di sistemi di intelligenza artificiale di etichettare i contenuti generati dall’intelligenza artificiale con “strumenti di provenienza all’avanguardia”. Inoltre, ha sostenuto l’approvazione del Protect Elections from Deceptive AI Act, che è già stato introdotto da un gruppo bipartisan di legislatori statunitensi. Tra le altre disposizioni, questo disegno di legge proibirebbe l’uso dell’intelligenza artificiale nella generazione di contenuti politici per i legislatori federali, con eccezioni per i contenuti satirici o l’uso nelle redazioni.
Lascia un commento