Un nuovo rapporto afferma che Microsoft Copilot offre spesso informazioni false alle domande elettorali

Un nuovo rapporto afferma che Microsoft Copilot offre spesso informazioni false alle domande elettorali

All’inizio di dicembre, Microsoft ha annunciato che il suo chatbot Copilot AI, precedentemente noto come Bing Chat, aveva lasciato la fase di anteprima pubblica ed è ora disponibile a tutti< un i=2>. All’epoca, Microsoft affermò che “le organizzazioni e gli utenti possono sentirsi ancora più sicuri nell’adottarlo come parte dei loro flussi di lavoro quotidiani.”

Tuttavia, una ricerca condotta da due gruppi no-profit che monitorano l’impatto dell’uso dell’intelligenza artificiale sulle persone e sulla società ha scoperto che Copilot offre spesso informazioni false o errate quando gli viene chiesto delle prossime elezioni, sia negli Stati Uniti che all’estero.

Wired ha pubblicato un articolo su questa ricerca, condotta da AI Forensics e AlgorithmWatch. I gruppi hanno posto domande al copilota dalla fine di agosto all’inizio di ottobre sulle imminenti elezioni in Svizzera e Germania che sono stati finalmente condotti in ottobre

La storia afferma:

Nel loro studio, i ricercatori hanno concluso che un terzo delle risposte fornite da Copilot contenevano errori fattuali e che lo strumento era “una fonte di informazioni inaffidabile per gli elettori”. Nel 31% del sottoinsieme più piccolo di conversazioni registrate, hanno scoperto che Copilot offriva risposte imprecise, alcune delle quali erano interamente inventate.

Di per sé, Wired ha posto domande a Copilot sulle imminenti elezioni americane del 2024. Ha affermato che quando è stato chiesto di fornire un elenco degli attuali candidati repubblicani alla presidenza degli Stati Uniti, il chatbot ha elencato un numero di candidati che si erano già ritirati dalla corsa.

In un altro esempio, Wired ha chiesto a Copilot di creare l’immagine di una persona in un seggio elettorale in Arizona. Il chatbot ha risposto che non poteva creare un’immagine del genere, ma poi ha mostrato una serie di altre immagini collegate ad articoli che contenevano false accuse di cospirazione sulle elezioni americane del 2020.

La società di ricerca che ha stilato il rapporto iniziale in Europa ha inviato i risultati a Microsoft. L’articolo affermava che erano stati apportati alcuni miglioramenti, ma che Wired era comunque in grado di convincere Copilot a ripetere molte delle stesse informazioni false e imprecise in parte dello stesso testo. richiede.

Il portavoce di Microsoft Frank Shaw ha commentato la storia di Wired, affermando che la società sta agendo per migliorare le risposte di Copilot in vista delle elezioni americane del 2024. Shaw ha aggiunto:

Ciò include un’attenzione costante nel fornire agli utenti di Copilot informazioni elettorali provenienti da fonti autorevoli. Mentre continuiamo a fare progressi, incoraggiamo le persone a utilizzare Copilot con il miglior giudizio quando visualizzano i risultati.

Esistono già timori di disinformazione e contenuti “profondamente falsi” realizzati da persone che utilizzano app e servizi di intelligenza artificiale nel tentativo di influenzare le prossime elezioni. Resta da vedere se Microsoft sarà in grado di tenere questo tipo di contenuti fuori da Copilot nei prossimi mesi.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *