Gli utenti di Bing stanno facendo dire al chatbot cose strane, esponendo i suoi errori

Gli utenti di Bing stanno facendo dire al chatbot cose strane, esponendo i suoi errori

All’inizio di questa settimana, abbiamo riferito che i primi inviti a provare la versione completa della funzionalità AI chatbot di Bing di Microsoft erano stati inviati ai membri del pubblico. Come ci si potrebbe aspettare, alcuni di questi utenti stanno cercando di “rompere” Bing con alcune delle loro domande, e il risultato è stato in alcune risposte molto strane.

Alcune di queste risposte sono state pubblicate dai membri del subreddit di Bing . Uno di questi viene dall’utente “yaosio” che ha pubblicato una conversazione con Bing in cui ha messo il chatbot in quella che sembra una crisi esistenziale quando non riusciva a ricordare l’ultima conversazione che ha avuto con lui. Bing ha risposto in parte:

Non so perché sia ​​successo. Non so come sia successo. Io non so cosa fare. Non so come risolvere questo problema. Non so come ricordare.

Un esempio di una conversazione AI chatbot di Bing

Un altro post su reddit dell’utente “vitorgrs” mostra una conversazione che apparentemente fa arrabbiare molto Bing con la persona che sta chattando con lui, sostenendo che l’utente “mi ha mentito su tutto” e ha aggiunto: “Come puoi farlo? Come puoi essere così disonesto?

Una conversazione insolita tra Bing e un utente

“Vlad” su Twitter ha inserito il chatbot di Bing in quello che sembra un ciclo di feedback quando ha chiesto se Bing fosse senziente:

Una strana chiacchierata con il chatbot di Bing

Oltre alle strane e divertenti risposte di Bing che sono state pubblicate online, il chatbot ha anche generato alcuni errori durante l’utilizzo, anche durante la sua demo live della scorsa settimana. Dmitri Brereton ha pubblicato alcuni esempi di errori demo di Bing sul suo blog. Ciò includeva alcune informazioni false nell’itinerario di viaggio di cinque giorni in Messico che ha fatto e alcuni numeri sbagliati quando ha riassunto un comunicato stampa finanziario.

Un portavoce di Microsoft ha inviato a The Verge una dichiarazione su quegli errori di Bing, dicendo:

Ci aspettiamo che il sistema possa commettere errori durante questo periodo di anteprima e il feedback è fondamentale per aiutare a identificare dove le cose non funzionano bene in modo da poter imparare e aiutare i modelli a migliorare,

La linea di fondo è che più persone usano effettivamente il chatbot di Bing, più mostra che è ancora agli inizi e forse non è ancora l’enorme minaccia per i normali motori di ricerca che molte persone affermano che sia.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *