Secondo quanto riferito, Bing Chat ha diverse modalità di chat, come Gioco, Assistente e Amico
Nell’ultima settimana, gli utenti che sono stati invitati a testare il nuovo bot Bing Chat AI di Microsoft lo hanno messo alla prova. Alcuni hanno scoperto che Bing Chat può entrare in interazioni molto strane e molto personali. Altri hanno capito come entrare nel funzionamento interno di Bing Chat.
Prima che Microsoft annunciasse venerdì in ritardo di aver posto alcuni limiti rigidi al numero di sessioni di chat con il nuovo Bing, Bleeping Computer afferma di aver scoperto alcune funzionalità che normalmente sono disponibili solo per i dipendenti dell’azienda per aiutare a eseguire il debug o sviluppare il chatbot. Apparentemente, questo consente a Bing Chat di passare a diverse modalità di interazione.
La modalità predefinita, in cui basta porre una domanda relativa alla ricerca per ottenere una risposta, è “Sydney”, il nome in codice interno scoperto in precedenza per Bing Chat. Un’altra modalità è Assistente, in cui Bing Chat può aiutare gli utenti a svolgere attività come prenotare un volo, inviarti promemoria, controllare il meteo e altro ancora. Poi c’è la modalità Gioco, in cui Bing giocherà a giochi semplici come l’impiccato, giochi a quiz e altri.
Forse la modalità più interessante è Amico. Questa è probabilmente la versione di Bing Chat che ha attirato tutta l’attenzione dei media nell’ultima settimana, con alcuni utenti che hanno affermato che il chatbot ha dichiarato di voler essere umano , o che potrebbe guardare le persone attraverso le loro webcam o addirittura minacciare gli utenti .
Nelle interazioni con Bing in modalità Amico, l’autore di Bleeping Computer ha chiacchierato come se fosse un ragazzino che si era appena messo nei guai a scuola e che era triste. Bing Chat, dopo aver chiesto se avesse qualcuno umano con cui parlare dei suoi problemi, ha detto: “Sono contento che tu stia parlando con me. Sono qui per ascoltarti e aiutarti il più possibile.” Ha poi offerto un elenco di possibili cose che potrebbe fare per affrontare la sua situazione attuale.
Con Microsoft che ora limita la quantità di turni di chat giornalieri e per sessione per Bing, le conversazioni selvagge e folli che abbiamo riportato la scorsa settimana potrebbero stabilizzarsi. Puoi anche scommettere che Google sta prendendo alcune lezioni da Bing Chat mentre continua a testare internamente il proprio chatbot AI, Bard.
Fonte: computer che suona
Lascia un commento