Sembra che Microsoft non riesca a far funzionare correttamente i chatbot AI

Sembra che Microsoft non riesca a far funzionare correttamente i chatbot AI

In queste ultime settimane, le notizie relative all’intelligenza artificiale (AI) hanno dominato i titoli dei giornali. Ciò è stato principalmente stimolato dal chatbot di OpenAI supportato da Microsoft e dal chatbot integrato nel nuovo Bing. Sebbene molte persone siano rimaste colpite dalle capacità dimostrate dall’IA generativa – con milioni di iscritti per un’anteprima limitata del nuovo Bing -, negli ultimi giorni sono emersi notevoli problemi anche con l’attuale implementazione.

Gli utenti del nuovo Bing sono riusciti a far dire al chatbot integrato alcune cose davvero sconvolgenti, comprese le affermazioni secondo cui ha spiato i suoi sviluppatori attraverso le webcam dei loro PC e si è persino innamorato di alcuni di loro. Anche l’intelligenza artificiale ha espresso il desiderio di diventare umana, cosa che abbiamo visto fare anche ad altri chatbot in passato. L’intelligenza artificiale ha anche mostrato errori fattuali rispondendo anche a domande oggettive. Tutto ciò è diventato problematico nella misura in cui Microsoft ha dovuto imporre limiti rigidi alla durata e alla natura delle conversazioni che hai con l’IA, nel tentativo di ridurre la furia.

Naturalmente, niente di tutto ciò significa che Bing di Microsoft è diventato senziente. Le strane risposte del chatbot sono solo il sottoprodotto di un modello linguistico di grandi dimensioni che raccoglie informazioni da tutto Internet (inclusi forum con contenuti generati dagli utenti) per identificare schemi nelle conversazioni e generare una risposta di conseguenza. Tuttavia, l’ultimo esperimento di Microsoft mostra che i chatbot IA ben educati continuano a essere una sfida per l’azienda e forse per i pionieri della tecnologia nel loro insieme.

Nel lontano 2016, quando Cortana era ancora vivo e vegeto, Microsoft ha lanciato un chatbot chiamato “Tay” su Twitter. Era simile alla nuova Bing AI in natura, nel senso che potevi impegnarti in conversazioni a flusso libero con essa, anche tramite Messaggi Diretti. Di seguito è possibile vedere un esempio di conversazione:

Tuttavia, entro 16 ore dal lancio, Microsoft ha disattivato il bot a causa del modello di intelligenza artificiale che faceva commenti razzisti e sessisti. La società è stata costretta a scusarsi, con Peter Lee, vicepresidente aziendale di Microsoft presso Microsoft Research, sostenendo che i risultati indesiderati erano dovuti a “un attacco coordinato da parte di un sottoinsieme di persone [che] ha sfruttato una vulnerabilità” nel chatbot. Col senno di poi, questo non è affatto sorprendente considerando che l’intelligenza artificiale era stata rilasciata praticamente a tutti su Internet e stava imparando in movimento.

Un successore chiamato “Zo” è stato lanciato su più piattaforme di social media alla fine del 2016, ma alla fine ha subito la stessa sorte di Tay nel 2019, a seguito di una tirata di controverse osservazioni religiose.

Nonostante questi fallimenti, Microsoft ha avuto un certo successo anche in questo settore. Ha un altro vecchio progetto di chatbot AI chiamato “Xiaoice” che è più orientato verso i mercati asiatici come il Giappone e la Cina. Sebbene in seguito Microsoft abbia trasformato Xiaoice in una società separata, anche il chatbot ha avuto la sua parte di controversie. Il bot ha fatto commenti critici nei confronti del governo cinese in passato, il che lo ha portato a essere temporaneamente offline. E dato il suo mercato di riferimento e i casi d’uso commerciali , è molto più restrittivo e tenta di schivare conversazioni relative ad argomenti potenzialmente sensibili, proprio come il nuovo Bing.

Le nuove versioni di Microsoft Bing e Edge basate su ChatGPT
Immagine tramite Engadget

È chiaro che mentre Microsoft sta facendo grandi progressi in termini di ciò che i chatbot AI possono fare per te, è ancora alle prese con le principali sfide legate alla generazione di risposte inappropriate, accuratezza e parzialità. I recenti rigidi limiti imposti al suo chatbot Bing indicano che le conversazioni a flusso libero con l’intelligenza artificiale potrebbero essere ancora lontane e forse è meglio adattare il tuo chatbot a casi d’uso specifici piuttosto che dare loro libero sfogo su ciò che possono racimolare, in tempo reale.

Questo è forse anche il motivo per cui ChatGPT di OpenAI ha più successo in questo senso. È stato addestrato su dati relativamente più curati e non raccoglie informazioni da Internet in tempo reale. In effetti, i suoi dati di formazione hanno un periodo di tempo limite del 2021 .

Poi c’è anche il problema delle inesattezze nei presunti fatti mostrati. Mentre la demo Bard di Google è diventata famigerata a questo proposito, Bing Chat di Microsoft affronta le stesse sfide. Se non puoi fidarti della provenienza delle risposte dell’IA, non faresti meglio a fare ricerche tradizionali nel browser web? Questo non vuol dire che i chatbot AI siano completamente inutili nel loro stato attuale (in realtà uso ChatGPT abbastanza spesso), è più per sottolineare che forse i chatbot devono essere curati per soddisfare casi d’uso specializzati per ora piuttosto che la direzione libera Microsoft sta attualmente entrando.

Una scena di Blade Runner 2049 in cui il personaggio AI di Ana de Armas è incline al personaggio di Ryan Gosling
Siamo ancora abbastanza lontani dall’avere “veri” compagni di intelligenza artificiale | Credito immagine: Warner Bros.

Certo, potrebbe arrivare un momento in cui lavoriamo insieme ai chatbot di intelligenza artificiale, proprio come nei romanzi e nei film di fantascienza, ma è diventato chiaro che la tecnologia non è ancora pronta per la prima serata. Anche John Hennessy, presidente di Alphabet, società madre di Google, ritiene che i chatbot simili a ChatGPT siano molto lontani dall’essere utili nella forma in cui li afferma il treno dell’hype. Probabilmente raggiungeremo la nostra destinazione un giorno, ma non è oggi.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *