Un nuovo rapporto afferma che Google si sta affrettando a eliminare Bard e altri prodotti di intelligenza artificiale con scarse protezioni etiche

Un nuovo rapporto afferma che Google si sta affrettando a eliminare Bard e altri prodotti di intelligenza artificiale con scarse protezioni etiche

Domenica, CBS News ha dedicato la maggior parte del suo ultimo episodio di 60 minuti a esaminare gli sforzi di Google nella tecnologia AI . Ciò includeva una chiacchierata con il CEO dell’azienda Sundar Pichai, che ha affermato che c’era un urgente bisogno di regolamenti per l’uso dell’IA .

Tuttavia, un nuovo rapporto di Bloomberg afferma che Google ha lanciato rapidamente nuovi prodotti di intelligenza artificiale come Bard con pochi sforzi per inserire barriere etiche per le sue informazioni. Secondo quanto riferito, la società è stata minacciata dall’improvvisa ascesa di ChatGPT e il team di etica dell’IA di Google è stato presumibilmente ignorato quando ha deciso di abbandonare Bard.

L’articolo afferma:

Il gruppo che lavora sull’etica che Google si è impegnato a rafforzare è ora privo di potere e demoralizzato, hanno affermato i lavoratori attuali ed ex. Ai membri dello staff responsabili della sicurezza e delle implicazioni etiche dei nuovi prodotti è stato detto di non intromettersi o di cercare di uccidere nessuno degli strumenti di intelligenza artificiale generativa in fase di sviluppo, hanno affermato.

L’articolo afferma che prima che Bard fosse lanciato al grande pubblico, ai dipendenti di Google è stato chiesto di testarlo. Alcune delle loro risposte sono state molto critiche:

La conclusione di un lavoratore: Bard era “un bugiardo patologico”, secondo gli screenshot della discussione interna. Un altro lo ha definito “degno di rabbia”. Un dipendente ha scritto che quando chiedevano suggerimenti a Bard su come far atterrare un aereo, forniva regolarmente consigli che avrebbero portato a un incidente; un altro ha affermato di aver fornito risposte sulle immersioni subacquee “che probabilmente provocherebbero lesioni gravi o morte”.

Alla fine, Google ha lanciato Bard come un “esperimento”, dicendo agli utenti che poteva commettere errori nelle risposte. Tuttavia, mostra anche che l’intelligenza artificiale ha ancora molta strada da fare prima di offrire risposte veritiere. Un portavoce di Google ha risposto alla richiesta di commento di Bloomberg, affermando: “Stiamo continuando a investire nei team che lavorano per applicare i nostri principi di intelligenza artificiale alla nostra tecnologia”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *