Perché l’intelligenza artificiale Grok di Elon Musk rigurgita testualmente le risposte di ChatGPT?

Perché l’intelligenza artificiale Grok di Elon Musk rigurgita testualmente le risposte di ChatGPT?

Questo non è un consiglio di investimento. L’autore non ha alcuna posizione in nessuno dei titoli citati.

xAI di Elon Musk ha presentato il suo Grok Large Language Model (LLM) come il primo passo significativo verso una “IA alla massima ricerca della verità, ”uno che comprende la vera natura dell’universo. Per ora, tuttavia, il modello di intelligenza artificiale sembra accontentarsi di rigurgitare testualmente le risposte del GPT LLM di OpenAI, costituendo un netto allontanamento dagli nobili obiettivi generali che presumibilmente formano l’etica stessa di Grok AI.

Per ora, Grok può interpretare un prompt fino a 25.000 caratteri. Il LLM è stato addestrato non solo su The Pile – un set di dati di addestramento del modello AI onnipresente – ma anche sulle montagne di dati provenienti da X. Inoltre, Apparentemente Grok è in grado di accedere e interpretare le informazioni in tempo reale tramite la sua integrazione con la piattaforma di social media X.

Questo ci porta al nocciolo della questione. Elon Musk ha annunciato questa settimana che il modello Grok AI sarà ora distribuito a tutti gli abbonati a pagamento della piattaforma X. Per testare questo nuovo modello, Jax Winterbourne, un hacker professionista, ha chiesto a Grok di modificare un codice dannoso. In risposta, LLM ha rigurgitato parola per parola la risposta del GPT di OpenAI, arrivando al punto di fare riferimento alla politica di OpenAI nel testo di output.

Winterbourne postula quindi alcune teorie sul perché si sta verificando un rigurgito così palese, che va dal suggerimento sfacciato che Grok sia semplicemente un derivato del GPT LLM di OpenAI alla spiegazione molto più razionale secondo cui la risposta rigurgitata è il risultato di un’allucinazione modello.

Abbiamo recentemente riferito che Grok ha sovraperformato ogni altro LLM, incluso Claude 2 di Anthropic, ad eccezione di GPT-4 di OpenAI in un periodo di attesa. l’esame di matematica, ottenendo un punteggio totale del 59% contro il 68% per GPT-4. Ciò suggerisce che il modello AI non è semplicemente un derivato del GPT LLM di OpenAI.

Di conseguenza, la spiegazione più probabile per questo comportamento è che Grok è stato apparentemente ampiamente addestrato sulle risposte di GPT. Pertanto, invece di formulare una risposta univoca facendo riferimento alle politiche di xAI sui codici dannosi, LLM ha semplicemente rigurgitato la posizione di OpenAI. Ciò dimostra anche che l’attuale generazione di modelli di intelligenza artificiale sono semplicemente iterazioni glorificate di una stanza cinese – un esperimento mentale che postula che i modelli di intelligenza artificiale non realmente capire la lingua o pensare.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *