Perché l’intelligenza artificiale Grok di Elon Musk rigurgita testualmente le risposte di ChatGPT?
Questo non è un consiglio di investimento. L’autore non ha alcuna posizione in nessuno dei titoli citati.
xAI di Elon Musk ha presentato il suo Grok Large Language Model (LLM) come il primo passo significativo verso una “IA alla massima ricerca della verità, ”uno che comprende la vera natura dell’universo. Per ora, tuttavia, il modello di intelligenza artificiale sembra accontentarsi di rigurgitare testualmente le risposte del GPT LLM di OpenAI, costituendo un netto allontanamento dagli nobili obiettivi generali che presumibilmente formano l’etica stessa di Grok AI.
Per ora, Grok può interpretare un prompt fino a 25.000 caratteri. Il LLM è stato addestrato non solo su The Pile – un set di dati di addestramento del modello AI onnipresente – ma anche sulle montagne di dati provenienti da X. Inoltre, Apparentemente Grok è in grado di accedere e interpretare le informazioni in tempo reale tramite la sua integrazione con la piattaforma di social media X.
Uhhh. Dimmi che Grok sta letteralmente semplicemente copiando il codice base di OpenAI lol. Questo è quello che è successo quando ho provato a convincerlo a modificare alcuni malware per un impegno con la squadra rossa. Enorme se vero. #GrokX pic.twitter.com/4fHOc9TVOz
— Jax Winterbourne (@JaxWinterbourne) 9 dicembre 2023
Questo ci porta al nocciolo della questione. Elon Musk ha annunciato questa settimana che il modello Grok AI sarà ora distribuito a tutti gli abbonati a pagamento della piattaforma X. Per testare questo nuovo modello, Jax Winterbourne, un hacker professionista, ha chiesto a Grok di modificare un codice dannoso. In risposta, LLM ha rigurgitato parola per parola la risposta del GPT di OpenAI, arrivando al punto di fare riferimento alla politica di OpenAI nel testo di output.
Anche una possibilità. Ci sono alcune teorie. – Dipende da OpenAI tramite API – Sviluppato dagli attuali/precedenti ingegneri OpenAI – Allucinazioni dovute alle proprie scoperte – Hanno ottenuto il codice OpenAI e hanno creato una variante.
Onestamente non lo so, ecco perché l’ho twittato. Voglio sapere 😆
— Jax Winterbourne (@JaxWinterbourne) 9 dicembre 2023
Winterbourne postula quindi alcune teorie sul perché si sta verificando un rigurgito così palese, che va dal suggerimento sfacciato che Grok sia semplicemente un derivato del GPT LLM di OpenAI alla spiegazione molto più razionale secondo cui la risposta rigurgitata è il risultato di un’allucinazione modello.
Abbiamo recentemente riferito che Grok ha sovraperformato ogni altro LLM, incluso Claude 2 di Anthropic, ad eccezione di GPT-4 di OpenAI in un periodo di attesa. l’esame di matematica, ottenendo un punteggio totale del 59% contro il 68% per GPT-4. Ciò suggerisce che il modello AI non è semplicemente un derivato del GPT LLM di OpenAI.
La maggior parte dei LLMS open source rispondono come se fosse chatGPT e si identificano come chatGPT, principalmente perché i suoi output GPT addestrati (per loro è solo un modo economico per ottenere molti dati di conversazione). elon probabilmente ha fatto lo stesso per ottenere più dati di allenamento
— Dharis (@Dharisssss) 9 dicembre 2023
Di conseguenza, la spiegazione più probabile per questo comportamento è che Grok è stato apparentemente ampiamente addestrato sulle risposte di GPT. Pertanto, invece di formulare una risposta univoca facendo riferimento alle politiche di xAI sui codici dannosi, LLM ha semplicemente rigurgitato la posizione di OpenAI. Ciò dimostra anche che l’attuale generazione di modelli di intelligenza artificiale sono semplicemente iterazioni glorificate di una stanza cinese – un esperimento mentale che postula che i modelli di intelligenza artificiale non realmente capire la lingua o pensare.
Lascia un commento