Al centro della faida OpenAI di Altman c’era un documento di ricerca: ecco cosa diceva

Al centro della faida OpenAI di Altman c’era un documento di ricerca: ecco cosa diceva

Questo non è un consiglio di investimento. L’autore non ha alcuna posizione in nessuno dei titoli citati.

Dopo un fine settimana straordinario nella Silicon Valley che ha visto la sua ultima innovazione, l’A.I., posizionarsi al centro della tipica politica dei consigli di amministrazione aziendali, l’ex amministratore delegato di OpenAI Sam Altman è tornato trionfante nella sua azienda. L’attrito di Altman con il consiglio di amministrazione di OpenAI ha causato molto dibattito nei media sociali e tradizionali, con i disaccordi che si ritiene derivino dal divario tra OpenAI e la natura profit/non-profit della sua holding.

Il documento di ricerca At Heart Of Altman’s Ouster ha definito inadeguato l’approccio di “segnalazione” di OpenAI

Signorina. Toner è direttrice del Center for Security and Emerging Technology della Georgetown University e in ottobre ha scritto un caso di studio che trattava di come governi e aziende potrebbero strutturare la propria comunicazione per evitare interpretazioni errate da parte di altri. Il articolo, scritto in collaborazione con altri associati a Georgetown, ha definito gli strumenti di comunicazione chiamati “segnali” che la sicurezza nazionale e l’intelligenza artificiale possono monitorare. gli attori spaziali potrebbero fare affidamento per chiarire le loro intenzioni.

I quattro segnali contenuti nel documento sono vincoli di mano, costi irrecuperabili, costi di rata e costi riducibili. Questi approcci variano dal vincolo di mano, che limita un’azienda tramite politiche o altri annunci da cui sarebbe difficile tornare indietro, ai costi rateali con costi iniziali più elevati (come costosi impegni di conformità) che si riducono nel tempo man mano che i benefici maturano.

Su questo fronte, il documento della signora Toner si è concentrato specificamente sulle azioni di OpenAI relative al lancio del modello GPT-4. OpenAI ha annunciato GPT-4 nel marzo 2023 e, secondo gli autori dell’articolo, sebbene il modello in sé costituisse un notevole risultato tecnologico, la sua rilevanza per la segnalazione è emersa attraverso i suoi documenti supplementari.

Alcuni esempi di segnalazione nel contesto dell'uso dell'intelligenza artificiale evidenziati in un articolo del membro del consiglio di amministrazione di OpenAI
Segnali AI costosi come definiti nel documento. Immagine: esempi di segnali AI/intenzioni di decodifica costosiIntelligenza artificiale e segnali costosi – Andrew Imbrie Owen Daniels Helen Toner (Centro per la sicurezza e le tecnologie emergenti Georgetown University)

Questi documenti includevano una scheda di sistema che spiegava i rischi con GPT-4 e come OpenAI li aveva mitigati mentre si affrettava a lanciare il primo modello GPT-4 sul mercato. Gli autori hanno condiviso la convinzione che si sia rivelato relativamente infruttuoso come strumento di comunicazione per l’impegno di OpenAI a favore della sicurezza.

Il documento spiega:

Sebbene la scheda di sistema stessa sia stata ben accolta dai ricercatori interessati a comprendere il profilo di rischio di GPT-4, sembra aver avuto meno successo come segnale più ampio dell’impegno di OpenAI per la sicurezza. La ragione di questo risultato indesiderato è che la società ha intrapreso altre azioni che hanno messo in ombra l’importazione della carta di sistema: in particolare, il rilascio di successo di ChatGPT quattro mesi prima.

I ricercatori hanno poi confrontato l’approccio di OpenAI con quello utilizzato dal suo concorrente, Anthropic, e dalla sua piattaforma Claude. Hanno lodato la decisione di Anthropic di ritardare il lancio di Claude per fermare “l’avanzamento del tasso di progresso delle capacità dell’intelligenza artificiale” e hanno definito questa decisione come un “costoso segnale di moderazione”.

Come dicono:

Ritardando il rilascio di Claude fino a quando un’altra società non avesse lanciato un prodotto altrettanto capace, Anthropic stava dimostrando la sua volontà di evitare esattamente il tipo di frenetica scorciatoia che il rilascio di ChatGPT sembrava stimolare. Anthropic ha raggiunto questo obiettivo facendo leva sui costi rateali, ovvero sui costi fissi non compensabili nel tempo. Nell’ambito di questo studio, Anthropic ha rafforzato la credibilità dei suoi impegni per la sicurezza dell’intelligenza artificiale trattenendo il suo modello dal rilascio anticipato e assorbendo potenziali future perdite di entrate. La motivazione in questo caso non era quella di recuperare tali perdite guadagnando una quota di mercato più ampia, ma piuttosto di promuovere le norme del settore e contribuire alle aspettative condivise sullo sviluppo e l’implementazione responsabile dell’IA.

Il rapportodel NYT rivela che Altman non era soddisfatto di Holt dopo la pubblicazione del documento e che ha condiviso le sue preoccupazioni con i dipendenti di OpenAI tramite un’email. Inoltre, subito dopo si è verificato uno sviluppo piuttosto interessante, con il capo della ricerca di OpenAI, Ilya Sutsekver, che inizialmente ha discusso se estromettere Toner dal consiglio. Tuttavia, sorprendentemente, scelse invece di agire contro Altman, una decisione di cui si sarebbe pentito nel giro di pochi giorni.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *