Il licenziamento di Sam Altman potrebbe essere dovuto a una svolta dell’intelligenza artificiale che minaccia l’umanità
Il dramma durato cinque giorni, che ha mostrato il licenziamento del CEO di OpenAI Sam Altman e il successivo reinserimento lui come amministratore delegato dell’azienda, è solo un altro esempio di quanto possa essere in tilt il regno della Silicon Valley. Tuttavia, il licenziamento di Altman non è dovuto al suo atteggiamento ribelle nei confronti del consiglio, ma a una scoperta rivoluzionaria dell’intelligenza artificiale da parte dei ricercatori OpenAI che potrebbe essere potenzialmente pericolosa per l’umanità.
Diversi ricercatori dello staff di OpenAI hanno scritto una lettera al consiglio, informandoli dei pericoli che questa svolta nell’intelligenza artificiale comporta, che alla fine ha portato al licenziamento di Sam Altman
Supponendo che l’intelligenza artificiale venga lasciata senza controllo o senza regolamentazione, ciò potrebbe portare a risultati deleteri, e questo è ciò di cui Reuters aveva riferito quando fonti vicine alla questione avevano detto alla pubblicazione che il consiglio era sempre più preoccupato di come l’intelligenza artificiale stava avanzando e di come Sam Altman potrebbe non farlo. sono stati a conoscenza delle conseguenze. Un messaggio interno si riferiva al progetto come “Q*” o Q-star, sottolineando che potrebbe rappresentare una svolta nella ricerca della startup AI per la creazione di intelligenza generale artificiale (AGI).
OpenAI ritiene che l’AGI potrebbe superare gli esseri umani nella maggior parte dei compiti, il che la rende anche altamente pericolosa, poiché può limitare le opzioni su ciò che la popolazione globale può fare per ottenere mezzi di sussistenza, sebbene le conseguenze possano raggiungere una scala completamente nuova. Date le risorse quasi illimitate, il nuovo modello AGI è stato in grado di risolvere alcuni problemi di matematica e, sebbene questi problemi fossero l’equivalente degli studenti di livello elementare, superarli ha reso i ricercatori di OpenAI molto ottimisti riguardo al futuro di Q*.
Attualmente, l’intelligenza artificiale non è in grado di risolvere problemi di matematica in modo affidabile, ed è qui che entra in gioco il vantaggio dell’AGI. Il rapporto afferma inoltre che i ricercatori ritengono che nella risoluzione dei problemi di matematica ci sia solo una risposta corretta e che, se l’intelligenza artificiale può superare questo ostacolo, è considerata una soluzione. traguardo enorme. Una volta che l’intelligenza artificiale sarà in grado di risolvere in modo coerente i problemi di matematica, potrà prendere decisioni che assomigliano all’intelligenza umana e allo stesso tempo lavorare sulla ricerca scientifica.
Ci sono state infinite discussioni su come l’intelligenza artificiale possa portare alla distruzione dell’umanità, e anche i media rilasciati in passato descrivono i pericoli quando gli esseri umani non procedono con cautela. Con tutto il dramma che OpenAI, Sam Altman e innumerevoli altri hanno vissuto in questi ultimi giorni, sembra che tutti loro debbano prendere presto una pausa e inventare discorsi significativi su come portare avanti questo nuovo modello senza il rischi sopra menzionati.
Fonte notizie: Reuters
Lascia un commento