Che cos’è LaMDA AI di Google e perché gli ingegneri di Google pensano che abbia senso?
L’ingegnere senior di Google ha affermato che l’intelligenza artificiale di LaMDA è diventata intelligente. Che la trovi inquietante o eccitante, questa è un’affermazione molto audace e forse difficile da dimostrare, anche se fosse completamente vera.
Cos’è LAMD?
LaMDA è l’abbreviazione di Language Model for Dialog Application. In altre parole, è un modello linguistico di apprendimento automatico progettato specificamente per creare un dialogo naturale. Le tecniche di apprendimento automatico consentono ai computer di scoprire schemi e relazioni nei dati. Quindi, ad esempio, puoi “addestrare” un algoritmo di apprendimento automatico come GPT-3 (un altro sistema avanzato) su tutte le opere di Shakespeare e quindi farlo generare nuovi testi originali che leggono come Shakespeare.
Come spiega Sundar Pichai (CEO di Google) in un’intervista a Yahoo Finance , LaMDA è un sistema che ha la particolarità di essere specificamente formato al dialogo. L’obiettivo è consentire ai sistemi Google di impegnarsi in un dialogo umano aperto con gli utenti.
In altre parole, le persone che chiedono prodotti Google per determinate cose non dovrebbero cambiare il loro modo di pensare o parlare. Possono interagire con un sistema informatico allo stesso modo di un’altra persona.
Sotto il cofano, tutti i moderni modelli di machine learning sono modelli matematici e statistici complessi. Generano algoritmi basati sui modelli sottostanti che trovano nei dati. Fornisci loro dati di alta qualità sufficienti e questi algoritmi diventeranno notevolmente efficienti nel fare cose che solo gli esseri umani o altri esseri senzienti sono stati in grado di fare fino ad ora.
Perché un ingegnere di Google pensa che LaMDA sia ragionevole?
L’ingegnere in questione è Blake Lemoine, che ha pubblicato un’intervista tra lui e LaMDA come parte della sua argomentazione sul motivo per cui LaMDA potrebbe essere ragionevole. Lemoine ha trascorso mesi parlando con il software, interrogandolo, ponendogli domande difficili e trovando difficile credere che le sue risposte complesse e adeguate potessero essere il prodotto di qualcosa di diverso da un essere senziente.
Sarebbe meglio se chiunque volesse capire perché Lemoine la pensa in questo modo leggesse le risposte di LaMDA per capire perché questa è una posizione così convincente. Le risposte di LaMDA sono così umane da assomigliare all’intelligenza artificiale immaginaria dell’assistente personale di Spike Jonze’s Her , una storia in cui un essere umano sviluppa una relazione seria con un’IA conversazionale.
Indipendentemente dal fatto che le affermazioni di Lemoine su LaMDA abbiano un peso, vale la pena notare che l’intero scopo del design di LaMDA è creare un dialogo aperto naturale e credibile. Quindi, in questo senso, la sua convinzione indica che Google ha avuto un notevole successo nel creare dialoghi credibili. Se un sistema di intelligenza artificiale convincesse una persona che è intelligente, molto probabilmente sarà un sistema appositamente progettato per questo.
Il problema è che le affermazioni di ragionevolezza non sono realmente verificabili (o almeno non fattibili o eticamente verificabili) per una serie di ragioni scientifiche e filosofiche. Per capire perché, dobbiamo considerare brevemente cosa significa “sentire”.
Cos’è la sensibilità?
La parola “sentimento” significa essenzialmente che qualcosa (un gatto, una persona o un tappeto magico) ha la capacità di sentire. ha la stessa radice della parola “sentimentale” o “sentimento”. Sentire non significa solo che qualcosa ha la capacità di sentire. Il tuo termostato quasi certamente non è senziente, nonostante la sua capacità di misurare la temperatura. Al contrario, la sensibilità è l’esperienza soggettiva dei sentimenti, che implica in primo luogo la presenza del “soggetto”.
È pericoloso impantanarsi nella semantica qui, perché è probabile che Lemoine usi la parola “sentimento” in modo intercambiabile con concetti separati come “ragione”, “intelligenza” e “coscienza”. Quindi, a titolo di argomentazione, l’interpretazione più indulgente qui è che Lemoine considera Lamda un essere consapevole di sé, capace di sentire cose, mantenere credenze e altrimenti sperimentare le cose nel modo che normalmente attribuiamo agli esseri viventi.
In un articolo supplementare , Lemoine discute ciò in cui secondo lui LaMDA “vuole” e “crede”, il che rafforza l’idea che “sentire” nella sua presentazione significhi più della sua rigida definizione del dizionario.
In primo luogo, non comprendiamo i sentimenti e la coscienza
Ecco il punto: sappiamo relativamente poco di mente, coscienza, intelligenza e cosa significa essere un essere con questi attributi. Ironia della sorte, la tecnologia di apprendimento automatico potrebbe alla fine aiutarci a svelare alcuni dei misteri delle nostre menti e dei cervelli in cui esistono.
Mentre filosofi e scienziati stanno risolvendo la “scatola nera” della coscienza , sembra ancora essere il risultato di qualcosa di più grande della somma delle sue parti. La coscienza sembra essere una cosa “emergente”. È un “fantasma” generato dall’interazione di molti diversi sottosistemi neurali, nessuno dei quali sembra essere intelligente da solo.
Allo stesso modo, l’IA complessa, come il sistema di generazione di immagini DALL-E 2, consiste in modelli di apprendimento automatico più semplici che interagiscono tra loro per creare il prodotto finale. Il tema della complessità derivante dall’interazione di sistemi più semplici è comune nel mondo dell’IA, e mentre possiamo capire molto bene come funziona ogni sottocomponente, i risultati finali sono generalmente del tutto imprevedibili.
Possiamo riconoscere l’intelligenza nell’IA?
Se, per amor di discussione, l’IA fosse davvero senziente nel vero senso della parola, saremmo in grado di dirlo? LaMDA è stato progettato per imitare e prevedere i modelli di dialogo umani, quindi il mazzo è davvero difficile quando si tratta di attivare cose che le persone associano all’intelligenza umana. Tuttavia, ci è voluto molto tempo per considerare senzienti primati e animali non umani come delfini, polpi ed elefanti, anche se in generale sono praticamente nostri fratelli e sorelle.
L’IA intelligente può essere così estranea che non sappiamo nemmeno che la stiamo guardando avanti. Ciò è particolarmente probabile perché non sappiamo quali siano le condizioni di soglia per l’emergere dell’intelligenza. Non è difficile immaginare che la giusta combinazione di dati e sottosistemi di intelligenza artificiale, mescolati insieme nel modo giusto, possa improvvisamente dare origine a qualcosa che potrebbe essere definito senziente, ma potrebbe passare inosservato perché non sembra qualcosa che possiamo capire .
Se sembra un’anatra…
L’ultimo grosso problema con le affermazioni secondo cui le macchine sono intelligenti è lo stesso problema con le affermazioni secondo cui qualsiasi altra cosa è intelligente, compresi gli esseri umani. Filosoficamente parlando, non sai se qualcuno delle persone con cui stai parlando sia davvero intelligente o meno. Questo è il classico problema filosofico degli zombi , essendo un esperimento mentale su ipotetiche creature che sono completamente indistinguibili dagli umani, tranne per il fatto che mancano di intelligenza o di qualsiasi esperienza cosciente.
Tuttavia, come sosteneva il famoso test di Alan Turing, non importa se un’IA pensa e sente “veramente”. La cosa importante è che può imitare l’apparenza di pensare e sentire così bene che non possiamo distinguerli. A seconda di chi chiedi, LaMDA ha già superato il test di Turing , il che potrebbe rendere discutibili le affermazioni non verificabili di Lemoine.
Lascia un commento