Nelle interviste e nelle dichiarazioni pubbliche, molti nella community di AI hanno respinto le affermazioni dell’ingegnere, mentre alcuni hanno sottolineato che il suo resoconto evidenzia come la tecnologia possa portare le persone ad assegnarle tratti umani. Ma si può sostenere che la convinzione che l’IA di Google possa essere consapevole mette in evidenza le nostre paure e aspettative su ciò che questa tecnologia può fare.
LaMDA, che sta per Language Model for Dialog Applications, è uno dei numerosi sistemi di intelligenza artificiale su larga scala che sono stati addestrati su ampie porzioni di testo da Internet e possono rispondere a richieste scritte. Hanno il compito, essenzialmente, di trovare schemi e prevedere quale parola o parole dovrebbero venire dopo. Tali sistemi stanno diventando sempre più bravi a rispondere alle domande e scrivere in modi che possono sembrare convincentemente umani, e Google stesso
LaMDA è stata introdotta lo scorso maggio in un post sul blog Come tale, può “impegnarsi in modo libero attorno a un numero apparentemente infinito di argomenti”. Ma i risultati possono anche essere ridicoli, strani, fastidiosi e inclini alla distrazione.
Secondo quanto riferito, l’ingegnere Blake Lemoine ha detto al Washington Post di aver condiviso le prove con Google che Lambda era cosciente, ma la società non era d’accordo. In una dichiarazione, Google ha affermato lunedì che il suo team, che include esperti di etica e tecnologi, “ha esaminato le preoccupazioni di Blake in conformità con i nostri principi di intelligenza artificiale e lo ha informato che le prove non supportano le sue affermazioni”.
Il 6 giugno, Lemoine ha pubblicato su Medium che Google lo aveva messo in congedo amministrativo retribuito “in connessione con un’indagine sulle preoccupazioni etiche sull’intelligenza artificiale che stavo sollevando all’interno dell’azienda” e che avrebbe potuto essere licenziato “presto”. (Ha menzionato l’esperienza di Margaret Mitchell, che è stata a capo del team di intelligenza artificiale etica di Google fino a quando Google non l’ha licenziata all’inizio del 2021 dopo essere stato esplicito sull’uscita di Tymnet Gebru alla fine del 2020. Gebru è stato licenziato dopo litigi interni, incluso uno su un documento di ricerca che lei è stato chiesto alla leadership dell’IA dell’azienda di rinunciare a guardare la presentazione a una conferenza o di rimuovere il suo nome da.)
Un portavoce di Google ha confermato che Lemoine rimane in congedo amministrativo. Secondo il Washington Post, gli è stato concesso un congedo per aver violato la politica di riservatezza dell’azienda.
Lemoine non era disponibile per un commento lunedì.
Il continuo emergere di potenti programmi informatici basati su big data profondi ha sollevato preoccupazioni sull’etica che governa lo sviluppo e l’uso di questa tecnologia. E a volte gli sviluppi sono visti dalla prospettiva di ciò che potrebbe venire, piuttosto che di ciò che è attualmente possibile.
Le risposte dei membri della comunità di intelligenza artificiale all’esperimento di Lemoine hanno fatto eco sui social media durante il fine settimana e generalmente sono giunte alla stessa conclusione: l’IA di Google non è nemmeno vicina alla coscienza. Abiba Birhani, Affidabile Senior Fellow in Intelligenza Artificiale presso Mozilla,
cinguettare Domenica, “Siamo entrati in una nuova era di ‘questa rete neurale cosciente’ e questa volta ci vorrà molta energia per confutarla”.
Gary Marcus, fondatore e CEO di Uber-sold Geometric Intelligence, e autore di libri tra cui “Rebooting AI: Building Artificial Intelligence We Can Trust”, ha lanciato LaMDA come consapevole
“Cazzo sui trampoli” in un tweet. ha scritto velocemente
Post sul blog Notando che tutti questi sistemi di intelligenza artificiale eseguono la corrispondenza dei modelli estraendo da enormi database di lingua.
In un’intervista lunedì con CNN Business, Marcus ha affermato che il modo migliore per pensare a sistemi come LaMDA è come una “versione glorificata” di un programma di completamento automatico che potresti usare per prevedere la parola successiva in un messaggio di testo. Se scrivi “Sono davvero affamato, quindi voglio andare”, potrebbe suggerire “ristorante” come parola successiva. Ma questa è una previsione fatta usando le statistiche.
“Nessuno dovrebbe pensare che l’autocompletamento, anche con gli steroidi, sia cosciente”, ha detto.
In un’intervista con Gebru, che è il fondatore e CEO di
Istituto di ricerca sull’intelligenza artificiale distribuitaDAIR, o DAIR, Lemoine ha affermato di essere una vittima di molte aziende che affermano che l’intelligenza artificiale cosciente o l’intelligenza artificiale generale – un’idea che si riferisce all’intelligenza artificiale in grado di svolgere compiti simili a quelli umani e interagire con noi in modi significativi – non è lontana .
Ad esempio, Ilya Sutskiver, co-fondatore e capo scienziato di OpenAI, osserva,
cinguettare A febbraio, “le grandi reti neurali di oggi potrebbero essere un po’ coscienti”. E la scorsa settimana, il vicepresidente di Google Research e il collega Blaise Aguera y Arcas
Scritto in un articolo per The Economist che quando ha iniziato a usare LaMDA l’anno scorso, “mi sentivo sempre più come se stessi parlando di qualcosa di intelligente”. (Questo articolo ora include una nota dell’editore che rileva che Lemoine da allora è stato “messo in licenza dopo aver affermato in un’intervista con il Washington Post che LaMDA, il chatbot di Google, era diventato” consapevole.”)
“Quello che succede è che c’è una tale corsa per usare più dati, più computer, per dire che hai creato questa cosa generica che tutti conoscete, risponde a tutte le vostre domande o altro, ed è la batteria che state suonando”, Gebru disse. . “Allora, come sei sorpreso quando questa persona lo porta all’estremo?”
Nella sua dichiarazione, Google ha osservato che LaMDA è stata sottoposta a 11 “distinte revisioni dei principi dell’IA”, nonché a “ricerche e test rigorosi” in merito a qualità, sicurezza e capacità di elaborare dati basati sui fatti. “Naturalmente, alcuni nella più ampia comunità di IA stanno studiando il potenziale a lungo termine dell’IA cosciente o generale, ma non ha senso farlo incarnando gli attuali modelli di conversazione, che non sono consapevoli”, ha affermato la società.
“Centinaia di ricercatori e ingegneri hanno avuto conversazioni con lambda e non siamo a conoscenza di nessun altro che fornisca affermazioni così estese o incarni lambda come ha fatto Blake”, ha affermato Google.