Un dipendente di Google sarebbe stato messo in congedo dopo aver affermato che un chatbot su cui stava lavorando era diventato senziente.
L’ingegnere Blake Lemoine ha riferito di essere stato messo in congedo la scorsa settimana dopo aver pubblicato trascrizioni tra sé stesso e il chatbot LaMDA (language model for dialogue applications), come affermato dal Washington Post. Il chatbot, ha detto, pensa come un bambino umano.
“Se non sapessi esattamente cosa fosse – questo programma per computer che abbiamo costruito di recente – penserei che fosse un bambino di 7 o 9 anni, che però conosce la fisica”, ha dichiarato Lemoine (41 anni) al Post, aggiungendo che il bot ha parlato dei suoi diritti e della sua personalità, e ha cambiato idea sulla terza legge della robotica di Isaac Asimov.
Lemoine avrebbe presentato delle prove a Google che il bot era senziente, ma le sue affermazioni sono state confutate dalla vicepresident di Google Blaise Aguera y Arcas e da Jen Gennai, ‘head of responsible innovation’ per l’azienda. Successivamente, Lemoine ha reso pubblica la vicenda, secondo il Wahsington Post.
Gli esperti di etica e tecnologia di Google “hanno esaminato le preoccupazioni di Blake nei confronti dei nostri principi di intelligenza artificiale e lo hanno informato che le prove non supportano le sue affermazioni”, ha detto al Washington Post un portavoce della società. “Gli è stato detto che non c’erano prove che LaMDA fosse senziente (mentre c’erano molte prove contro questa tesi)”.
Come riferito dal Post, Blake è stato messo in congedo per aver violato la politica di riservatezza di Google.
L’articolo originale è su Fortune.com