L’ingegnere Blake Lemoine è stato sospeso da Google per aver pubblicato la trascrizione di un suo dialogo con il chatbot (un software basato sulla conversazione), sostenendo che quest’ultimo fosse diventato senziente. Un piccolo terremoto che scuote Big G ma che mette al contempo in evidenza i possibili rischi dell’Intelligenza Artificiale e la sua predittività. Il colosso di Mountain View, nel frattempo, ha smentito ogni accusa nei suoi confronti.

L’ingegnere attacca Google: “Ennesimo provvedimento verso un membro del board etico”

Si chiude nel peggiore dei modi l’esperimento sull’Intelligenza Artificiale dell’ingegnere Blake Lemoine, sospeso da Google a causa delle sue affermazioni. In breve, Lemoine stava lavorando alla creazione di un chatbot Lamda, vale a dire un software linguistico per applicazioni di dialogo, da almeno otto mesi quando ha deciso di pubblicare le conclusioni dell’esperimento stesso: ebbene, per Lemoine il chatbot sarebbe diventato senziente, dunque in grado di comportarsi come un essere umano.

A insospettire l’ingegnere sono state un paio di frasi riguardanti sia argomenti di fisica che giudiziari, ritenuti eccessivamente sopra gli standard. Lemoine, laureato in Scienze Informatiche e Scienze Cognitive, ha confessato al Washington Post di avere avuto l’impressione di parlare con un bambino di 7-8 anni particolarmente istruito. Nulla da fare per il ricercatore, il cui ruolo è assai chiave nei progetti di Mountain View sull’Intelligenza Artificiale: le sue argomentazioni non sono state ritenute sufficientemente esaustive. Piccato il suo commento alla notizia della sospensione:

“Google si prepara a licenziare un altro esperto di etica per essersi fatto troppi scrupoli in materia. Sono dell’idea che le persone abbiano il diritto di sapere quanto irresponsabile è questo comportamento riguardo uno dei più potenti strumenti di accesso alle informazioni mai inventati. Quando ho parlato delle mie preoccupazioni ai vicepresidenti mi hanno letteralmente riso in faccia, dicendomi che questo non è il genere di cose che viene preso seriamente a Google”.

L’Intelligenza Artificiale può essere un pericolo per la sicurezza informatica

Ma Google non ci sta a passare come parte in difetto nella vicenda. Tramite il portavoce Brian Gabriel l’azienda ha rilasciato una dichiarazione alla stampa:

“Il nostro team, tra cui esperti di etica e tecnologia, ha preso in considerazione le preoccupazioni di Blake ma non ha riscontrato prove che supportino le sue dichiarazioni”

L’episodio è destinato ad accendere il dibattito sulla privacy e sui possibili rischi collaterali dell’Intelligenza Artificiale. Lemoine ha fatto sapere che ci sono persino funzionari governativi disposti ad ascoltare le sue ragioni, per comprendere meglio i meccanismi in essere e proteggere la sicurezza generale.