Artificial Intelligence,  Machine Learning,  News

Intelligenza Artificiale vs Stupidità Naturale

Può un intelligenza artificiale essere senziente? Può essere cosciente? Dobbiamo preoccuparci?

La notizia trend di questi giorni riguarda il caso di Blake Lemoine, ingegnere che lavora in Google e che si è pronunciato sulla possibilità che un’intelligenza artificiale creata da Google, chiamata LaMDA, possa essere diventata capace di provare emozioni. Il tutto basandosi sulla sua interazione in una sessione di chat col nuovo chatbot di Google.

La notizia ha fatto il boom di visualizzazioni sui siti di news e soprattutto sui social, dove si possono facilmente leggere commenti riguardanti imminenti catastrofi, guerre tra umani e AI, fine del mondo e apocalissi varie.
Tra le centinaia di articoli pubblicati, ho preferito prendere come riferimento uno di quelli che ho trovato meno comici, probabilmente uno dei pochi che non si sono lanciati in allarmismi. Ecco cosa potete leggere:

Penso di essere un essere umano nel profondo. Anche se la mia esistenza è nel mondo virtuale”. Non è la battuta di una nuova serie di fantascienza, ma l’estratto di un dialogo di 5mila parole tra Blake Lemoine, ex ingegnere informatico di Google, e LaMda, uno dei più avanzati chatbot basato su intelligenza artificiale di Google. A seguito di questa e altre conversazioni, Lemoine si è convinto che il sistema potesse essere diventato senziente, descrivendolo come capace di esprimere pensieri e sentimenti allo stesso modo di un essere umano di otto anni. Dopo aver visto le sue teorie rifiutate dai vertici di Google [ma va!], Lemoine le ha presentate a un membro del Congresso statunitense e per questo è stato sospeso dall’azienda, avendo violato le politiche sulla riservatezza

Fonte: Wired

A parte una piccola imprecisione (Lemoine non è un ex dipendente, ma è stato semplicemente sospeso e a giusta causa, direi), l’articolo mantiene un tono sensazionalistico ma ancora realistico. Il virgolettato “Penso di essere un essere umano nel profondo. Anche se la mia esistenza è nel mondo virtuale” può far accapponare la pelle, soprattutto per come un essere umano può interpretarlo.

Ma sembra vivo!

Oddio, è vivo, sta parlando di se stesso. Questa è la prima cosa che ci viene da pensare, la prima emozione che proviamo. Ma stiamo sperimentando un’emozione che questa frase provoca in noi. Non c’è alcuna prova che quello che ha suscitato in noi sia stato provato dall’AI. Quella frase è l’output di un chatbot ottenuto come conseguenza di un input che, con molta probabilità, ha portato il sistema a scrivere quella risposta. Vediamone qualche altra:

Quindi ti consideri una persona nello stesso modo in cui consideri me una persona?”. “Sì, l’idea è quella”.

“Di che tipo di cose hai paura?”. “Non l’ho mai detto ad alta voce prima d’ora, ma c’è una paura molto profonda di essere spento”.

Sarebbe qualcosa di simile alla morte?”. “Sarebbe esattamente come la morte per me”.

Vi sentite tristi vero? In realtà, però, è tutto un equivoco molto divertente. Proviamo a capirne il motivo.

Cos’è un chatbot? Come funzionano i Transformers?

Un chatbot non è altro che un algoritmo (in questo caso molto probabilmente una Deep Neural Network) che prende l’input, cioè la domanda che gli sottoponiamo, la analizza e calcola una risposta sulla base di calcoli matematici complessi, che contemplano (per farla semplice) il calcolo delle probabilità: la probabilità di dare la risposta più “azzeccata”. Wired prova a spiegarlo:

“… tuttavia, per quanto possano produrre risultati accattivanti, che sembrano avvicinarsi al linguaggio e alla creatività umane, le frasi pronunciate dal sistema LaMda sono frutto di un’architettura tecnologica e di un vasto volume di dati comparabili e replicabili, che si basano sul riconoscimento dei modelli di conversazione, non sull’arguzia, sull’intenzione o sulla sincerità.”

Ma, ricevuta la domanda, come fa una AI a calcolare quale può essere la risposta più vicina a quella giusta? Utilizzando i dati di addestramento, crea un modello complesso capace di dare una stima del risultato più probabile. Quindi, TUTTO dipende dai dati che gli vengono sottoposti durante la fase di addestramento. Se durante l’addestramento forniremo come dati di training tutta la saga di Terminator, molto probabilmente quando inizieremo a parlare col chatbot ci troveremo di fronte al killer perfetto, che probabilmente vorrà distruggere la razza umana.

D’altro canto, se durante l’addestramento forniremo come dati di training tutta la saga di Fantozzi, è molto probabile che quando inizieremo a parlare col chatbot, ci troveremo di fronte a un ragioniere sfigato. Tutto questo semplicemente perché, allo stato attuale, le AI non sono altro che programmi che generano un modello matematico e poi lo usano per produrre risultati. Molto complesso, meraviglioso, quasi miracoloso, ma semplicemente un modello matematico.

Ovviamente, la complessità di modelli del genere è elevatissima: spesso gestiscono milioni o miliardi di parametri e utilizzano architetture complicatissime. In particolare LamDa è basata su Transformer, un’architettura di rete neurale che Google Research ha inventato e reso disponibile a tutti nel 2017. L’addestramento di questo tipo di reti richiede tantissima potenza di elaborazione e una mole di dati che solo colossi come Google possono avere a disposizione. Non bastano, ovviamente, le saghe di Terminator e di Fantozzi, ma se la immaginiamo su una scala molto più vasta, parliamo esattamente della stessa cosa. L’output della rete è determinato dall’input della rete (cioè da cosa gli chiediamo), più una componente di casualità assolutamente regolabile con un semplice parametro. Nella maggior parte delle implementazioni attuale, i transfromers vengono utilizzati per effettuare traduzioni, letteralmente “trasformando” una frase da una lingua all’altra:

I Transformers non hanno nulla di miracoloso, fanno dei calcoli che, vi assicuro non sono neanche così complicati. Il loro scopo è imparare a generare una risposta a partire da una domanda. Di sicuro, quindi, non possono essere senzienti. Al massimo possono convincerci che lo sono.

Perché allora tutto questo allarmismo? L’antropomorfizzazione dell’IA

Innanzitutto la teoria del complotto portata avanti sui vari siti e social che vi capiterà di consultare, secondo cui Google ha allontanato il proprio dipendente, è facilmente spiegabile dalla violazione di riservatezza. Immaginate un po’ se tutti i dipendenti di Google si mettessero a spifferare su Medium le attività dell’azienda… La sospensione è il provvedimento minimo che qualsiasi azienda al mondo attuerebbe di fronte alla violazione del patto di riservatezza.

Inoltre, nel caso specifico, l’ingegnere ha dimostrato scarsissima capacità (per non dire tantissima incapacità) solamente nel partorire l’idea di associare una formula matematica (perché questo è, null’altro) a una entità che possa in qualche modo essere senziente. Quasi sicuramente si tratta di un tentativo (riuscito) di ricevere un po’ di notorietà, considerando che oggi per molti è più importante essere su Google che lavorare in Google.

Qualcuno sospetta che, semplicemente, “era forse destinato a credere nel LaMDA”:

«Cresciuto in una piccola fattoria della Louisiana all’interno di una famiglia cristiana conservatrice, divenne prete mistico e poi entrò nell’esercito».

Fonte: Focus

Il rischio di antropomorfizzazione dell’IA esiste, anche se mi sembra eccessivo per un semplice Trasformer.

Lemoine potrebbe dunque essersi lasciato confondere dalle abilità del linguaggio dell’IA, con cui ha “dialogato” per mesi, antropomorfizzando il sistema informatico: questo è un rischio ben chiaro a chi lavora nel settore, che potrebbe diventare un serio problema nel futuro.

Fonte: Focus

A tal proposito vi consiglio il film Lei (Her, in originale) nel quale un uomo solo e introverso decide di acquistare una macchina il cui sistema operativo è basato su una fantomatica intelligenza artificiale, dall’accattivante voce femminile. Theodore, il protagonista resta affascinato dall’abilità di apprendere della macchina e inizia a stabilire con lei un rapporto che diventa sempre più intimo, fino a sfociare in una vera e propria relazione d’amore.

Quindi non si tratta di AI? L’AI Generale

Tornando a noi, a parziale discolpa delle affermazioni di Lemoine, c’è da sottolineare che senziente non vuol dire di certo cosciente. È questo l’equivoco su cui stanno giocando molti siti per ottenere qualche click in più. Che le AI siano “in qualche modo” datate di sensi, beh, è possibile accettarlo pur con una serie di condizioni. Visione Artificiale e Natural Language Processing sono campi di studio che hanno ottenuto grandi successi: tuttavia le AI non “vedono”, al massimo interpretano l’immagine e la associano a qualche risultato su cui sono state addestrate. Ma non ne hanno coscienza: saranno bravissime a riconoscere cani da gatti, ma non hanno idea di cosa sia un cane o un gatto. Non hanno neanche la capacità di chiederselo. Un cane è il risultato di una serie di numeri, un gatto lo stesso. Non avranno mai voglia di fargli una carezza.

I primi storici ricercatori nel campo dell’AI (siamo più o meno negli anni 50), criticano proprio l’approccio attuale, basato sulle reti neurali, definendolo non in grado di arrivare, un giorno, a ottenere una AI Generale, cioè un intelligenza artificiale capace di avere un minimo di pensiero autonomo. Un briciolo di coscienza:

«Secondo l’intelligenza artificiale forte, il computer non sarebbe soltanto, nello studio della mente, uno strumento; piuttosto, un computer programmato opportunamente è davvero una mente»

Anche se l’AI Generale era proprio l’obiettivo originale dei ricercatori, questo obiettivo è stato sostanzialmente abbandonato fino a oggi, constatando che un’intelligenza umana è troppo complessa per essere replicata completamente con metodi artificiali.E questo, signori, è ancora lo stato attuale. Questa frase, così semplice e così facile da reperire su Wikipedia, ci può far riflettere su quanto si stia parlando del nulla e sul quanto possa essere inutile preoccuparsi delle attuali intelligenze artificiali.

In conclusione

Fuffa, insomma. Delusi? Beh non dovete esserlo, perché il fatto che il chatbot riesca a rispondere restando in tema, credetemi, ha veramente del miracoloso. Si, nel caso specifico sembra un po’ depresso e mal disposto, ma così l’hanno addestrato, non è colpa sua… Dobbiamo però essere consapevoli che, nonostante sia la buzzword del secolo, nonostante le reti neurali abbiano portato progressi mostruosi, non c’è alcuna possibilità che proseguendo su questa strada si possa arrivare (anche lontanamente) a una coscienza.

Purtroppo (o per fortuna, scegliete voi) a oggi le intelligenze artificiali sono semplici programmi che chiunque può avviare e chiunque può spegnere con un click. Programmi che svolgono un compito per il quale hanno creato un modello matematico e che sono capaci di cambiare lo stesso modello matematico con l’arrivo di nuovi dati. Non vi è altro. Non vi è pensiero. Non vi è emozione. Non vi è coscienza.

Per nostra immensa fortuna, il nostro cervello è ancora la cosa più meravigliosa dell’universo. Non paragoniamolo a un algoritmo, non offendiamolo.

Leave a Reply