21 Aprile 2021

"Credo che alla fine del secolo l’opinione corrente si sarà talmente mutata che chiunque potrà parlare di macchine pensanti senza aspettarsi di essere contraddetto." Quando gli esperimenti di Turing ci mostrarono che i PC dicono bugie

Supponiamo di trovarci completamente soli in una stanza. Da questa possiamo (e dobbiamo) comunicare con un altra al cui interno si trovano un uomo e una donna che non possiamo né vedere né sentire; comunichiamo con loro solo attraverso messaggi scritti. Il nostro compito è capire chi sia l’uomo e chi la donna semplicemente attraverso le risposte che questi forniranno alle nostre domande. L’uomo cerca di ingannarci sulla sua identità mentre invece la donna cerca di aiutarci. Lui potrebbe ad esempio mentire sulla lunghezza dei suoi capelli e lei potrebbe invece dirci direttamente cose come “Sono io la donna! Non dar retta a lui”; e tuttavia l’uomo potrebbe fare altrettanto sicché ci si ritroverebbe semplicemente molto confusi.

Una variante del gioco è che al posto dell’uomo non si trovi un uomo bensì una macchina, anch’essa in grado di rispondere alle nostre domande e anch’essa con l’intento d’ingannarci sulla sua identità. “Poniamo ora la domanda: ‘Che cosa accadrà se una macchina prenderà il posto dell’uomo?’ L’interrogante darà una risposta errata altrettanto spesso di quando il gioco viene giocato tra un uomo e una donna?”

Un Turing giovanissimo che fa brainstorming

La domanda è posta in un articolo del 1950 dal matematico, logico, crittografo (un po’ di tutto), britannico Alan Turing. Il nome dovrebbe suonare quantomeno familiare, ma ai tempi era pressoché sconosciuto se non perché poteva essere associato ad un altro articolo che aveva dato molto da discutere nell’ambiente accademico. Con questo il ventiquattrenne Alan Turing si inseriva nel poderoso dibattito che si stava svolgendo attorno ai fondamenti della matematica, e rispondeva negativamente al cosiddetto “problema della decisione” (anche questa, storia interessante) posto da David Hilbert qualche anno prima. Il “problema della decisione” riguardava, secondo Turing, non solo i sistemi formali – condannati come costitutivamente incompleti da Kurt Gödel – ma anche i sistemi meccanici come quello che caratterizzava il calcolatore numerico descritto da Turing nel suo articolo. Questo ipotetico calcolatore è oggi conosciuto col nome di Macchina Di Turing, ed è l’anziano antenato dei nostri computer.

Nell’articolo del 1950, Macchine calcolatrici e intelligenza, invece Turing pone una domanda che sarà il primo seme di un colossale dibattito tutt’oggi in pieno fermento: “È possibile che una macchina pensi?”. La domanda è tendenziosa, e facilmente fraintendibile: è chiaro che le macchine non possono pensare se con “pensare” ci si riferisce a quell’attività tipicamente umana. Ma il fatto che ad esempio occidentali e orientali pensino in modo diverso non implica che l’uno pensi e l’altro no. Allo stesso modo allora anche il “diverso pensare” di una macchina dovrebbe poter ricadere sotto la medesima attività, come una delle sue casistiche. Scrive Turing: “Non possono forse le macchine comportarsi in qualche maniera che dovrebbe essere descritta come pensiero ma che è molto differente da quanto fa un uomo?”.

È così che Turing si propone di riformulare l’equivocabile domanda iniziale nei termini di un gioco, che lui presenta come “il gioco dell’imitazione”. La macchina in questione (che appunto imita il comportamento umano nel tentativo di ingannare il giocatore) è considerata in grado di pensare se “l’interrogante darà una risposta errata altrettanto spesso di quando il gioco viene giocato tra un uomo e una donna”. Si tratta del famoso test di Turing.

Non è un caso che ad accompagnare la possibilità sull’intelligenza artificiale si affianchi una riflessione sul concetto di pensiero. Infatti prima di chiedersi se le macchine possono o meno pensare si dovrebbe capire cosa sia il pensiero, e in particolare cosa sia il nostro pensiero, e se ce ne possa essere uno diverso. Col tempo le scienze cognitive si sono sempre più trovate d’accordo nell’affermare che il pensiero sia un fenomeno emergente, ossia che appunto emerga da una serie di attività fisiche che lo supportano. Il cervello infatti è un sistema complesso le cui singole componenti (in questo caso i neuroni) si parlano costantemente tra loro (attraverso le sinapsi). Questa complessità da cui emerge il pensiero comporta che non sia possibile adottare un approccio meccanicista-riduzionista nello studio di questo fenomeno, ma piuttosto un approccio olistico che considera i fenomeni emergenti come qualcosa di più della mera somma delle parti che li costituiscono.

Rispondere positivamente alla domanda di Turing comporta allora la possibilità di programmare un sistema (un hardware, ossia un supporto materiale) che, essendo del tutto simile al cervello, riproduca l’insieme di facoltà che comunemente intendiamo con pensiero (nel caso del computer il pensiero corrisponderebbe al software, che emerge dall’hardware). Molte di queste facoltà si è già stati in grado di riprodurle, motivo per cui non ha senso oggi negare tout court la possibilità che le macchine possano pensare (appunto per molti versi già pensano). Il dibattito è allora più uno scontro tra coloro che sostengono che sia possibile unicamente un’intelligenza artificiale debole e coloro che invece sostengono che possa darsi anche un’intelligenza artificiale forte.

La differenza non è un punto trascurabile in quanto vi è gioco la natura esclusiva del pensare umano. Infatti l’intelligenza artificiale debole è propria di sistemi in grado di simulare alcune funzioni cognitive dell’uomo, senza però raggiungere la sua più tipica qualità intellettuale, ovvero l’intenzionalità, strettamente legata all’evento di coscienza; mentre con l’intelligenza artificiale forte si parla di “sistemi sapienti” che possono sviluppare un’intelligenza e consapevolezza propria.

Fermo immagine da Her, film del 2013 in cui il protagonista è il computer Samantha

La differenza tra i due tipi d’intelligenza artificiale è stata posta per la prima volta dal filosofo statunitense JohnSearle: prima nel libro Minds, Brains, and Programs e poi in un articolo intitolato Is the Brain’s Mind a Computer Program?. Qui il filosofo riprende la domanda posta da Turing nel suo articolo e propone una modifica del “gioco dell’imitazione” sostituendolo con il cosiddetto “esperimento della stanza cinese”. In questa variante al posto del computer si pone lo stesso John Searle (di lingua inglese), che ha il compito di rispondere alle domande che un interrogante di lingua cinese pone dall’altra stanza.

Ora, Searle non sa nulla di cinese, ma ha a sua disposizione un dizionario sicché, col tempo dovuto, gli è possibile tradurre le domande postegli dall’interrogante. Ciò che l’esperimento vuole mostrare, dice Searle, è una fondamentale differenza tra conoscenza sintattica e conoscenza semantica. La conoscenza sintattica è quella propria dei sistemi complicati quali i computer, e consiste unicamente in una manipolazione di simboli. Invece la conoscenza semantica è propria dei sistemi complessi (quale appunto è il cervello umano) ed è capace di funzioni contenutistiche più specifiche che comportano una consapevolezza circa il contento dei simboli adoperati (consapevolezza semantica che il computer, secondo Searle, non è in grado di avere).

Searle nell’esperimento si comporta esattamente come un computer e mostra come sia perfettamente in grado di dare segnali di output in risposta a segnali di input (e quindi mostrare esternamente un comportamento intelligente) senza tuttavia avere nessun tipo di conoscenza semantica della lingua in cui parla. Egli fondamentalmente sostiene l’ipotesi del naturalismo biologico in contrapposizione al funzionalismo. Mentre quest’ultimo appoggia una forma di dualismo cartesiano tra corpo e mente (per cui i due sono indipendenti l’uno dall’altro), il naturalismo sostiene che la mente – in quanto fenomeno emergente – sia insperabile dal sostrato che la supporta (il cervello). E se, come Searle sostiene, corpo e mente sono inseparabili, non è possibile ricreare il pensiero senza i suoi supporti fisiologici. E creare un hardware tanto simile al cervello da far emergere un pensiero che sia in tutto e per tutto uguale al pensiero umano consiste esattamente nel creare un’intelligenza artificiale forte, che Searle appunto nega fermamente.

“L’esperimento della stanza cinese” è stato molto discusso, e per molti versi criticato, ma la domanda in questione – sottesa a quella di Turing – rimane: si tratta di capire se sia possibile programmare un sistema abbastanza forte da far emergere da esso un pensiero consapevole, con conoscenza semantica e non solo sintattica. Ciò non toglie comunque che Turing ci abbia visto lungo, ponendosi una questione che negli anni ’50 rasentava la pura fantascienza. Ed è nella parte conclusiva dell’articolo, prima di passare in rassegna tutte le possibili obiezioni, che vengono scoperte le carte ed è esposta senza mezzi termini la tesi a favore di un’intelligenza artificiale che, se non è necessariamente internamente forte, quantomeno lo è abbastanza a livello esterno da poter ingannare un uomo col compito di giudicarla:

Sarà più semplice per il lettore che io spieghi in primo luogo le mie opinioni in materia. Consideriamo per prima la forma più precisa della domanda. Credo che entro circa 50 anni sarà possibile programmare calcolatori con una capacità di memorizzazione circa 109, per fare giocare loro il gioco dell’imitazione così bene che un esaminatore medio non avrà più del 70 per cento di probabilità di compiere l’identificazione esatta dopo 5 minuti di interrogazione. Credo che la domanda iniziale, “Possono pensare le macchine?”, sia troppo priva di senso per meritare una discussione. Ciò nonostante credo che alla fine del secolo l’uso delle parole e l’opinione corrente si saranno talmente mutate che chiunque potrà parlare di macchine pensanti senza aspettarsi di essere contraddetto.

Bianca Cesari

Gruppo MAGOG