Cosa ci rende umani e non macchine? Cosa distingue il pensiero dal calcolo?

Dall'intuizione profetica di Ada Lovelace alla stanza cinese di John Searle, un viaggio attraverso il mistero irriducibile della coscienza.

Anonimo, “Donna che gioca a weiqi (go)”, dalla tomba 187 di Astana, circa 744 d.C. Xinjiang Uighur Museum, Cina. Public domain.

Mentre l’AI generativa trasforma la vita e il lavoro, una domanda fondamentale torna attuale: cos’è la coscienza? Cosa distingue la nostra mente dal processore di uno smartphone? La domanda appassiona neuroscienziati, psicologi e filosofi — perché dalla risposta dipende la definizione stessa di essere umano.

Vi propongo un viaggio attraverso tre pensatori che hanno esplorato questo enigma, da prospettive diverse ma complementari, ognuna delle quali offre indizi preziosi.

Fantasmi, zombie e automi

Descartes ipotizzò l’esistenza di due sostanze separate: una “estesa”, cioè quantitativa, misurabile, e una “pensante”, qualitativa e immateriale. Questa ipotesi fu contestata da Gilbert Ryle, che nel suo libro The Concept of Mind (1949) introdusse l’espressione “il fantasma nella macchina”.

Per Ryle, pensare che ci sia una mente (il fantasma) che abita e controlla un corpo (la macchina) è come visitare tutti i college, le biblioteche e i laboratori di Oxford e poi chiedersi: “dov’è l’Università?”. L’Università, spiega Ryle, non è un edificio in più accanto agli altri, ma la relazione che li organizza in un sistema unitario. Pensare altrimenti è un errore concettuale che confonde livelli logici diversi.

Tuttavia, ridurre la mente a disposizioni comportamentali lascia fuori l’esperienza soggettiva — quello che i filosofi chiamano i “qualia” o la coscienza fenomenica. La spiegazione riduzionista non spiega cioè cosa si prova (what it is like) ad avere un’esperienza cosciente.

Secondo il filosofo e scienziato cognitivo David Chalmers, è facile spiegare le funzioni cognitive, l’attenzione, il comportamento. È invece un problema difficile e persistente (hard problem) spiegare come l’esperienza soggettiva possa “emergere” dai processi fisici del cervello.

Nel suo libro The Conscious Mind (1996), Chalmers immagina uno “zombie filosofico” — un essere che si comporta esattamente come un umano, ma non ha esperienza soggettiva interiore: “dentro tutto è buio”.

Perché dunque invece di processare informazioni come zombie o automi, “si prova qualcosa” ad essere coscienti? Per capirlo, facciamo un passo indietro nel tempo.

L’incantatrice dei numeri

Quando è nata davvero l’idea di macchina pensante?

Nel 1936, il matematico inglese Alan Turing pubblicò il concetto teorico della “macchina di Turing”, cioè il computer universale astratto. Ma dobbiamo aspettare il 1945 per avere il primo computer elettronico generale, l’ENIAC-Electronic Numerical Integrator and Computer, sviluppato negli Stati Uniti per usi militari.

Eppure, un secolo prima, Augusta Ada King, contessa di Lovelace (1815-1852), figlia di Lord Byron, aveva già profetizzato il computer, descrivendone il funzionamento.

La madre, temendo che Ada avesse ereditato la “follia romantica” del padre, le aveva imposto una rigida educazione scientifica. Lei si appassionò alla matematica, ma in modo del tutto originale.

Nel 1833, Ada incontrò il matematico e filosofo Charles Babbage e rimase affascinata dalla sua “macchina analitica”: un progetto di calcolatore meccanico di straordinaria potenza, superiore a quella di qualsiasi computer costruito prima del 1960.

I dati e i programmi erano forniti tramite schede perforate, già in uso nei telai meccanici. Tuttavia, la macchina — oltre 12.000 pezzi, pesante più di 15 tonnellate e ingombrante quanto una locomotiva a vapore — non fu mai costruita.

Nel 1843, Ada tradusse in inglese un articolo sulla macchina di Babbage del matematico Luigi Federico Menabrea (futuro Primo Ministro del Regno d’Italia) — considerato il primo lavoro scientifico nel campo dell’informatica.

Con Babbage, Ada aggiunse copiose e dettagliate note (41 pagine delle 66 complessive), firmandosi soltanto A.A.L. Nelle note Ada descrisse il primo algoritmo destinato a essere eseguito da una macchina — il calcolo dei numeri di Bernoulli — diventando di fatto la prima programmatrice della storia.

Ada aveva compreso che esiste una “scienza delle operazioni” — l’attuale informatica — indipendente dai contenuti specifici sui quali opera: non solo numeri, ma lettere, immagini o note musicali. Una visione del moderno software con oltre un secolo di anticipo:

“... il Motore Analitico tesse modelli algebrici proprio come il telaio Jacquard tesse fiori e foglie... potrebbe comporre pezzi musicali elaborati e scientifici di qualsiasi grado di complessità o estensione...”

Combinando rigore scientifico e immaginazione poetica, Ada vide nel futuro. Ammirato, Babbage la definì “l’Incantatrice dei Numeri”.

L’intuito di Ada Lovelace colse l’essenza della sintassi: dato un numero finito di elementi e di regole di combinazione, è possibile generare pattern praticamente infiniti. La macchina analitica avrebbe potuto manipolare simboli secondo regole formali, creando tessiture complesse di significato — proprio come il telaio tesseva disegni intricati seguendo le istruzioni delle schede perforate.

La visione di Ada apre una domanda fondamentale: cos’è davvero il significato?

Ad esempio, questo articolo “contiene” informazioni? O piuttosto l’informazione — il significato vero e proprio — appare solo quando la parola scritta incontra la mente di chi legge? È il paradosso del matematico Émile Borel: secondo la legge delle probabilità, in un tempo sufficientemente lungo, battendo a caso su una tastiera si potrebbe anche scrivere la Divina Commedia — senza sapere cosa si è scritto. È qui che la distanza tra sintassi e semantica, tra calcolo e comprensione, diventa abissale.

L’inganno della stanza cinese

Negli anni ‘80, per sfidare l’idea che le macchine possano davvero pensare, il filosofo John Searle propose un paradossale esperimento mentale: la “stanza cinese”.

Un cinese scrive una domanda su un foglio e lo passa sotto la porta di una stanza chiusa, aspettando che qualcuno dall’interno gli dia una risposta. Nella stanza c’è un tizio che non parla cinese, ma dispone di un ipotetico manuale che contiene tutte le possibili domande e risposte, in cinese. Il tizio cerca la domanda nel manuale, copia la risposta corrispondente e la infila sotto la porta. Il cinese legge la risposta corretta e si convince che nella stanza c’è qualcuno che parla la sua lingua, ma si inganna: il tizio ha soltanto seguito il manuale.

Il computer, dice Searle, non “capisce”, ma elabora i simboli secondo le istruzioni del programma. Le istruzioni, le regole formali, sono soltanto l’aspetto sintattico del pensiero, mentre la mente capisce anche i significati — l’aspetto semantico.

Un essere umano, anche quando esegue procedure, prova emozioni e sentimenti, si interroga, interpreta, esprime una volontà. La macchina calcola, la mente possiede coscienza e intenzionalità.

Questa differenza, sostiene Searle, è irriducibile: la mente emerge dal sostrato biologico cerebrale — anche se non sappiamo come — e non può esserne separata. Ogni mente è unica, plasmata da una combinazione irripetibile di biologia ed esperienza. Ogni essere umano è un individuo, non una macchina replicabile.

C’è infatti una differenza sostanziale tra substrato biologico — l’organismo— e substrato artificiale, per quanto complesso — il meccanismo. Un organismo vivente si sviluppa dall’interno, come un seme. Cresce, si modifica, porta in sé la memoria della propria storia evolutiva e individuale. Una macchina, invece, viene assemblata dall’esterno, pezzo per pezzo. Non è solo una questione di complessità — è una differenza qualitativa, ontologica.

Insomma, la donna ritratta nell’antica pittura che gioca a weiqi (go) non sta semplicemente calcolando mosse. Anticipa l’avversario, costruisce strategie, prova emozioni. Non sta solo elaborando, sta comprendendo.

Mente e macchina

Dall’intuizione profetica di Ada Lovelace allo zombie filosofico di Chalmers fino alla stanza cinese di Searle, abbiamo contemplato lo stesso mistero da tre inquadrature, ognuna delle quali rivela una specifica differenza: tra calcolo e comprensione, tra sintassi e semantica, tra elaborazione e coscienza.

Ada ci ha mostrato la potenza della manipolazione formale dei simboli. Chalmers ci ha ricordato che questa potenza non basta a spiegare l’esperienza soggettiva. Searle ci ha sfidato a distinguere tra simulazione e realtà della comprensione. Dove la macchina computa, la mente pensa — sente, ricorda, immagina.

Oggi, nell’era dell’AI avanzata, i computer simulano il pensiero con crescente efficacia, ma il dibattito sul mistero della coscienza è ancora aperto: cosa significa davvero comprendere?

E se fosse proprio questo a renderci umani e insostituibili — non smettere mai di interrogarci?

Se questo articolo ti ha ispirato, condividilo con chi, come te, preferisce una buona domanda a una facile risposta.

Indietro
Indietro

Libera il pensiero

Avanti
Avanti

In cerca del Graal