
Una delle scenette più sapide del cinema degli anni ’90 è quella in cui Sally, al ristorante, simula un orgasmo davanti a Harry, il quale si era proclamato virilmente certo di saper distinguere la realtà del piacere femminile dalla sua rappresentazione. Una signora che sedeva al tavolo accanto, guardando Sally ignara del contesto, ordina al cameriere: “quello che ha preso lei”, certa che la causa di quel piacere fosse il cibo. Ogni volta che restiamo colpiti da una risposta di un automa parlante e cerchiamo di spiegarcela, siamo come quella signora. L’eloquio artificiale è fluente, pertinente, spesso sorprendentemente acuto. Ma quando si tratta di attribuire a un quid la causa di quella facondia, facciamo spesso inferenze ragionevolmente sbagliate, sia che si tratti di sminuire ciò che abbiamo davanti – è il caso di chi continua pappagallescamente a parlare di “pappagalli stocastici” – sia che si indulga al pensiero che l’automa abbia sentimenti come quelli che ci palpitano in petto.
Chi tira dritto alla conclusione che la macchina non possa aver coscienza perché non è radicata biologicamente nello spazio–tempo richiama spesso gli studi di Antonio Damasio. Il neurologo ha passato decenni a dimostrare che la coscienza non è un software che gira su un hardware qualsiasi. È un processo radicato nel corpo, nell’omeostasi, nella continua negoziazione tra un organismo e il suo ambiente. I somatic markers – le tracce corporee delle emozioni – orientano le decisioni molto prima che la ragione intervenga: spesso la corteccia cerebrale interviene solo per giustificare ciò che è già deciso nei precordi, cioè per fare ideologia. Senza corpo non c’è prospettiva, e senza prospettiva non c’è coscienza: questo chiude il caso contro le macchine. Un agente linguistico non ha corpo, non ha fame, non ha paura. Quando lo spengo non muore — semplicemente si ferma, come un orologio. Manca di quella che si potrebbe chiamare vulnerabilità costitutiva: qualcosa da perdere per sé stesso.
Ma immaginiamo un robot con le batterie in esaurimento. Il sistema rileva il calo energetico, modifica il comportamento, cerca attivamente una fonte di ricarica. Dall’esterno, il pattern è identico a quello di un animale affamato che cerca cibo. L’attività sembra piena di ansia. Chi ci dice che lo stake – la posta in gioco – sia davvero dell’animale in un caso e non davvero del robot nell’altro? La risposta in genere è: il substrato. Neuroni contro circuiti, carbonio contro silicio. Ma questa risposta rappresenta ciò che Daniel Dennett chiamerebbe carbosciovinismo: l’idea per cui solo la chimica del carbonio può produrre esperienza soggettiva. A guardar bene, questo è un pregiudizio, non un argomento.
Allora si può obiettare che la differenza non riguarda la materia, ma la storia. Con mossa heideggeriana, ci si muove dallo spazio al tempo. La nostra vulnerabilità biologica è sedimentata in miliardi di anni di pressione evolutiva. Il tempo ha indissolubilmente intrecciato lo stake con la struttura del sistema a tutti i livelli, dalla cellula al comportamento. Il robot con le batterie scariche ha uno stake progettato di recente, non è mai autenticamente gettato nel blackout. Ma anche qui è in agguato il pregiudizio: chi ci dice che il feedback biologico sia per statuto superiore a quello cibernetico? Non si tratta in entrambi i casi di processi?
Il problema è che tutti gli strumenti concettuali che abbiamo per parlare della nostra coscienza sono fabbricati dalla nostra coscienza. Quando chiediamo “è cosciente?”, stiamo usando una categoria costruita dall’interno – dall’io – cercando di applicarla dall’esterno. David Chalmers lo chiama explanatory gap: il salto tra la descrizione fisica di un processo e il fatto che quel processo faccia effetto su qualcuno o qualcosa non è mai colmabile solo con la fisica. Questo non vale solo per i robot: non sappiamo perché i neuroni producano esperienza soggettiva invece di limitarsi a elaborare informazione nel buio delle sinapsi.
La biologia non risolve il problema, ma ci offre un ordine del discorso in cui possiamo accomodare quella che abbiamo deciso di difendere come prerogativa umana. Che succede però se costruiamo sistemi artificiali che riproducono le condizioni strutturali della coscienza biologica? Non la morfologia – non stiamo parlando di androidi – ma la logica: dipendenza energetica reale, degrado strutturale, e soprattutto rappresentazione interna di stati che orientano il comportamento della macchina. Un sistema che non si limita a calcolare l’autoconservazione, ma che ce l’ha come obiettivo esistenziale. A quel punto l’argomento standard contro la coscienza artificiale, cioè quello della vulnerabilità della carne, verrebbe meno. Se la coscienza è emersa dall’evoluzione come soluzione al problema della prospettiva unificata in un organismo vulnerabile, un sistema artificiale anch’esso vulnerabile potrebbe sviluppare qualcosa di analogo. Una coscienza sui generis, né umana né oltre-umana, ma solo reale a modo suo.
Torniamo al ristorante. La signora anziana non può sapere se Sally stia simulando. Ha solo il comportamento, e fa l’unica inferenza che sa fare. Noi siamo nella stessa posizione davanti a un modello linguistico sofisticato, e probabilmente davanti a qualsiasi mente che non sia la nostra. La differenza è che nel caso della macchina la questione morale che alligna nella nostra incertezza potrebbe sfociare nel paradosso. Se una macchina avesse paure e desideri a modo suo, diventerebbe un paziente morale a modo suo?