Fin dalla nascita, l’intelligenza artificiale reca con sé un dilemma: imitare la coscienza qual essa è o dissolverla in una sovrumana razionalità? Da una parte un’anima empirista e pragmaticista, dall’altra un afflato razionalista e logicista. Agli esordi novecenteschi, dalla prima natura scaturiva il percettrone di Rosenblatt, dalla seconda il General Problem Solver di Simon. Dopo quasi un secolo di ricerche e sviluppi, coesistono oggi, per lo più ignorandosi, la tabula rasa dell’apprendimento automatico e il calculus ratiocinator dell’ontologia applicata.
Successi e progressi che la ricerca tecnologica e metodologica consegue sull’uno e l’altro versante non valgono a sciogliere il dilemma: lo portano semmai al cospetto di interrogativi sempre più ingombranti, tanto grandi da lambire le sorti economiche e politiche delle società umane.
Abbiamo oggi simulacri di coscienza che apprendono comportamenti (guidare automobili o tradurre testi) per imitazione (mimesi), osservando dati e estraendone modelli. I dati possono codificare comportamenti desiderati, o possono rappresentare più o meno fedelmente eventi naturali, linguistici, sociali. Molti di questi sistemi, in particolare quelli detti di deep learning, sono fatti (benché rozzamente) a somiglianza del cervello biologico, cioè con reti di “neuroni informatici”. Di qui l’idea che tali macchine siano in grado di formare i contenuti di una loro coscienza artificiale più o meno come gli empiristi secenteschi pensavano che facessero le persone, cioè attraverso qualche tipo di elaborazione dei dati sensoriali.
Ma abbiamo anche un gigantesco grafo delle conoscenze che cresce giorno per giorno sotto i nostri occhi, e racchiude in un linguaggio universale i limiti del nostro mondo internettiano, cioè, in definitiva, del nostro mondo. Nell’intento di rendere semantica (things, not strings!) la nostra relazione con i contenuti del web, uno schema di idee a priori (rozzissime, manco a dirlo) è imposto ad automi e persone, sicché ogni nostra ricerca ha in sé la reminiscenza platonica (anamnesi) di qualcosa che è dato in un altrove inaccessibile (anche, come sappiamo, al fisco).
Nell’ipotesi che sia l’umanità a guidare il processo di automazione dell’intelligenza (e non viceversa), le due prospettive sollevano problemi diversi ma intimamente connessi.
Creare conoscenza dai dati, senza l’intervento della ragione critica, significa consegnarsi al fato del presente. Tutto ciò che è, è necessariamente. Il significato delle parole è il loro uso: la relazione tra significato e uso è un immediato conformarsi del primo al secondo. Ma l’imperio del dato che l’umanità produce può essere, paradossalmente, disumano. Se n’è accorto chi ha osservato le ripugnanti associazioni di idee che certi sistemi di machine learning desumono dalle nostre conversazioni.
Creare dati da concetti, sottraendo quest’ultimi alla costruzione sociale, significa d’altro canto realizzare la distopia classica delle società autoritarie. Tutto ciò che è, è deciso da una ragione remota e inappellabile. Usare il linguaggio non è altro che recitare il caleidoscopico copione del potere. La “creatività che cambia le regole” è schiacciata sotto il peso di una produttività combinatoria utile agli automi. Ciò che conviene agli algoritmi del potere è vero e buono per la società, e il soggetto non ha più neanche le parole per discuterne.
Pensiero critico e partecipazione sociale devono quindi accompagnare qualsiasi progetto di intelligenza artificiale. Ma cosa sono pensiero critico e partecipazione sociale se non le basi della democrazia? Cos’è la loro eclissi se non la premessa di ogni catastrofe totalitaria? E come non vedere il pericolo che, d’intralcio ai processi produttivi “intelligenti” e alle vertiginose accumulazioni che promettono, pensiero e partecipazione vengano mandati al confino?
Ecco, il vero pericolo dell’intelligenza artificiale non è la fine del lavoro: è la fine della democrazia. Davanti a questo pericolo vedremo ciò che vale la nostra umanità.