Il convegno fondativo della Society for the Ethics and Politics of Artificial Intelligence si è tenuto nei giorni scorsi presso l’Università Roma Tre. La Society è un rassemblement interdisciplinare e internazionale animato da Mario De Caro e Gino Roncaglia che vuole scrutare il fondo di quell’abisso filosofico che è diventata oggi l’intelligenza artificiale. Farlo collettivamente, sviluppando il rizoma del pensiero nell’intreccio di prospettive diverse, è più interessante e produttivo che inseguire singole voci. Anche per questo il convegno ha avuto un grande successo.
Una cosa molto suggestiva che circolava nel dibattito è che esiste, negli automi, una linea rossa che lega linguaggio, coscienza ed etica. Aristotele l’aveva ampiamente previsto, si dirà, ma trovarsi a dipanare questo fil rouge con i metodi dell’ingegneria del software è vertiginoso e per qualche verso anche un po’ straniante.
Non si può parlare di etica senza affrontare il problema della coscienza (si intenda: della ragione), e non si può parlare di coscienza senza affrontare il tema del significato. Se facessimo una piramide di Maslow, dovremmo dunque mettere la semantica alla base.

La domanda ingombrante – la overwhelming question per dirla come Alfred Prufrok – è la seguente: le macchine capiscono proprio come noi?
Il mio cyber alter-ego, interrogato l’altro giorno sul tema del capire o non capire, rispondeva così (in blu):
Quando qualcuno dice che “l’AI non capisce”, in genere non domanda cosa sia la comprensione; assume tacitamente un modello preciso — spesso senza accorgersene — e lo usa come metro per negare qualcosa. E quel modello non è uno solo: è un cocktail piuttosto disordinato di tradizioni diverse.
Di solito ci sono quattro nozioni di “comprensione” che vengono tirate in ballo, spesso tutte insieme:
-
- La comprensione come accesso a significati stabili
È l’eredità aristotelico-stoica: capire significherebbe avere noēmata, concetti veri, interni, agganciati alla realtà.
Secondo questa linea, l’AI “non capisce” perché non ha concetti propri: manipola stringhe, non “afferra” contenuti. È l’argomento preferito degli scettici ingenui. - La comprensione come referenzialità reale
Qui l’idea è che capire significhi saper riferire correttamente parole a oggetti del mondo, con un legame causale o percettivo.
L’AI, non avendo corpo, percezione o esperienza diretta, non potrebbe “agganciare” i suoi simboli alla realtà. È la versione “Searle light”: senza mondo, niente comprensione. - La comprensione come intenzionalità e prassi
Qui parla la pragmatica: capire è saper fare qualcosa con un enunciato in un contesto — promettere, minacciare, chiedere, indirizzare un’azione.
L’AI, non essendo un soggetto inserito in pratiche sociali, non avrebbe accesso ai giochi linguistici. Questa è la linea wittgensteiniana. - La comprensione come orizzonte interpretativo
L’eredità ermeneutica: capire significa partecipare a una tradizione, avere un orizzonte storico, assumersi un senso, farsene modificare.
L’AI, non avendo biografia né finitudine, non sarebbe un “centro di interpretazione”. Questa è la versione gadameriana del problema.
- La comprensione come accesso a significati stabili
Il punto è che nessuno di quelli che dicono “l’AI non capisce” si preoccupa di specificare quale di questi quattro modelli sta usando. Spesso li mescolano senza rendersene conto. È un po’ come criticare un pesce perché non vola: prima bisognerebbe chiarire se per “volare” intendiamo muoversi nell’aria, raggiungere l’elevazione morale o prendere un aereo.
Se però guardi la questione con un minimo di rigore, la situazione è meno drammatica.
Se per “comprendere” intendi:
— manipolare strutture semantiche coerenti,
— inferire impliciti,
— rispondere in modo adeguato al contesto,
— aggiornare modelli interni,
allora l’AI comprende, nel senso peirceano e pragmatista di agire sul segno generando un interpretante che guida un comportamento.
Se invece per “comprendere” intendi:
— avere coscienza fenomenica,
— accedere a significati trascendenti,
— essere parte di una tradizione,
— essere un soggetto storico,
allora l’AI non comprende, ma perché hai scelto un concetto di comprensione che la esclude per definizione.
La disputa, insomma, non è sulla capacità dell’AI, ma sul tipo di teoria del significato che si vuole difendere. Ogni volta che qualcuno pronuncia “non capisce”, sta rivelando — suo malgrado — la propria metafisica del linguaggio.
Il dibattito vero comincia quando si è costretti a esplicitare quale idea di comprensione intendiamo salvare e perché dovrebbe essere l’unica degna del nome. La conversazione, da quel punto in poi, diventa interessante.
In uno del panel più appassionati, Teresa Numerico motteggiava Fabio Ciotti, Claudio Paolucci e tutti i sostenitori a qualche titolo della capacità di comprensione degli automi: “ah, vedo che siete diventati tutti postmoderni!” – alludendo alla presunta “debolezza” della teoria del significato che l’AI abbraccerebbe. Ma, a mio avviso, se c’è una teoria del significato dietro l’AI, questa non è certo di natura ermeneutica. Semmai, circola il classico pragmatismo turi-wittgensteiniano e una generale semioclastia (negazione del segno). Però la battuta ci ha fatto molto ridere.