
La generazione linguistica [degli automi] non è una replica del passato, ma una costruzione creativa del presente: una forma di inferenza contestuale, non deduttiva né induttiva. Una nuova semiotica computazionale, dove il senso non è calcolato ma messo in scena.
(Enrico Maestri, Contro la riduzione bayesiana dell’intelligenza artificiale)
Avevo in mente tornare sul tema del ragionamento degli automi, quando mi sono imbattuto in questo articolo, dove Enrico Maestri dice – molto bene – tante delle cose che avrei voluto scrivere. In più, essendo l’autore un professore di filosofia del diritto che si occupa anche di regolazione del digitale, Maestri mette in relazione il tema con quello attualissimo dell’etica dell’AI. Insomma leggetelo, e vogliate gradire questa mia breve chiosa.
In estrema sintesi il punto è questo: a quale dei tre tipi di ragionamento che conosciamo – deduzione, induzione, abduzione – somiglia il ragionamento degli automi? Questa non è solo una curiosità formalistica, ma una chiave per comprendere meglio quello che sta accadendo attorno a noi con l’avvento della AI generativa.
Ricordiamo brevemente che, data una regola del tipo se .. allora (implicazione materiale), che in logica si rappresenta normalmente come P → Q (P = antecedente, o premessa, Q = conseguente, o conclusione)
- La deduzione è l’inferenza della conseguenza dalla premessa (se piove la strada si bagna, e piove: quindi la strada si bagna)
- L’induzione è l’inferenza della regola dalla concomitanza di premessa e conseguenza (ogni volta che piove la strada si bagna, dunque si tratta di una regola)
- L’abduzione è l’inferenza della premessa dalla conseguenza: (la strada è bagnata, quindi ha piovuto)
Sembra abbastanza chiaro che il training, cioè il processo di costruzione della “mente” dell’automa, sia un processo di apprendistato di tipo induttivo. Si tratta infatti di fargli capire la relazione tra output e input, presentandogli molti esempi della loro concomitanza. Ma cosa avviene quando l’automa, con ciò che ha appreso, va per il mondo a rispondere alle nostre domande? Su questo punto ci si divide tra chi assimila l’inferenza automatica a una deduzione e chi la vede piuttosto come una abduzione.
Sappiamo che, in una rete neurale, le regole costruite nell’apprendistato non hanno la forma dell’implicazione materiale, bensì costituiscono, nei suoi parametri, una funzione probabilistica che possiamo immaginare nella forma:
P (output | input) = la probabilità di ottenere l’output dato l’input
cioè, nell’esempio, la probabilità che la strada si bagni dato che piove.
I sostenitori della deduzione rappresentano la formula di cui sopra come:
(a) input ⇝ output, dove ⇝ significa causa probabile di
e vedono l’inferenza come una deduzione probabilistica: osservo l’input, ne traggo l’output come (probabile) conseguenza.
I sostenitori dell’abduzione la rappresentano invece come:
(b) output ⇝ input, dove ⇝ significa causato probabilmente da
In questo caso, l’inferenza dell’output è un’ipotesi sulla probabilità che l’input l’abbia causato.
Premesso che nella rete neurale non esiste realmente nessuna delle due rappresentazioni, e che stiamo solo parlando di interpretazioni logiche di ciò che avviene al loro interno, la domanda è: che differenza c’è tra le due interpretazioni – se ce n’è alcuna?

Immaginiamo il semplice caso di una rete neurale che sia stata addestrata a distinguere figure di gatti da figure di cani, associando le loro immagini a opportune etichette. L’input è un’immagine, l’output è una etichetta – CAT o DOG, in questo caso. La magia della rete neurale – e la sua sostanziale differenza rispetto a un database – consiste nel fatto che riesce ad associare una etichetta anche a una immagine diversa da quelle che ha osservato nel training. Cosa accade ad esempio quando mostriamo all’automa un’immagine come questa?

Se l’automa dovesse applicare una deduzione:
⇝ ?
dovrebbe considerare l’immagine di input idonea a fungere da premessa una regola di tipo (a). Ma poiché questa immagine l’automa non l’ha mai vista prima, quel giudizio di idoneità sarebbe già la classificazione che esso deve produrre. Il modello deduttivo quindi non dice niente di nuovo sul processo di inferenza: dice solo che avviene.
Se invece l’automa adottasse una regola di tipo (b)
? ⇝
l’incognita non sarebbe più la conseguenza della regola ma la sua premessa. L’immagine mai vista prima non dovrebbe innescare alcuna deduzione, ma solo dare avvio a un processo euristico, a ritroso, verso ciò che potrebbe averla causata – in tal caso, l’intenzione di rappresentare un gatto. Si tratterebbe cioè, per l’automa, di formulare un’ipotesi interpretativa, cioè appunto fare un’abduzione. Ora si consideri che, al contrario della deduzione, l’abduzione non offre garanzie logiche (la strada può essere bagnata per qualsiasi motivo, chi ha fatto quel disegno voleva in realtà rappresentare un opossum, eccetera), e questo spiegherebbe in modo naturale perché tante volte l’automa prenda fischi per fiaschi.
Formalismi a parte, guardare all’AI con la lente dell’abduzione ha un senso profondo, che l’articolo di Maestri coglie molto bene. L’automa che fa ipotesi si muove nello spazio ermeneutico, cioè dell’interpretazione, lo stesso che noi frequentiamo da sempre coi nostri dubbi e i nostri errori, con le cento indecisioni, le cento visioni e revisioni dei celebri versi di Eliot.
Oltre ad essere il motore della scienza (con buona pace di positivisti e data scientist), l’abduzione è il fondamento della nostra vita linguistica: ogni parola pronunciata o ascoltata richiede ipotesi – spesso sbagliate – sul mondo e sugli altri, siano questi anche automi. E se è vero che il linguaggio è ciò che ci fa umani, è facile vedere come l’abduzione sia il più umano dei ragionamenti. Il fatto di dover affrontare il mondo a forza di ipotesi, tentativi ed errori fu – non a caso – il tema di fondo di tanta filosofia novecentesca, tema le cui note risuonano ancora.
Possiamo essere d’accordo sul fatto che gli automi non pensano come noi, che non hanno coscienza, che non usano la “nostra semantica” (anche se non sappiamo cosa sia), eccetera eccetera, ma dobbiamo riconoscere che come noi si muovono nello spazio dell’incerto. Lo fanno in un modo tutto loro, sicuramente alieno, ma, proprio perché incerto, autenticamente creativo.