Automa, ragioni!

Filosofo, ragioni! dice Schaunard a Colline nel finale de La bohème, col gusto della platitude tipico di certi libretti pucciniani. Il poeta verseggia, il pittore dipinge, il musicista suona, e il filosofo – appunto – ragiona. Ma mentre gli altri bohemien fanno qualcosa di percettibile, il lavoro di Colline è impalpabile, umbratile, astratto. Come possiamo essere sicuri che le cose che proferisce lo squattrinato intellettuale siano in effetti ragionamenti? Cosa le distingue – esattamente – dai versi del poeta Rodolfo?

Il ragionamento è l’abilità dell’intelletto di elaborare informazioni, stabilire relazioni tra esse e giungere a conclusioni coerenti e giustificate. Esso consiste nel processo mediante il quale si formulano inferenze a partire da un insieme di premesse o dati. In altre parole, si tratta di un meccanismo formale, cioè esplicitabile, che consente di transitare dal già noto al non ancora noto, dalla specificità alla generalità, o viceversa, assicurando coerenza e validità in ciascuna tappa del percorso. Dunque potremmo dire ‘ragioni!‘ a chiunque (o qualsiasi cosa) si mostri in grado di compiere tragitti di questo tipo.

Il ragionamento è algoritmico, ma somiglia più a una cassetta degli attrezzi che a un dispositivo a orologeria. Infatti, conosciamo (e pratichiamo) tre tipi di ragionamento:

  • Deduttivo: Parte da principi generali (assiomi, osservazioni) per arrivare a conclusioni particolari: tutti gli uomini sono mortali, Socrate è un uomo, dunque è mortale. Esso garantisce, se le premesse sono vere, la verità della conclusione. È il fondamento della logica formale e della matematica.
  • Induttivo: Consiste nell’elaborazione di generalizzazioni partendo dall’osservazione di casi specifici: i cigni che vediamo sono bianchi, dunque tutti i cigni sono bianchi.  Pur essendo estremamente utile nelle scienze empiriche, la validità delle conclusioni indotte è di natura probabilistica e mai certa.

  • Ipotetico: (detto anche abduttivo) Mira a formulare la migliore spiegazione di un fenomeno osservato: tutti i cretesi sono mentitori, Epimenide è un mentitore, dunque è cretese. Esso si configura come un processo inferenziale che, pur non garantendo una verità certa, offre una plausibile interpretazione di ciò che è osservato. Si noti che, deduttivamente parlando, l’abduzione è un errore (affermazione del conseguente). Si noti anche – en passant – che si tratta del ragionamento più comune nella vita quotodiana.

Dunque per Colline si tratta di giustificare le proprie affermazioni riconducendole a un tipo di inferenza ed essendo poi pronto a difenderle dalle immancabili confutazioni: può aver scelto assiomi irragionevoli o può averli applicati male, aver fatto scarse osservazioni, non aver considerato spiegazioni alternative. Per Rodolfo le cose vanno diversamente: per mediocri che possano essere, i suoi versi sono inconfutabili. Conclusione: ciò che caratterizza un ragionamento è la razionale discutibilità. Socrate, prima di morire come la deduzione prevedeva, l’aveva detto.

Ma veniamo a un tema che ultimamente anima il dibattito sull’intelligenza artificiale. I rinomati costruttori dei Large Language Models si pregiano di aver infuso nei loro automi parlanti una scintilla di ragionamento – anche per lavare, almeno nel marketing, l’onta di essere stati chiamati “pappagalli stocastici”. Si tratterebbe delle cosiddette Chain of Thoughs (catene di pensiero) che consistono fondamentalmente nel fatto che l’automa non risponde di primo acchito, ma generando nella sua ‘mente’ una serie di passaggi intermedi che possono anche essere osservati non senza un certo spasso: ho capito che l’utente chiede questo – aha! ho trovato qualcosa – no aspetta! questo è più interessante – … Molti osservatori e osservatrici – citiamo un recente articolo di Melanie Mitchell –  obiettano che non si tratti di “vero ragionamento” ma solo di imitazione di schemi desunti da certi dati di addestramento supervisionato. Il Colline automatico insomma produrrebbe le sue catene di pensiero per mera assonanza, come se fosse Schaunard che suona una chanson.

In effetti, le spiegazioni che l’intelligenza aliena dell’automa ci offre non sono autentiche spiegazioni, ma loro simulacri. Quando l’automa dice: ho ragionato così e così, quel “così e così” ha lo stesso statuto epistemico di ciò a cui si riferisce. In altre parole, quella spiegazione non è causale, nel senso che non rivela effettivamente il modo in cui l’automa ha generato la sua dimostrazione, tutt’al più illustra come un autentico ragionatore avrebbe potuto procedere. C’è molta differenza? Beh sì, soprattutto quando le cose non vanno per il verso giusto e bisogna capire perché. Per dare una spiegazione, bisogna collocarsi su un diverso piano di discorso, anche perché – spiegava Einstein – un problema non si risolve allo stesso livello in cui si è generato. Ecco: il “ragionamento” della Chain of Thoughs è fatto invece della stessa materia di ciò che intende spiegare.

Allora gli automi non possono ragionare? No: la Chain of Thoughs non è certo l’unica tecnica sperimentata dall’Intelligenza artificiale nei suoi quasi settanta anni di vita. L’automated reasoning su cui due o tre generazioni di computer scientist hanno lavorato fino a ieri è in effetti tutt’altra cosa. Si tratta dell’applicazione di procedure nelle quali si può guardare dentro, perché la conoscenza è rappresentata in modo simbolico e le inferenze vengono da regole. Parliamo insomma di logica, non di analogia.

Sappiamo bene che navigare l’oceano delle vicende umane con la navicella della logica è un’impresa disperata, e che i recenti progressi dell’Intelligenza artificiale vengono proprio dall’aver scelto altri mezzi. Ma quello della logica è uno sguardo che l’Intelligenza artificiale deve in qualche modo recuperare, se vuole davvero parlare di ragionamento.