Il problema epistemico dell’oracolo artificiale

ULTIMA ORA: Google perde cento miliardi in borsa per una risposta sbagliata di Bard, il sistema che dovrebbe contrastare i piani di Microsoft per integrare ChatGPT al motore di ricerca Bing e conquistare il Web.

Bard ha risposto in modo inaccurato dicendo che il telescopio [Webb] aveva scattato la prima foto di un pianeta fuori dal sistema solare. La prima foto di un pianeta fuori dalla Via Lattea è stata scattara (sic) dal telescopio Very Large nel 2004.
(ANSA)

Dopo la stagione del bullismo ai danni di ChatGPT, potrebbe dunque aprirsi quella del dileggio del “bardo” di Google, il quale pretende, nonché di conversare amabilmente, anche di presentarsi a noi come oracolo. Che la cosa sia tecnicamente impervia appare fuori dubbio: benché fluenti nell’eloquio, questi sistemi di intelligenza linguistica generativa sono totalmente ignari di ciò che dicono. Ben difficilmente un ulteriore aumento delle capacità computazionali (e annessi costi energetici) porterà consapevolezza e introspezione nel seno di quelli che la comunità scientifica chiama, non senza ironia, “pappagalli stocastici“, cioè sistemi che ricombinano ciò che hanno ascoltato (o meglio: letto) in modo puramente imitativo. Ma oltre alle questioni algoritmiche (metà delle quali pure basterebbero) che mostrano alle menti chiare come lo scrambling di Microsoft e Google sull’IA linguistica sia una contesa di marketing giocata davanti alla credulità dei mercati, c’è un motivo di fondo per cui la trasformazione dei motori di ricerca (search engine) in sistemi di risposta alle domande (question answering) non è cosa che possa avvenire nelle fucine dell’informatica.  Si tratta dei presupposti teorici della conoscenza, cioè, come dicono i filosofi, dell’episteme.

La classica ricetta filosofica della conoscenza come “credenza giustificata in proposizioni vere” contiene quattro ingredienti fondamentali:

  • una proposizione: un enunciato che, in un determinato stato di cose (mondo) può essere vero o falso (“a Parigi oggi piove”)
  • una credenza: un atteggiamento verso la verità della proposizione nei mondi che riteniamo possibili (“ritengo che a Parigi oggi piova”)
  • una giustificazione: ciò che supporta la credenza (“ho visto in televisione che a Parigi oggi piove”)
  • la verità: l’aderenza (corrispondenza) della proposizione al mondo attuale (“è proprio il caso: oggi a Parigi piove”)

Così come, senza uovo, la pasta “alla carbonara” diventa “alla gricia”, in assenza del quarto ingrediente, cioè della verità, il piatto che cuciniamo non è più “conoscenza”, ma “credenza”, e la pentola non è più quella dell’episteme ma quella della doxa.  Benché non priva di difetti (Edmund Gettier ne ebbe da ridire), la ricetta classica può fornire la base per comprendere la difficoltà di trasformare i pappagalli stocastici in oracoli affidabili.

I pappagalli sono dei formidabili enunciatori, generatori di frasi perfettamente tornite e ricche di contenuti proposizionali. Possiamo far astrazione dalla questione psicologica se credano effettivamente in ciò che dicono: ChatGPT si affanna a precisare che, come automa, non ha intenzioni e volontà, dunque non può genuinamente mentire, pertanto la questione non si pone. Ma, quanto alle verità e alle giustificazioni, i pappagalli non se la cavano meglio degli umani, e hanno ben poco da rivendicare.

Per quanto risuoni ancora quel quid est veritas? con cui Pilato confessò al Figlio la sua umana finitezza, qualunque persona sa attribuire, nell’intimo, un valore di verità ad un gran numero di enunciati in diversi ambiti e contesti, in base alle più varie giustificazioni. Le enunciazioni scientifiche vengono valutate (dagli scienziati) in base a protocolli sperimentali più o meno robusti e collaudati. Molte enunciazioni fattuali della vita quotidiana si giudicano usando il cervello e tutto il resto del corpo: se non credo che piova, ma piove, mi bagno. Per lo più, tuttavia, ciò che riteniamo comunemente vero ci è tramandato: è vero che la Luna orbita attorno alla Terra, ma solo pochissimi possono dire di averlo visto coi propri occhi. Appena lasciamo il porto dell’immediatezza, navighiamo a vista nell’oceano della doxa, con buona pace dei positivisti, e i pappagalli vociano accoccolati sulle nostre spalle.

La differenza fondamentale tra un motore di ricerca e un generatore di risposte è questo: il primo non prende impegni epistemici, il secondo sì. Il giudizio di verità su quanto scritto nelle pagine che un search engine reperisce a fronte di una domanda è piena responsabilità di chi apre quelle pagine.  Viceversa, la risposta che l’automa ci presenta contiene il giudizio dell’automa stesso, e per la proverbiale credulità dell’essere umano, tale giudizio ha una seria chance di essere accolto come oracolare, cioè come portatore di una superiore conoscenza. Ma dal momento in cui il dato a cui accede l’automa è comunque il frutto storico dell’umano discernimento dove la verità è sempre in questione, l’automa che ci vende conoscenza non ha altro da offrirci, in realtà, che una marmellata di credenze.    

Ora, non si tratta di capire se sia possibile potenziare gli automi per metterli in grado di fornire risposte sempre più giustificate, né se esista la possibilità di eseguire algoritmicamente il lavoro col quale costruiamo le nostre credenze. Si tratta piuttosto di porre una domanda più basilare: esiste un solo modo per farlo? Proprio nel modo in cui si orienta nell’esperienza si esprime l’umanità di ciascuno. Si tratta di una questione esistenziale, cioè inerente la libertà dell’individuo, non di un problema di ingegneria. L’idea di mettere questa libertà, che il search engine ancora bene o male preserva, nella disponibilità di un automa surrettiziamente epistemico appare oggi come l’ultimo bulimico delirio dei monopoli digitali. I comici fallimenti di Bard e ChatGPT, per ora, appaiono rassicuranti.