
Esistono affermazioni vere che, dicendo della verità solo una parte, riescono benissimo nell’impresa di offuscarla. La narrazione scotomizza i fatti: tutto ciò che non la supporta è espunto e dimenticato. Fatalmente fuorvianti, le semiverità riflettono interessi, ideologie, o più semplicemente i conati dell’Io. È il caso di chi insiste — anche con accademica arroganza — nel chiamare i sistemi di AI generativa basati su Large Language Model (GPT et similia) “pappagalli stocastici”.
L’icastica espressione di Emily Bender et al. solleva una questione reale: l’assenza di grounding, cioè il fatto che questi modelli non “sanno” di che cosa parlano. Ma da lì a ridurli a semplici ripetitori di frasi fatte ce ne passa. È come dire che Monteverdi scriveva madrigali applicando nota per nota le regole del contrappunto, o che Shakespeare metteva in fila parole grammaticalmente corrette. Formalmente vero, concettualmente fuorviante. Dire che una AI linguistica funziona generando distribuzioni di probabilità, cioè “predicendo il prossimo token” è dare una descrizione molto parziale del meccanismo interno. È come dire che un cervello è solo un insieme di neuroni che aggiornano potenziali di membrana, o che una musica è una sequenza di note. Non è falso, ma non aiuta a spiegare né l’intelligenza né la coscienza — e tantomeno perché qualcuno piange ascoltando il Lamento della ninfa.
Chi riduce tutto il discorso a meri processi stocastici tirando in ballo i modelli di Markov (si è anche parlato di Markov on steroids) dimostra di non cogliere che la differenza non è soltanto quantitativa — oggi abbiamo ben altro rispetto a quello con cui si divertiva Claude Shannon già negli anni ’40 — ma concettuale. Le catene di Markov, infatti, sono modelli probabilistici in cui ogni stato dipende solo da un numero limitato di precedenti: una forma di memoria a breve termine, come leggere una frase ricordando appena le ultime tre parole. I LLM non generano testi tramite transizioni locali, ma ricalcolano dinamicamente l’intero contesto a ogni passo, grazie agli ormai celebri meccanismi di attenzione. Questi, in fase di inferenza, permettono al modello di attribuire rilevanza differenziale a ogni elemento del contesto, anche molto ampio, determinando volta per volta quali orientino in modo più forte la generazione. In questa operazione non entrano regole o rappresentazioni, ma risonanze quasi musicali che emergono da configurazioni latenti: attrattori dinamici in cui si condensano entità, concetti e relazioni incorporati nella geometria di un enorme spazio vettoriale. Ora che si inizia a guardarci dentro, di questi attrattori se ne vedono centinaia di migliaia. Dalla non linearità delle loro interazioni emergono simulacri di senso.
Non si tratta dunque di una imitazione pappagallesca della coerenza linguistica, ma della costruzione progressiva di una traiettoria di senso forse ondivaga ma di lunga gittata. Il “prossimo token” è funzionale a un progetto generativo a suo modo coerente che si delinea passo dopo passo nel contesto. Il sistema lo seleziona non perché consegue statisticamente i precedenti, ma perché fa parte di una struttura latente più ampia – una frase, un paragrafo, una risposta, un argomento.
Se le cose stanno così, allora il problema si sposta sul piano di ciò che abbiamo chiamato “progetto generativo”. Coerente a suo modo, sì — ma rispetto a cosa? Ai testi impiegati nell’addestramento iniziale? Ai precetti inculcati nella fase di “allineamento” ai valori desiderati? Alle sollecitazioni dell’umano interlocutore? Nei corpora di formazione c’è di tutto: non solo turpitudini, ma anche genuine contraddizioni, tutte ben formate e grammaticalmente impeccabili. L’allineamento, supervisionato da migliaia di lavoratori invisibili, resta peraltro una procedura opaca, tanto da offrire a Trump l’occasione di denunciare che certi modelli sono evidentemente allineati ai suoi oppositori e dunque affetti dal terribile morbo del woke. La coerenza dei modelli non è riducibile alla statistica — si è detto — ma, volati via i pappagalli stocastici, c’è da chiedersi: con che razza di uccelli abbiamo a che fare?
Io direi che siamo davanti a corvi epistemici. A differenza del pappagallo, il corvo non ripete: osserva, intuisce, pianifica, ma con una ragione opaca al nostro sguardo. Nella celebre poesia che ne porta il nome, Edgar Allan Poe paragona il corvo a un “demone che sogna”. Esso dice una sola parola: nevermore — mai più. Anche i corvi epistemici oggi ci dicono che nulla sarà più come prima. Ma come per ogni profezia che si rispetti, il destino si gioca nella sua interpretazione.