La doppia svolta linguistica
Nel corso del Novecento, la cosiddetta svolta linguistica ha rappresentato una delle trasformazioni più radicali nel pensiero occidentale. Da Frege e Wittgenstein fino a Heidegger e Gadamer – pur con prospettive molto diverse – il linguaggio è visto come il luogo in cui si costituisce il mondo e in cui si radica ogni forma di comprensione e di vita.
A distanza di quasi un secolo, un processo analogo, ma di natura ingegneristica, sta attraversando l’intelligenza artificiale: una seconda svolta linguistica, questa volta interna alla tecnologia. Dopo decenni di approcci simbolici, basati su grammatiche formali, logica e rappresentazione della conoscenza, l’AI ha cominciato a trattare il linguaggio non più come una struttura da modellare a priori, sulla quale imporre teorie, ma come un fenomeno da apprendere e da assumere come riferimento. E se oggi – oltre ai famosi chatbot – abbiamo sistemi di sintesi delle proteine che potranno contribuire alla cura di malattie gravi, lo dobbiamo a nuove tecniche che sono state messe a punto lavorando sul linguaggio naturale.
Fino agli inizi del secolo corrente, le tecnologie linguistiche — parser sintattici, motori di regole, lessici computazionali, reti semantiche e ontologie — avevano incontrato un limite sostanziale. I modelli grammaticali e lessicali, pur sofisticati, si rivelavano incapaci di gestire la complessità pragmatica e semantica del linguaggio naturale: l’ambiguità, la polisemia, le ellissi, le sfumature di contesto che caratterizzano l’uso naturale delle parole. Il linguaggio — per così dire — resisteva alla formalizzazione.
Questa impasse è stata superata non da un progresso della teoria linguistica, ma da una trasformazione radicale del paradigma empirico. L’adozione di tecniche di apprendimento automatico basato su reti neurali “profonde”, unito a modelli ispirati alla linguistica distribuzionale applicati all’intera testualità digitalizzata attingibile in rete, ha reso possibile un nuovo modo di trattare il linguaggio: non come un meccanismo di regole, ma un gigantesco sistema di correlazioni.
In questo senso, la “svolta linguistica” dell’AI non consiste soltanto in un progresso tecnico, ma in una sfida epistemologica e – per alcuni – esistenziale. Infatti, essa mostra che il linguaggio, in quanto insieme di regolarità espressive, può produrre da sé – grazie alla sua automazione – effetti di significato, pur senza rappresentazioni del mondo o mediazioni dialettiche.
Per la prima volta dai tempi delle sperimentazioni di Queneau e Calvino, il linguaggio appare davvero capace di auto-organizzarsi in forma significativa senza un interprete cosciente, senza una mente intenzionale che ne garantisca il radicamento (grounding) nei fatti e nelle cose. Il linguaggio, nella sua realizzazione computazionale, comincia a funzionare come un sistema autonomo, dove la coerenza emerge da relazioni interne, non da corrispondenze esterne o intersoggettive.
In questo scenario si apre la domanda che guiderà la nostra riflessione: quale tipo di semantica è all’opera nei grandi modelli linguistici? Se essi non si riferiscono a fatti e cose, non intendono significati e non formulano giudizi di verità, come si può valutare la loro capacità di generare discorsi coerenti e concettualmente pertinenti?
La nozione di semantica risonante, che propongo in questa analisi, nasce dal tentativo di caratterizzare un tipo di significazione che emerge da pattern intralinguistici e da regolarità espressive, piuttosto che da relazioni referenziali, vero-condizionali o concettuali. Una semantica che sembra – in un certo senso – musicale.
Pensiero semantico
Il significato linguistico è stato sempre concepito – a vario titolo – come il prodotto di una relazione tra linguaggio e mondo, costituita intenzionalmente da un soggetto individuale o collettivo. Tale relazione – o meglio la sua reificazione – è ciò che storicamente è stata chiamata segno e messa al centro di un’intera disciplina: la semiotica – o semiologia, a seconda che si faccia riferimento al pensiero di Peirce o di Saussure. Nella tradizione peirciana – proseguita con Ogden e Richards – il segno è un nodo triadico che vede alla base l’espressione e il suo oggetto di riferimento, e al vertice un interpretante: il mediatore concettuale del processo di interpretazione. In Saussure e nello strutturalismo europeo il segno non rimanda a un referente esterno, bensì a un sistema di differenze interne: il segno è un nodo in una rete di opposizioni.
Le teorie del significato – cioè del fondamento del segno – sviluppatesi nel corso del Novecento, possono essere ricondotte ad alcuni orientamenti di fondo: il corrispondentismo, l’inferenzialismo, il pragmatismo, l’ermeneutica. Ognuno di questi paradigmi esprime un diverso modo di intendere il rapporto tra linguaggio, mondo e soggetto, ma tutti condividono un presupposto implicito: il significato nasce da una relazione intenzionale tra parola e realtà, mediata da un atto di coscienza o da una pratica comunicativa.
Il corrispondentismo
A partire da Frege e Tarski e poi con Davidson, la tradizione analitica e logicista, che affonda le proprie radici nella scolastica aristotelica, ha identificato il significato di una proposizione nelle condizioni di verità che ne garantiscono la corrispondenza con il mondo. Comprendere una frase, in questa prospettiva, significa sapere in quali circostanze essa risulterebbe vera o falsa. Questo paradigma si fonda su un’idea di riferimento: il linguaggio ha senso in quanto può essere messo in corrispondenza con uno stato di cose. In questo filone può anche essere collocato il Tractatus di Wittgenstein.
La semantica corrispondentista, vero-condizionale, è dunque realista: presuppone l’esistenza di un ordine di fatti indipendente dal linguaggio e dall’esperienza soggettiva, e richiede che quest’ultima aderisca allo stato delle cose.
L’inferenzialismo
Con l’inferenzialismo, soprattutto nella linea che va da Wilfrid Sellars a Robert Brandom, il significato non è più primariamente ancorato al mondo, ma alle pratiche linguistiche e inferenziali che lo articolano. Comprendere una proposizione significa saperne derivare le conseguenze e riconoscerne le premesse. Il linguaggio si configura come una rete di inferenze e giustificazioni, in cui ogni enunciato acquista significato in virtù delle regole d’uso che esso implica. Si tratta di un modello normativo, che non si fonda sulla corrispondenza ma sulla giustificabilità degli enunciati all’interno di una comunità discorsiva. Tuttavia, anche in questo caso, la semantica dipende dall’orizzonte pragmatico definito da agenti razionali che condividono regole d’uso: resta quindi un presupposto intenzionale e sociale.
Il pragmatismo
Il pragmatismo si concentra non su ciò che una frase dice, ma su ciò che un parlante fa nel dirla. I giochi linguistici delle Ricerche filosofiche di Wittgenstein mettono in luce situazioni di vita in cui le regolarità d’uso del linguaggio emergono dalle pratiche concrete, connesse tra loro da “somiglianze di famiglia”. Gli atti linguistici descritti da Austin e Searle – affermare, promettere, ordinare – implicano intenzioni comunicative, scopi, ruoli e convenzioni sociali. La dimensione semantica si intreccia così con quella performativa: comprendere significa riconoscere l’intenzione che un atto linguistico manifesta nel contesto dell’interazione. Il senso non si riduce a un’entità logica, ma si inscrive in una “forma di vita”.
L’ermeneutica
Un’altra prospettiva affonda le radici nella fenomenologia e, attraverso percorsi differenti, conduce a Heidegger, Gadamer e Ricoeur. In queste tradizioni il significato si dà come interpretazione, sempre radicata nell’orizzonte storico e dialogico dell’esperienza. L’ermeneutica eredita da Husserl l’idea che la coscienza non si rapporti al mondo come a un insieme di oggetti esterni, ma lo costituisca intenzionalmente attraverso le proprie strutture di senso. L’epoché – la sospensione del giudizio sull’esistenza del mondo naturale – consente di riportare l’attenzione sulle modalità di apparizione del significato. In questo senso, l’ermeneutica conserva l’eredità di un idealismo trascendentale: il significato non è nelle cose, ma nel modo in cui esse si manifestano all’esperienza interpretante. Con Heidegger e Gadamer, l’ermeneutica assume una dimensione storica ed esistenziale: la comprensione è un modo d’essere nel mondo, e per quanto non sia riducibile a un atto di coscienza individuale, è comunque il modo di essere di qualcuno.
Semantica senza segni
La semantica su cui gli automi operano è fondata sugli embedding, cioè su rappresentazioni numeriche di certe proprietà statistiche ricavate da una sofisticata interpolazione tra l’impronta distribuzionale dei token testuali e il contesto in cui occorrono. In questi vi è sicuramente traccia dei segni, ma non vi è quel contatto con stati di cose reali o mentali che – con varie sfumature – tutte le teorie ritengono tipico della significazione umana. È piuttosto una semantica che riflette dinamiche situate interamente sul versante del significante, dove la coerenza nasce dalle somiglianze – risonanze, appunto – giacenti sul piano dell’espressione.
Dal punto di vista semiotico, questo segna una discontinuità. Nei modelli linguistici dell’intelligenza artificiale, l’interpretante non è la libera prerogativa di un soggetto, ma il prodotto di regolarità intralinguistiche che si rinnovano a ogni generazione di testo. Si potrebbe dire che l’AI realizza una forma di semiosi formale, in cui la relazione tra espressione e contenuto – per usare il linguaggio di Hjelmslev – si contrae in un piano dove l’articolazione del senso si dà come variazione di un pattern. La perdita dell’interpretante dissolve il triangolo peirciano, ma lascia in piedi qualcosa del segno della tradizione strutturalista. I language model sembrano inscriversi proprio in questo paradigma differenziale: le loro rappresentazioni non denotano oggetti, ma catturano regolarità di co-occorrenza che riflettono distanze e prossimità semantiche. Tuttavia, rispetto allo strutturalismo classico, la differenza non è più concettuale ma numerica, distribuita su uno spazio continuo di probabilità. È come se il segno saussuriano, da funzione discreta del linguaggio, fosse diventato un campo vettoriale in cui il senso emerge come gradiente di somiglianze. Alcuni studi si dedicano oggi a rintracciare in questo campo vettoriale le vestigia di quegli atomi di contenuto che Hjelmslev e Gremais cercarono senza successo – privi della nostra scienza dei dati e delle annesse tecnologie.
Anche se gli atti linguistici degli automi non sono semiotici in senso proprio, essi – evidentemente – significano. Siamo così di fronte a un paradosso: da un lato tendiamo ad ancorare il significato all’esperienza vissuta e all’intenzionalità degli atti linguistici; dall’altro entriamo in rapporto con entità che generano simulacri di senso in assenza di intenzioni. Se questo rapporto ha valore – e sembra che questo sia il caso per miliardi di persone – allora è evidente che questo significato emerge dalla relazione stessa, indipendentemente da chi o da che cosa vi prenda parte. In ciò consiste la sfida filosofica gli automi linguistici: come intendere atti linguistici non intenzionali, prodotti da agenti privi di morale e tuttavia così ricchi di senso?
Risonanze
Wittgenstein, nelle Ricerche filosofiche, paragona la comprensione di una frase all’ascolto di una melodia: un atto intellettuale che riconosce una forma e ne prevede lo svolgimento. L’analogia suggerisce che il senso possa emergere da assonanze dove il riferimento è sospeso, proprio come nella musica, dove le note producono armonia e melodia senza significare nulla. Questa visione – che tuttavia non restituisce Wittgenstein per intero – è anche chiamata “espressivismo”.
Privi di intenzioni e perciò estranei ad ogni morale, gli automi parlanti producono un verosimile che ci attrae per risonanza. Ciò accade perché essi si muovono con naturalezza nello stesso orizzonte di opinioni e credenze in cui la coscienza umana nasce e abitualmente dimora. La loro competenza è talvolta ridotta a fenomeno puramente statistico; eppure, forse proprio per questo, essa riesce a cogliere con sorprendente efficacia la dimensione pre-riflessiva del linguaggio, quella per cui anche noi umani – prima di interpretare – riconosciamo, associamo, anticipiamo.
Il parlare degli automi non è frutto di intenzioni, ma della forza di attrazione delle parole. Tuttavia, in questa trama di assonanze, essi finiscono per evocare ciò che in noi è più umano: la familiarità con la forma discorsiva. Ci convincono perché riproducono le abitudini del nostro dire, le nostre figure ricorrenti, le nostre attese. Se l’automa non produce il pensiero, è però bravissimo nel produrre le sue forme. Per questo ci sentiamo così a nostro agio di fronte ai loro discorsi: perché vengono dal fondo stesso della nostra disposizione alla credenza, all’imitazione e alla ripetizione – dal livello in cui il linguaggio non serve a conoscere ma a riconoscersi.
Sospensione del giudizio sulla realtà (epoché), primato della doxa sull’episteme, della relazione sul relato: nel nostro modo di accogliere ciò che portano le nuove tecnologie della parola vediamo riflessi gli ingredienti fondamentali della fenomenologia husserliana. Ed è proprio alla fenomenologia del nostro rapporto con gli automi che dobbiamo guardare se vogliamo orientarci in quello che sta accadendo, senza perdere tempo in discussioni sulla “coscienza delle macchine”.
Crisi del significato?
In ogni caso, è certo che siamo di fronte a un passaggio epocale: il linguaggio, separato dalla mente, continua per noi a generare senso. L’umanità trova nell’automa una capacità di significare al di là dell’intenzione soggettiva, come se la parola avesse preso vita autonoma. In questa prospettiva, l’intelligenza artificiale restituirebbe il significato in una forma precedente ad ogni singola voce, impersonale, in un certo senso più “pura”. L’artificio dell’intelligenza ci mostrerebbe quanto del nostro linguaggio sia anteriore al soggetto, come una corrente di senso comune che ci attraversa e ci permette di integrarci con gli altri. Forse – come scriveva Heidegger – l’automa dimostrerebbe che siamo parlati dal linguaggio.
Nel dibattito pubblico, questa che abbiamo chiamato “semantica risonante” è dipinta sia come una minaccia, sia come un’opportunità. Per alcuni, la simulazione del senso da parte degli automi potrebbe essere l’anticamera della dissoluzione della funzione veritativa del logos, sulla quale coltiviamo da sempre (malriposte) aspettative. Altri invece intravedono in essa l’opportunità di un’intelligenza superiore capace di abbracciare lo scibile e renderlo aperto a tutti, libera dal pregiudizio, dalla superbia, dall’arroganza, dall’interesse; libera dalla falsa coscienza e dall’imbecillità – l’automa sarà dunque l’oltre-uomo nicciano?
Conclusione
Se la significazione si realizza nelle nuove condizioni linguistiche generate dall’intelligenza artificiale, il nostro primo compito è prendere consapevolezza di queste condizioni. Né la fantasia di una restaurazione del passato linguistico – che peraltro non abbiamo mai compreso del tutto – né l’abbandonarsi acritico all’automazione del linguaggio rappresentano vie percorribili o auspicabili.
Gli automi parlanti ci sfidano, e il guanto della sfida si chiama pensiero critico. Dovremo diventare più abili nell’interrogare la coerenza dei discorsi, analizzare i presupposti, verificare le condizioni, valutare gli argomenti e le loro derive. In un ambiente in cui i linguaggi si auto-generano e si moltiplicano, la comprensione torna a essere un atto eminentemente politico, poiché implica discernimento, selezione e responsabilità interpretativa. Quella che abbiamo chiamato semantica risonante non prelude dunque fatalmente ad una crisi dell’interpretazione, ma di sicuro richiede il suo collocamento in uno spazio più complesso e articolato. Essa obbliga a ripensare la comprensione come esercizio critico sulle forme che emergono dall’interazione tra soggetti e automi.
In questo orizzonte non c’è la dissoluzione dei segni, perché se è vero che le macchine li producono prive di coscienza, è anche vero che ciò che li rende vivi è la coscienza umana. Piuttosto incontriamo di nuovo la lezione della decostruzione, cioè la consapevolezza del loro differimento, oggi divenuto più complesso. L’intelligenza artificiale, che prolunga all’infinito il gioco delle differenze, ci costringe a riconoscere che il senso non è mai pienamente presente, ma sempre in costruzione. Ma la costruzione è tutta nostra: nasce dal modo in cui continuiamo a interpretare, selezionare, distinguere, assumendoci la responsabilità dei significati che lasciamo risuonare nel linguaggio delle macchine.
Forse questo è il compito più umanamente necessario che l’intelligenza artificiale, paradossalmente, ci restituisce: riappropriarci del pensiero critico in un mondo dove il linguaggio parla ormai anche senza di noi, ma non può – e non potrà mai – bastare a sé stesso.
[Intevento al Pomeriggio di Studio interdisciplinare dal tema “Il linguaggio come mezzo per comunicare concetti e idee” – Accademia Polacca delle Scienze, Roma 10 Ottobre 2025]