
È opinione diffusa — da sempre — che l’Intelligenza artificiale, oggi sotto la specie dei Large Language Model generativi (LLM), non sia capace di vera semantica. Cioè che non possa usare le espressioni linguistiche — parole o locuzioni — così come facciamo noi umani, con piena comprensione del loro significato. Ma se si cerca nella storia del pensiero filosofico e linguistico, di vere semantiche se ne trovano fin troppe, così come si trovano dichiarazioni di resa davanti alle difficoltà che ciascuna di esse presenta. Dunque cosa intendiamo noi umani per “vera semantica”, e su che base la neghiamo così perentoriamente ai nostri amici automi?
I realisti pensano che il Mondo presenti entità e proprietà a cui noi semplicemente attacchiamo nomi, un po’ come si dice anche nella Genesi. Lo facciamo con una certa libertà, è vero, ma si tratta di una libertà vigilata da reale. Una rosa è una rosa è una rosa, come diceva Gertude Stein. Gli idealisti sostengono invece che la semantica funziona esattamente al contrario: sono i capricci del pensiero che danno forma al Mondo, magari con l’aiuto di qualche Spirito. Poi arriva Wittgenstein che dice che il significato di una parola è il suo uso nei “giochi linguistici”, le cui regole si stabiliscono giocando. Non c’è essenza nascosta dietro la parola “sedia”, né c’è alcuna ideazione, c’è solo il modo in cui la usiamo quando parliamo di sedersi, accomodarsi, o colpire qualcuno in una rissa al ristorante.
Questa visione per così dire pragmatica oggi acquista un fascino particolare: può spiegare in certa misura perché alcuni modelli empirici (non voglio dire statistici) del linguaggio, come i LLM, possano funzionare così bene. Grazie a una capacità senza precedenti di guardare alle correlazioni nei testi, essi mappano con precisione millimetrica i “giochi” in cui le parole entrano — almeno quelli di cui si trova traccia scritta. Così possono cogliere il significato di vocaboli molto vaghi (polisemici) grazie al contesto in cui occorrono: un tiro di sigaretta / un tiro di vento / un tiro a quattro. Qui gli automi fanno quello che i lessicografi sognavano da sempre: registrare usi reali, misurare frequenze, quantificare collocazioni. È un po’ come avere milioni di linguisti instancabili (e sottopagati) che annotano ogni variazione d’uso di una parola nel suo contesto naturale.
Dunque Wittgenstein può mettere a tacere gli scettici? No, e neanche vorrebbe: anche lui sapeva che nel linguaggio c’è qualcosa di più della superficie espressiva. Dobbiamo ricorrere alla conoscenza del Mondo (grammatica profonda, la chiama) per partecipare a un gioco metaforico come: “ho mangiato una bistecca di piombo”. E poi, non tutte le parole giocano: ci sono anche quelle che lavorano sodo. Termini giuridici, scientifici, tecnici. “Torsione plastica” in ingegneria meccanica non si presta a molte ludiche invenzioni. Il suo significato non emerge dal modo in cui gli ingegneri la usano durante le riunioni o a mensa: è definito da norme, glosse, equazioni. Qui non siamo nel regno della semantica distribuzionale, ma in quello degli assiomi di significato, che piacciono ai logici di tutte le epoche e agli ingegneri che devono costruire ponti senza tante chiacchiere.
Questi due mondi — quello fluido e contestuale del linguaggio ordinario e quello rigido e formale del linguaggio tecnico-specialistico — coesistono seamless nel nostro parlare quotidiano. Ecco il punto: esistono modi assai diversi di connettere le parole al dominio extra-linguistico dei fatti, delle cose, dei pensieri. Alcuni di questi modi emergono dinamicamente dagli usi — ed è qui che i LLM sono a loro agio — altri devono essere scolpiti in regole e rappresentazioni formali, altri ancora chissà.
La comprensione di una descrizione formale non può fare a meno di qualche capacità di inferenza basata sugli assiomi di significato. Servono dunque strutture di conoscenza osservabili e la capacità di ragionarci simbolicamente. Cioè: tutto l’armamentario della AI classica, che certi guru della AI generativa come Geoffrey Hinton vorrebbero dismettere come vecchia ferraglia, pur senza essere in grado di dire come e fino a che punto si possa ricostruire per induzione dai dati.
Dunque ha ragione chi — per converso — dismette la semantica dell’AI generativa? No, ma non perché se ne possa salvare buona parte — siamo tutti pappagalli stocastici, qualcuno dice pure. Ma perché la semantica, cioè la pratica sociale di scambiare segni, non è data una volta per tutte. Esistono modi diversi di connettere le parole al dominio extra-linguistico dei fatti, delle cose, dei pensieri, si diceva prima. Nessuno può affermare che questi modi siano tutti già dati, o che spetti a qualcuno in particolare stabilire quali siano possibili e leciti.
La semantica non è un dono divino dell’Homo sapiens, ma un equilibrio dinamico tra segni, inferenze interpretative di vario tipo e azioni concrete, che si stabilisce tra una pluralità di agenti. Quando questo equilibrio emerge e si consolida — sempre provvisoriamente — ecco che c’è semantica. E se nella società oggi accogliamo — e li accogliamo — gli automi linguistici, la vera semantica dell’AI è quella che ci permette di interagire con loro in modo efficace. Dunque non è questione di decidere se gli automi “abbiano” o “non abbiano” semantica, come se si dovesse trattare di una ghiandola di silicio che secerne qualcosa. È questione di riconoscere che la semantica è un processo, e che oggi in quel processo ci sono anche loro.