Empiricidio e accessibilità idiomatica. Note sull’irruzione dell’IA nell’ecosistema della conoscenza
di Angelo Vannini
Pubblichiamo qui un estratto – tradotto dal francese all’italiano dall’autore stesso – dell’introduzione alla seconda sessione del seminario del 2025 di Angelo Vannini al Collège International de Philosophie di Parigi. Il seminario di quest’anno, intitolato «L’urgence de la traduction», esplora come il pensiero della traduzione possa aiutare a comprendere i mutamenti attuali che interessano l’ecosistema della conoscenza, con particolare attenzione agli effetti legati alla diffusione dell’intelligenza artificiale.
NB: nel testo che segue l’autore oppone le espressioni «creazione idiomatica» e «generazione idiomatica» per designare, con la prima, i testi realizzati da un essere umano, e con la seconda i prodotti generati da un modello artificiale di linguaggio.
Come ormai sapete, spesso nei miei seminari con il termine «traduzione» non intendo il fatto di tradurre testi da una lingua a un’altra – un fatto che può essere oggetto di un sapere pratico o di una teoria, dei quali perlopiù non mi occupo – ma intendo, in senso lato, ogni processo di transizione idiomatica, cioè ogni processo che traduce una singolarità nei termini generali di una semiosi condivisa. Cosa vuol dire? Che con la parola traduzione intendo soprattutto il transito tra mondo vissuto e mondo nominato. È in questo ambito, in questa transizione a doppio senso, che si forma l’esperienza, in quanto esito di una traduzione complessa, per nulla scontata; l’esperienza è quindi in un certo senso eminentemente legata al linguaggio, anche se, in qualche modo, e in un altro senso, essa eccede sempre il linguaggio.
Quando l’anno scorso ho trasmesso il titolo del seminario di quest’anno al Collège, cioè ai colleghi che si occupano della programmazione, non ne avevo misurato tutta la portata, tutta la significatività. Intendevo «urgenza della traduzione» come una sorta di sinonimo di «necessità della traduzione», cioè il bisogno che abbiamo, nella situazione attuale, di ascoltarci gli uni con gli altri, di non sprofondare in separatismi identitari o epistemologici, e avevo a questo proposito in mente la riflessione del mio amico Souleymane Bachir Diagne, che considera la traduzione come una pratica centrale per fare umanità insieme. (Tra l’altro questa espressione, faire humanité ensemble, è una vera e propria traduzione; con essa Bachir esprime in francese il concetto africano di ubuntu). Resta però il fatto che non ho intitolato questo seminario la necessità della traduzione, ma l’urgenza della traduzione. Probabilmente perché abitava già in me la sensazione, anche se allora non verbalizzata, che ci troviamo – noi, parlo di noi che abitiamo a Parigi, Roma o Berlino – in una situazione di urgenza. Oggi questa urgenza bisogna esplicitarla. A prescindere dall’urgenza esistenziale di intere popolazioni votate al massacro sotto i nostri occhi e con la nostra complicità – a prescindere ma senza prescindere, perché le cose sono evidentemente legate – credo che essa riguardi in primo luogo l’organizzazione del nostro sistema produttivo, il rapporto tra capitale e lavoro, capitale e ambiente, capitale e politica. E il modo in cui questi rapporti si esprimono in tutte le sfere della vita umana o, se volete, in quello che una volta si chiamava la sovrastruttura. Da questo punto di vista non voglio fare mistero della mia inquietudine dinanzi, da una parte, ai cambiamenti della cosmotecnica in cui viviamo e, d’altra parte, al ritorno degli autoritarismi, anche e soprattutto in seno alle nostre cosiddette democrazie.
Siccome ci troviamo alla Maison de l’Italie, non posso esimermi dal segnalare che l’11 aprile scorso in Italia è stato pubblicato un decreto, cioè una legge emanata direttamente dal governo senza passare per l’approvazione del Parlamento, ed emanata in questo modo irrituale per ragioni, cito il testo, di «necessità e urgenza». Questo decreto contiene, tra varie cose, un certo numero di misure volte a scoraggiare o impedire l’organizzazione del dissenso civile o politico. E ci si dovrebbe interrogare su quale sia la «necessità e urgenza» che spinge un governo ad adottare siffatte misure. Tra queste compare l’istituzione di un nuovo tipo di reato per chi, nelle carceri, partecipa, organizza o semplicemente promuove forme di disobbedienza o di rivolta. Questo reato è punibile fino a vent’anni di reclusione a seconda della gravità delle azioni commesse. Un dettaglio importante è che tale reato non concerne solo le carceri, ma anche i centri di trattenimento dei migranti; inoltre, si intende che la promozione di forme di disobbedienza possa avvenire anche fuori da questi centri, non solo al loro interno. È altresì punita la resistenza passiva se impedisce l’azione degli agenti.
Un’altra misura importante volta a reprimere le possibilità di manifestare il proprio dissenso, che riguarda stavolta tutti i cittadini, è la seguente: quello che era l’illecito amministrativo per blocco stradale o ferroviario, finora sanzionato con una multa, diventa ora un delitto penale, punibile con un mese di reclusione se la persona è da sola, da sei mesi a due anni se si tratta di più persone riunite. Capite bene cosa questo significa e come rischi di entrare in conflitto con il diritto di manifestare, espresso dalla Costituzione italiana.
Inoltre l’articolo 22 del decreto consente agli agenti di polizia che sono indagati per crimini commessi in servizio di continuare a esercitare attività lavorativa durante l’indagine e di beneficiare di assistenza legale fino a diecimila euro per agente. Una misura che, come potete immaginare, rischia di favorire l’impunità rispetto agli abusi commessi dalle forze dell’ordine.
Potrei continuare ma mi fermo qui; scusatemi per questo excursus sull’attualità giuridica italiana, ma volevo fare un semplice esempio concreto, tra l’altro non più grave di altri, dell’aria che si respira nelle nostre democrazie.
Di fronte all’urgenza in cui ci troviamo, quello che questo seminario potrà fare, ne sono ben cosciente, è molto poco, ammesso e non concesso che riusciamo a fare qualcosa. Se modesti sono i mezzi e i risultati, ambizioso è però l’orizzonte in cui il seminario volutamente si inscrive. La sua visée consiste né più né meno nell’elaborare strumenti concettuali inappropriabili ai fini del fascismo; strumenti che possano contribuire alla costituzione di forme di resistenza contro i fenomeni contemporanei di disinformazione, omologazione ed epistemicidio.
La scorsa sessione abbiamo dialogato col professore Gabriele Gradoni sui problemi che la fisica contemporanea si trova ad affrontare in merito all’utilizzazione dell’intelligenza artificiale nelle pratiche di modellizzazione. Ovviamente non siamo giunti a nessuna conclusione, ma abbiamo potuto aprire due problematiche. La prima è quella dell’oppressione epistemica come rischio intrinseco all’architettura dei modelli di apprendimento profondo, in quanto basati sulla correlazione statistica; ho parlato a questo rispetto, seguendo un’intuizione di Gabriele, di una forma di ingiustizia epistemica rappresentazionale rispetto a visioni del mondo marginali, e di fenomeni di appropriazione ed esclusione epistemica (sono, come ormai sapete, nozioni sviluppate dall’epistemologia sociale che si occupa di ingiustizia epistemica, su cui bisognerà tornare nelle prossime sessioni). La seconda problematica riguarda invece il trattamento diverso, se non opposto, della singolarità in seno ai processi di produzione della conoscenza scientifica: mentre la modellizzazione per così dire tradizionale tiene in gran conto la singolarità attraverso il criterio di falsificabilità, le architetture di apprendimento profondo, a causa del loro procedimento statistico, neutralizzano le singolarità per rilevare soltanto andamenti maggioritari. Ho parlato di un rischio totalitarista a questo riguardo e di un comportamento in condizioni di contribuire a quello che chiamo empiricidio.
Per empiricidio intendo l’orchestrazione tecnopolitica dell’interruzione dell’esperienza storica. Ho cominciato a elaborare questa nozione l’estate scorsa ad Ancona, sulla terrazza della mia casa di famiglia, mentre leggevo Adorno, Fortini e Benjamin, e mentre realizzavo che la mia generazione è stata vittima di una forma specifica di ingiustizia che consiste nell’interrompere la trasmissione dell’esperienza. Pensavo allora a qualcosa di macroscopico come l’accesso a tutti quegli strumenti di interpretazione della realtà che erano patrimonio comune negli anni Cinquanta, Sessanta e forse ancora Settanta, e che invece sono diventati, a partire dagli anni Ottanta e soprattutto Novanta, a disposizione di pochi o pochissimi, cioè soltanto di chi se li va a cercare, perché sono stati, questi strumenti, volutamente silenziati dall’organizzazione tecnopolitica della società italiana (e non solo italiana). Questa era la mia riflessione leggendo, per esempio, la corrispondenza tra Fortini e Pasolini, o quello che questi autori scrivevano sui giornali dell’epoca e che chiunque fosse dotato di una cultura media era in grado di comprendere perché nel dibattito pubblico circolavano risorse ermeneutiche che erano la «traduzione» di una precisa esperienza storica. La trasmissione di tale esperienza e la disponibilità di tali risorse è stata progressivamente negata dall’organizzazione tecnopolitica neoliberale, in quello che non può essere interpretato se non come un progetto di imbarbarimento pubblico che ha progressivamente posto le basi per un ritorno spettrale del fascismo, a cui ora stiamo assistendo perlopiù inermi.
La nozione di empiricidio però non riguarda soltanto gli aspetti macroscopici dell’esperienza, cioè non riguarda soltanto l’esperienza di una società nel suo complesso, o di una generazione; ma può e deve essere intesa in senso anche microscopico, ogniqualvolta vi siano le condizioni tecnopolitiche per interrompere una specifica traduzione dell’esperienza. È in questo senso che ho potuto suggerire che le architetture di apprendimento profondo producono uno scarto rispetto al metodo scientifico galileiano nella misura in cui schiacciano le singolarità in favore della maggioranza statistica.
Fatemi precisare però, a scanso di equivoci, che queste considerazioni non vanno in direzione di un catastrofismo o di un allarmismo cieco. Se questo seminario formula delle critiche allo sviluppo attuale delle tecnologie di intelligenza artificiale, non lo fa a partire da un orizzonte di spavento, di difesa dalla novità, o di mantenimento dello status quo. Per riprendere, estendendolo, un motto di Adorno, è reazionaria ogni critica di qualcosa che non muova dalla decisione di volerlo salvare. Quello che si tratta di fare non è prendere una posizione pro o contro l’IA, ma sviluppare una comprensione del suo funzionamento attraverso strumenti concettuali che permettano di immaginare dei modi di sottrarne lo sviluppo al duplice ambito, da sempre consonante, dello sfruttamento capitalista e della repressione fascista.
È chiaro che la diffusione attuale dell’intelligenza artificiale ha assunto una dimensione così generalizzata e capillare perché essa risponde ai criteri capitalistici di ottimizzazione produttiva, che vanno nel senso di una riduzione delle risorse umane impiegate e di velocizzazione dei processi: più risultati in meno tempo e con costi minori. (Quando dico «costi minori» intendo ovviamente i costi monetizzabili dal punto di vista delle imprese, non i costi ecologici generali in termini di risorse ambientali per il sostentamento dell’intelligenza artificiale, per cui bisognerebbe aprire un intero capitolo). Tutto questo ha ovviamente pesanti conseguenze dal punto di vista epistemico sulla maniera in cui è condotto lo sviluppo dell’intelligenza artificiale. La domanda che dobbiamo porci è allora la seguente: qual è la principale modifica che l’intelligenza artificiale di tipo generativo introduce nell’ecosistema della conoscenza?
Il punto centrale mi sembra essere quello dell’immediata messa a disposizione di artefatti epistemici. Con artefatto epistemico intendo un qualsiasi prodotto che è risultato di un determinato lavoro nell’ambito della conoscenza: l’email con cui rispondete a un cliente, il saggio che vi permette di passare un esame universitario, la traduzione di una scheda prodotto, la lettera di motivazione per una candidatura come supplente nell’éducation nationale ecc. ecc. Il lavoro epistemico è un processo che è naturalmente temporalizzato e spazializzato nella misura in cui un soggetto lavora per produrre qualcosa che è destinato, in un modo o nell’altro, a partecipare all’ecosistema della conoscenza. Nella storia dell’umanità ci sono state molteplici forme di colonialità epistemica, intendendo con questo tutte le forme di sfruttamento e di appropriazione del lavoro epistemico altrui a vantaggio di una popolazione o una classe dominanti. Da questo punto di vista la questione era ed è ancora quella della disponibilità degli artefatti epistemici attraverso logiche di dominio che permettono di delegare il lavoro necessario alla loro produzione per impossessarsi dei risultati, pervertendoli ai propri fini. In questo quadro l’intelligenza artificiale generativa costituisce un salto di qualità nella misura in cui essa permette di annullare la temporalità del lavoro epistemico, attraverso la messa a disposizione pressoché immediata dei suoi artefatti.
Le conseguenze di questo annullamento della temporalità restano da meditare, perché è il lavoro stesso in quanto processo che produce effetti cognitivi e conoscitivi, non solo i risultati di tale lavoro; detto altrimenti, non sono soltanto gli artefatti ad avere valore epistemico, ma è il processo stesso nella sua temporalità che possiede un intrinseco valore epistemico differente da quello del proprio risultato. Come questo annullamento della temporalità possa essere messo a servizio di interessi capitalistici è fin troppo evidente, quello che invece è meno evidente, e su cui occorrerà interrogarsi, è se e in che modo tale annullamento della temporalità possa essere mobilitato per disinnescare i meccanismi di colonialità epistemica, sottraendo così agli interessi dei gruppi dominanti se non lo sviluppo almeno l’impiego dei nuovi strumenti.
Oltre all’annullamento della temporalità del lavoro e alla messa a disposizione immediata degli artefatti, l’architettura dell’intelligenza artificiale generativa altera il significato dell’unicità dell’artefatto. Alla fine della scorsa sessione, quando evocavo la questione del trattamento della singolarità negli algoritmi di apprendimento profondo, Andrea Inglese mi aveva fatto una domanda importante: temendo che l’uso che facevo della nozione di singolarità fosse troppo legata a una visione tradizionale di stampo per dir così creativista, chiedeva se non dobbiamo invece riconoscere una singolarità anche ai prodotti generati dall’intelligenza artificiale. È una questione delicata e complessa. In via provvisoria risponderei così: sono certamente prodotti che hanno una loro unicità, ma questa loro unicità non traduce nessuna singolarità. In regime di creazione idiomatica, ogni artefatto ha una sua unicità che traduce la singolarità del lavoro epistemico effettuato. Perché definisco questo lavoro come «singolare»? Perché ogni volta esso prende forma traducendo quell’insieme di condizioni che caratterizzano l’hic et nunc dell’interazione tra soggetto e mondo. In regime di generazione idiomatica, invece, l’unicità dell’artefatto non traduce più la singolarità di tale interazione ma è semplicemente l’esito di un algoritmo di ordinamento casuale, o meglio, quasi-casuale, in quanto esso è orientato in senso predittivo da andamenti statistici e fondato sui dati di addestramento. Il valore dell’unicità dell’artefatto è quindi alterato precisamente in quanto non esiste più traduzione; c’è una vera e propria interruzione della transizione idiomatica. Tra parentesi, ora capite perché parlo di urgenza della traduzione: perché ogni volta che si interrompe la transizione idiomatica, si creano condizioni favorevoli all’empiricidio e all’epistemicidio.
L’intelligenza artificiale è una nuova tecnologia che sta facendo irruzione nell’ecosistema della conoscenza; come tale è suscettibile di produrre effetti progressivi o regressivi, che sarà nostro compito cogliere e mettere in luce. Per esempio, l’IA generativa ha un enorme potenziale progressivo nella misura in cui essa facilita un accesso idiomatico alla conoscenza. Che cosa intendo con questa espressione? Pensate un attimo al fatto che i modelli di linguaggio sono addestrati su una enorme mole di testi, perlopiù accessibili su internet. La fonte del sapere da cui muove Chat-GPT è quindi in un certo senso già presente in rete. Perché allora ricorrere alle confabulazioni di GPT quando con un semplice motore di ricerca possiamo accedere a del materiale, diciamo così, originale? Questo argomento è stato avanzato, in maniera più sofisticata da come lo sto esponendo ora, dallo scrittore americano Ted Chiang, in un bell’articolo uscito a febbraio del 2023 sul New Yorker, intitolato ChatGPT is a blurry JPEG of the web. Chiang fa un paragone tra i modelli linguistici artificiali e la compressione con perdita, proponendo di pensare a Chat-GPT come a una jpeg sfocata di tutti i testi presenti nel Web. Perché accontentarci di questo quando su internet abbiamo accesso agli originali non compressi, cioè i testi su cui il modello linguistico è stato addestrato? C’è un punto però che sembra sfuggire completamente a Chiang: quello che internet ha introdotto è una forma di accessibilità fisica della conoscenza. La rete ha difatti reso immediatamente disponibili le fonti a mano a mano che vengono digitalizzate. La grande novità dell’IA generativa è che essa permette un’accessibilità idiomatica alla conoscenza, attraverso la rielaborazione linguistica di quanto il modello ha potuto ricavare dalle fonti, con tutti i rischi che conosciamo di semplificazione, allucinazione, invenzione, errore, mancata corrispondenza al reale, appropriazione ed oppressione epistemica, di cui abbiamo parlato nella scorsa sessione con Gabriele Gradoni.
L’accessibilità idiomatica ha un enorme potenziale progressivo. Con un motore di ricerca posso sì trovare le fonti originali, non semplificate, ma le mie possibilità di accedere alla conoscenza dipendono dalla mia padronanza del gergo in cui tale materiale è redatto. Il potenziale democratico dell’IA generativa è tutto nella sua capacità di riformulare il materiale attraverso registri diversi che si adattano alle esigenze e competenze dell’utilizzatore, permettendo quindi un accesso idiomatico, e non solo fisico, alla conoscenza. Potete chiedere a GPT di spiegare la teoria dei quanti in modo che sia comprensibile a un bambino di dieci anni. Provateci, e vedrete cosa tira fuori. È impressionante. Ed è la prima volta nella storia che disponiamo di uno strumento in grado di facilitare l’accesso idiomatico alla conoscenza.
L’IA generativa ha però un effetto regressivo nella misura in cui oscura la genesi dell’artefatto stesso. Dinanzi a un artefatto epistemico, l’individuo può porsi in posizione giudicante – cioè può decidere se accettarlo o rifiutarlo – in due modi: o perché è in grado di verificarne la genesi o perché attribuisce una determinata autorità alla fonte. Ovviamente non sono due soluzioni politicamente equivalenti: la prima ha potenzialità progressive, la seconda regressive. Pensate ad esempio a come è nata e si è sviluppata la filologia, a tutto l’insieme di metodi che ha elaborato per ridurre l’arbitrio nel conferire autorità alle fonti, cioè ai testimoni della tradizione testuale. O pensate, più semplicemente, alla pubblicazione scientifica: quando scrivete un articolo scientifico bisogna citare le fonti e rendere trasparente il ragionamento per giustificare le proprie tesi; dire «le cose stanno così perché lo dico io» non funziona come argomento. Questo perché dal punto di vista della circolazione e verifica della conoscenza queste due modalità – l’autorità della fonte e la trasparenza genealogica – sono in un rapporto concorrenziale. Quello che sto suggerendo è che più un algoritmo opacizza il processo di generazione idiomatica, più esso rafforza la propria autorità, sottraendosi alla verifica; esso rafforza, cioè, il suo autoritarismo.
Il successo di questi algoritmi nella congiuntura presente ha un profondo significato sociale. Le masse, perennemente distratte dalla configurazione mediatico-sociale della vita contemporanea, interamente occupate, per non dire invase, da tale configurazione, non sono in grado di esaminare più niente, non ne hanno né il tempo né l’energia psico-fisica. La virata autoritaria delle nostre democrazie negli ultimi anni è in un rapporto di sostanziale omologia tanto con la maniera in cui queste tecnologie vengono sviluppate, quanto con la loro rapida diffusione nei diversi ambiti della nostra esistenza.
È qui che si inserisce, in questa articolazione tra effetti regressivi e progressivi, la problematica del simulacro, da cui siamo partiti nella conversazione con Gabriele la volta scorsa, e che certamente riprenderemo oggi con Sacha. Quando dico che l’IA generativa favorisce un accesso idiomatico alla conoscenza, si tratta veramente di conoscenza quello cui accedo, o di un simulacro di essa? La conversione delle configurazioni simboliche umane in vettori matematici, che è la base del funzionamento dei grandi modelli di linguaggio come Chat-GPT – il loro unico vocabolario, se volete – esclude di per sé che il modello abbia una qualche forma di comprensione in senso forte di quello che sta «dicendo» o che gli viene detto. L’algoritmo di questi modelli è veramente in grado di produrre conoscenza o quello che rigurgita è soltanto un simulacro di essa? Se tale questione non è per niente banale, e di difficile trattamento – perché difficile è, sia detto per inciso, tutto ciò che pertiene al simulacro, nozione forse illusiva quant’altre mai – ciò non toglie che la maggior parte di noi faccia ormai ricorso a questi modelli anche e soprattutto per accedere a conoscenze, e che tali algoritmi stiano prendendo un posto sempre più importante nella circolazione del sapere.
Vedete, ho parlato prima di creazione idiomatica e di generazione idiomatica opponendole. Esse però hanno almeno una cosa in comune, cioè sono entrambe configurazioni idiomatiche. La nostra relazione col mondo è difatti segnata dalla presenza del linguaggio, e lo è irrevocabilmente. Il linguaggio però da questo punto di vista ha uno statuto ambiguo. Da una parte ci separa dal mondo, nella misura in cui nominando non facciamo altro che produrre astrazioni, “cose” che esistono soltanto in una sorta di doppelgänger della realtà. D’altra parte è soltanto grazie al linguaggio che le “cose” diventano per noi conoscibili. Il linguaggio è dunque un presupposto della conoscibilità e si tratterà per noi di interrogarci su quale idea di linguaggio sia operante nei modelli generativi di intelligenza artificiale. Quello che propongo di fare oggi con l’aiuto di Sacha Carlson è mobilitare le risorse della fenomenologia per esplorare il funzionamento del linguaggio umano e per vedere se e in che modo tali risorse possono diventare utili nell’ambito dei nostri problemi. […]
***
Questo post mi pare molto interessante, anche se complesso. Richiederebbe, per come è fatta la mia testa, 3 o 4 letture una dopo l’altra. A una prima lettura qualcosa mi è parso di intuire e sono soprattutto curioso di quanto si progetta nelle ultime righe di indagare cioè su quale idea di linguaggio sia operante nei modelli generativi di IA. Complimenti comunque a chi scrive e all’Inglès che pubblica questi pezzi (ancorché un po’ lunghetti, forse, no?).
Caro Sparz,
sulla lunghezza hai ragione. Ma mi son detto – non so quanto a torto – che su NI varebbe la pena di avere di tanto in tanto anche pezzi lunghi, come quelli di certe riviste specialistiche on line, e che uno si scarica eventualmente in formato pdf e si legge quando gli va, quando trova il tempo. Ecco, questa è la scommessa, e devo dire che certi pezzi anche più lunghetti nel tempo hanno poi trovato i loro lettori.