Da “Scritture digitali. Dai social media all’IA e all’editing genetico”
[Faccio parte di coloro che, da tempo, portano avanti un discorso di critica della “ragione tecnologica”, ossia di critica nei confronti della modalità attraverso cui le tecnologie, nella odierna società capitalistica, ci vengono allo stesso tempo imposte (come frutto di progresso ineluttabile) e raccontate come docili strumenti, di cui gli utilizzatori possono con accortezza trarre grande profitto (per le loro vite individuali). Sono quindi sempre molto felice d’incontrare gente della mia tribù, che ritengo comunque meno numerosa di quel che sarebbe necessario. In coda un mio pezzo satirico, è intervenuto, grazie alla mediazione di Fabrizio Venerandi, Roberto Laghi, di cui non conoscevo il lavoro. Lavoro di cui posso oggi proporvi alcuni estratti. Si tratta del suo ultimo libro: Scritture digitali. Dai social media all’IA e all’editing genetico (Meltemi, 2025). a. i.]
di Roberto Laghi
Lo sviluppo delle tecnologie digitali ha seguito una direzione definita soprattutto da questioni economiche, politiche, ideologiche prima ancora che tecniche. Se oggi abbiamo i dispositivi e i servizi digitali che abbiamo è perché “la tecnologia non è e non potrà mai essere una cosa a sé stante, isolata dall’economia e dalla società”, ma ciò significa anche che “l’inevitabilità tecnologica non esiste”[1]. Non dobbiamo quindi farci ingannare dal discorso dell’industria tech, dalle sue semplificazioni e dalla sua retorica del progresso:
[…] il motivo per cui il discorso industriale si basa su questa ideologia è piuttosto banale: per vendere nuovi prodotti, un’azienda deve spiegare perché la nuova versione meriti. […] Il progresso spinge all’acquisto. […] La seconda parola chiave del discorso industriale è profondamente legata alla prima: semplicità. […] L’argomento della semplicità è pericoloso perché implica un ampio movimento verso la standardizzazione e perché riduce la possibilità di pensiero critico. Gli utenti non devono sapere come funzionano le cose, né chiedersi di cosa hanno bisogno: la soluzione viene prima della domanda.[2]
Vitali-Rosati rimarca alcuni concetti già considerati nel discorso sulla relazione tra l’essere umano e la tecnica. Il fatto che gli utenti (considerati come acquirenti di dispositivi digitali, quindi consumatori[3]) non debbano nemmeno arrivare a chiedersi come l’oggetto tecnologico funzioni né di cosa abbiano realmente bisogno mette in luce due aspetti chiave. Il primo riguarda l’assenza di educazione tecnica illustrata da Simondon ma portata su un piano più profondo: la non conoscenza della macchina diventa, con le tecnologie digitali di massa, una condizione auspicata, indotta intenzionalmente da chi le produce e commercializza ed è incorporata negli oggetti stessi; questo complica la nostra relazione con la tecnologia, di fatto limitando le nostre possibilità di uso (nel senso che facciamo ciò che ci viene consentito e non ciò di cui possiamo avere bisogno). Il secondo aspetto conferma la tendenza alla percezione sacrale della tecnologia, che orienta così la tecnologia stessa e il nostro modo di viverla verso il soluzionismo e l’aspirazione tecnocratica a un potere incondizionato di cui parla Simondon. Vale la pena, inoltre, sottolineare la componente di previsione insita nelle tecnologie digitali odierne; se la soluzione arriva prima della domanda significa che la tecnologia è in grado di prevedere questa domanda (modificandola, guidandola e forse anche imponendola): ma non si dà previsione da parte della macchina digitale senza che ci siano anche sorveglianza e individuazione[4].
La storia dei media, inoltre, è
etimologicamente politica, riguarda il concetto stesso di socius […] e determina dunque la riorganizzazione complessiva del nostro sopravvivere in quanto specie, sicché ogni modificazione nei mezzi di comunicazione (ma sarebbe meglio definirli di informazione, vale a dire di ‘programmazione’) ridisegna la scena del mondo, e la parte in essa che ci viene assegnata.[5]
Le tecnologie, scrive ancora Frasca, “estendono i nostri sensi, e dunque, nello stesso momento in cui ridisegnano un modello di mondo, programmano una gerarchia sensoriale e una modalità di percezione”[6]. A questo proposito e con un riferimento specifico al reality shaping che le aziende Big Tech compiono costantemente attraverso le piattaforme, Seymour avvicina il funzionamento di queste ultime a quello delle post-democrazie occidentali, il cui obiettivo sarebbe la gestione della popolazione. Le piattaforme digitali, infatti, attraverso gli algoritmi “colpiscono al di sotto dell’intelletto, lavorando sotto la superficie della persuasione, costruendo realtà nella nostra esperienza quotidiana. Non negoziano con i nostri desideri, ma modellano ciò che siamo in grado di desiderare”[7].
[…]
Siamo già stati inconsapevolmente travolti dalle precedenti novità tecnologiche, con l’espansione di Google, i social media e gli smartphone. Ma quale impatto ha la produzione automatica di scrittura? Nonostante i risultati che possono sembrare sorprendenti, i modelli linguistici non sono in grado di produrre una scrittura veramente originale perché ripropongono, statisticamente, le sequenze di parole con cui sono stati condizionati. Secondo lo scrittore di fantascienza Ted Chiang, i modelli linguistici come ChatGPT sono più o meno delle fotocopiatrici che producono risultati della qualità di immagini JPEG sfocate[8]. Chiang si interroga sull’utilità di questa scrittura per gli esseri umani, in particolare se usati come punto di partenza per scritture creative originali (narrative o saggistiche) e sostiene che “iniziare con una copia sfocata di un lavoro non originale non è un buon modo per creare un lavoro originale”[9]. Se il lavoro dello scrittore consiste nell’affinare la sua capacità di costruire un testo denso di significato, consegnare questi tentativi alla produzione del modello linguistico limita il tempo di elaborazione che un autore mette nella produzione della sua scrittura. Le conseguenze di questo approccio potrebbero essere una produzione standardizzata e meno originale, così come sta accadendo per la produzione culturale in senso lato in un mondo dominato da algoritmi di raccomandazione.
In questa corsa all’IA, che fa pensare a una nuova bolla tecnologica che si prepara a esplodere[10], i modelli linguistici sono integrati in servizi usati quotidianamente ma i rischi per gli utenti sono alti, dato che le risposte generate possono essere false e non affidabili[11]. Siamo potenzialmente davanti a un ulteriore scollamento tra la realtà fattuale e la capacità di pensare questa realtà da parte degli esseri umani. Davanti ai rischi concreti, un approccio etico al tema è più che mai necessario, ma potrebbe non essere sufficiente, poiché il digitale impone una radicale trasformazione anche delle categorie di pensiero che strutturano la cultura occidentale.
Se l’umano non è più al centro dell’infosfera (nel senso che le macchine possono trattare e organizzare l’informazione in autonomia), occorre cambiare la nostra relazione con le macchine digitali. Per liberare l’immaginazione umana, il filosofo della tecnologia Yuk Hui propone tre nuove premesse: prima di tutto “sospendere l’antropomorfizzazione delle macchine e sviluppare un’adeguata cultura della protesi”, perché “la tecnologia dovrebbe essere usata per realizzare il potenziale dei suoi utenti […] invece di essere un loro concorrente o ridurli a modelli di consumo”. Poi, “comprendere la nostra attuale realtà tecnica e la sua relazione con le diverse realtà umane, in modo che questa realtà tecnica possa essere integrata con esse per mantenere e riprodurre la biodiversità, la noodiversità e la tecnodiversità”. Infine, “invece di ripetere la visione apocalittica della storia […] liberare la ragione dal suo fatidico cammino verso una fine apocalittica. Questa liberazione aprirà un campo che ci permetterà di sperimentare modi etici di vivere con le macchine e con gli altri non-umani”[12]. È necessario ripensare il ruolo degli esseri umani all’interno di un contesto più ampio, in cui coesistono diverse forme di cognizione e di intelligenza e in cui l’umano non sia più al centro, ma attore tra tanti all’interno di un (eco)sistema complesso.
[…]
Era chiaro sin dall’inizio che era fondamentale adottare una prospettiva radicalmente critica per analizzare le tecnologie digitali, ma il bisogno di trovare strumenti teorici anche al di fuori del campo umanistico si è fatto ancora più evidente durante lo studio delle scritture prese in esame, che ci hanno infatti portato al cuore delle domande sollevate dall’emergere della società digitale in cui siamo ormai immersi.
L’approccio critico che ha guidato la ricerca ha reso evidente che le tecnologie oggi diffuse non sono l’unico orizzonte digitale possibile, quanto piuttosto l’espressione di un modello economico ben preciso: l’evoluzione del capitalismo al tempo dei big data. Immaginare (e costruire) altre declinazioni del digitale è necessario. Abbiamo visto gli esperimenti di intelligenza artificiale localizzata e comunitaria creati dalla coppia Iaconesi e Persico, ma ci sono anche altre realtà più conosciute e diffuse: l’enciclopedia collaborativa Wikipedia o, ancora, forme di social media comunitarie e no profit, come il fediverso[13]. Per immaginare e creare tecnologie diverse, però, occorre anche un immenso lavoro di alfabetizzazione ed educazione critica al digitale, non solo per poter essere cittadini consapevoli e attivi, ma anche perché ci permetterebbe di capire meglio la relazione che abbiamo con i dispositivi digitali, anche perché è sempre più spesso attraverso questa relazione che facciamo esperienza della realtà.
*
Note
[1]S. Zuboff, op. cit.
[2]M. Vitali-Rosati, On editorialization, cit., pp. 100-101.
[3]Sul concetto di utenti (users) dei servizi digitali commerciali rilancio la (relativa) provocazione di Richard Seymour: “siamo ‘utenti’ quanto i tossicodipendenti da cocaina sono ‘utenti’” (R. Seymour, op. cit., p. 24).
[4]J. Bodini, Le repubbliche sentimentali e l’in-formazione del desiderio, in M. Carbone, A.C. Dalmasso, J. Bodini (a cura di), I poteri degli schermi, cit., p. 239.
[5]G. Frasca, La letteratura nel reticolo mediale: la lettera che muore, Luca Sossella Editore, Roma 2015, p. 24.
[6]Ivi, p. 26.
[7]R. Seymour, op. cit., p. 173.
[8]Il JPEG è un formato di compressione per immagini definito “lossy”, cioè che perde molti dettagli dell’immagine per riuscire a ridurla di peso. Si differenzia dai formati “lossless” (senza perdita) che invece conservano tutte le informazioni delle immagini originali.
[9]T. Chiang, ChatGPT is a blurry jpeg of the web, in “The New Yorker”, 9 febbraio 2023, https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web.
[10]L. Floridi, Why the AI hype is another tech bubble, 18 September 2024, https://ssrn.com/abstract=4960826.
[11]K. Jiang, Google’s new AI search function is revolutionary – but don’t believe everything it says, experts say, in “Toronto Star”, 15 giugno 2023, https://www.thestar.com/business/technology/2023/06/15/googles-new-ai-search-
function-is-revolutionary-but-dont-believe-everything-it-says-experts-say.html.
[12]Y. Hui, ChatGPT, or the eschatology of machines, in “e-flux Journal” #137, giugno 2023, https://www.e-flux.com/journal/137/544816/chatgpt-or-the-eschatology-of-machines/.
[13]Con il termine ombrello fediverso (che fonde le parole inglesi “federation” e “universe”) si intende un network costituito da diversi social network che, pur se installati e amministrati indipendentemente, possono comunicare tra di loro, in base al protocollo ActivityPub, in modo decentrato, senza manipolazione algoritmica e senza pubblicità.
