Poetiche e politiche dell’intelligenza artificiale
Ospito qui un estratto da PROMPTING. Poetiche e politiche dell’intelligenza artificiale di Niccolò Monti, uscito recentemente per Edizioni Tlon.
La rivoluzione cibernetica
Se per il Surrealismo la mano che crea può corrispondere immediatamente al linguaggio, per la cibernetica il computer può rimpiazzare mediatamente le funzioni svolte dal cervello. L’ipotesi presuppone un’analogia, secondo cui le macchine e gli organismi sono funzionalmente simili. Già nel xix secolo i fisiologi parlano di macchine pensanti – in relazione agli automatismi organici – ma il termine non muore lì, ritorna nella nascente cibernetica, riesumando l’idea, anch’essa di origine ottocentesca, per cui una macchina sufficientemente complessa sarebbe in grado di svolgere operazioni logiche automaticamente, con una minima supervisione umana.
L’idea di una tale macchina pensante la ritroviamo nei progetti speculativi e talvolta persino realizzati di Charles Babbage, Ada Lovelace, Stanley Jevons, Allan Marquand, matematici con vocazioni ingegneristiche, consapevoli di non maneggiare un problema di natura esclusivamente logica. Inventare una macchina capace di sostituirsi pure solo in parte allo sforzo mentale, oltre che a quello fisico, avrebbe sortito profondi effetti strutturali su come si organizza l’attività lavorati sull’idea stessa di lavoro. Dal xix secolo a oggi, non si può scindere la riflessione sulle macchine intelligenti, sull’automazione, da questioni storico-sociali: «Si potrebbe dire che la computazione emerse in quanto automazione della divisione del lavoro mentale e calcolo dei costi di tale lavoro».[1] Il pensiero cibernetico interseca queste direzioni, una legata alla storia della logica e un’altra alla storia del lavoro.
A dire il vero, l’una e l’altra sembrano essere inscindibili, a partire da una delle idee su cui è stata innestata buona parte della cibernetica. Quando, nel 1948, Claude Shannon formula la teoria dell’informazione, sono già trascorsi vent’anni di ricerche su come misurare la quantità di informazione veicolata in uno scambio comunicativo. Nel 1928 Ralph Hartley, un ingegnere impiegato presso i Bell Labs, aveva pubblicato un articolo sulla “Transmission of Information”, dove veniva per la prima volta sollevata una questione divenuta di centrale importanza anche in discipline dapprima lontane dalla cibernetica, come ad esempio la linguistica o la semiotica.
Se due individui possono intendersi a vicenda quando scrivono o parlano, è la condivisione di un codice che consente loro di interpretare i simboli usati mediante lo stesso significato. Ma il significato è un fattore psicologico, specificava Hartley, mentre per stimare un’esatta misura quantitativa occorre basarsi unicamente su fattori fisici, in modo da evitare tutte le ambiguità e parzialità della comunicazione. La trasmissione di informazione poteva essere considerata sotto l’ottica di un gioco probabilistico. La codificazione e la successiva selezione dei simboli sono fatti fisico-meccanici, interpretati non secondo un sistema semantico, ritenuto un’astrazione psicologica da escludere, ma attraverso una statistica calcolata sulla fonte del messaggio: l’informazione sarà misurata dalla probabilità che un dato simbolo venga enunciato tra quelli selezionabili in un insieme finito, per quanto ampio.
Altri impulsi si accumularono attorno al 1943. Un articolo in particolare è ritenuto un testo centrale della cibernetica, un campo di studio interdisciplinare il cui nome è stato coniato su un calco dal greco: kybernētiké, l’arte di governare, guidare, timonare. Norbert Wiener, con Arturo Rosenblueth e Julian Bigelow, era tra gli autori di “Behavior, Purpose and Teleology”, pubblicato per l’appunto nel 1943. Ritornava quel principio fisiologico su cui Hartley aveva posto le basi della calcolabilità dell’informazione: i tre autori assunsero una postura analoga per sostenere l’isomorfismo strutturale tra macchine e organismi, seguendo l’ipotesi che per le une e per gli altri si possa parlare di un comportamento intenzionale attivo, intrinseco alla loro fisiologia e che si esprime nella tendenza a correggere il corso delle azioni sulla base di un processo di feedback. All’apparenza sembra allora che vi sia un’intenzione, nella forma di una regolazione adattiva del comportamento agli stimoli provenienti dall’esterno. L’intenzionalità, tradizionalmente legata alla capacità di stabilire e perseguire uno scopo, conferendo così una forma teleologica all’azione, veniva ora svincolata da fattori psicologici e ricondotta soltanto a interazioni meccaniche e reattive tra l’organismo (o la macchina) e il mondo. Ecco l’idea del feedback, una serie di aggiustamenti che viene attivata in risposta al ritorno degli output come input.
Idee simili vennero esposte sempre nel 1943 in The Nature of Explanation di Kenneth Craik, e soprattutto da Warren McCulloch e Walter Pitts in “A Logical Calculus of the Ideas Immanent in Nervous Activity”, tra le prime formalizzazioni di una rete neurale. Il modello matematico di McCulloch e Pitts proponeva di emulare l’attività dei neuroni biologici nel cervello servendosi di una notazione derivata dalla logica simbolica, in particolare dai lavori del filosofo Rudolf Carnap, in quegli anni esule tedesco negli Stati Uniti e docente a Chicago nello stesso Ateneo dei due scienziati. Il ricorso alla logica simbolica va ricordato, poiché fu in contrasto a questa decisione che si improntarono le più decisive critiche mosse al modello McCulloch-Pitts. Il metodo per strutturare una rete di neuroni artificiali si innestava su alcune assunzioni tratte da quanto si sapeva riguardo il funzionamento dei neuroni: «L’attività del neurone è un processo di tipo “tutto-o-niente”».[2]
La base logica di questa ipotesi di partenza è derivata da una delle leggi fondamentali dell’algebra booleana – riferimento che accomuna questo approccio neurofisiologico e la teoria di Shannon. Si tratta di una legge che definisce un algoritmo tra i più basilari: l’appartenenza o meno a una classe, la quale, ammettendo solo una dicotomia tra due risposte, sì o no, arriva a regolare quei sistemi che prevedono due stati possibili di esistenza. Un neurone può essere attivato, oppure no; in un circuito elettrico un relè può trovarsi in uno stato chiuso o aperto, spento o acceso, a seconda dell’intensità della corrente, come già aveva postulato Shannon a partire dal 1938.
Ma la differenza tra un ricorso e l’altro a questa legge matematica mostra il modo in cui la storia dell’ia si sia biforcata in due paradigmi, ugualmente fondamentali affinché anche la creatività artistica finisse nelle ambizioni e profezie dell’ia. Il primo paradigma cade sotto il nome di “ia simbolica”, contrapposto al cosiddetto “connessionismo”, nel quale è dominante l’uso di modelli di machine learning fondati sulle reti neurali, come in McCulloch e Pitts, e in seguito con il percettrone (perceptron) ideato nel 1958 da Frank Rosenblatt, tra i maggiori ispiratori di questa corrente di ricerca rimasta per decenni in secondo piano rispetto alla ben più visibile e finanziata ia simbolica. Quest’ultima, esauritasi quasi del tutto tra gli anni Ottanta e Novanta, si basava su un’ipotesi computazionalista secondo cui ogni pensiero non sarebbe altro che un calcolo di simboli, ai quali si attribuisce sia una materialità sia un valore semantico che ne costituisce la rappresentazione.
l connessionismo, al contrario, inerisce più strettamente alla cibernetica e in particolare ai suddetti saggi del 1943; è legato, in altre parole, a una prospettiva secondo cui al centro della costruzione di macchine intelligenti doveva trovarsi quel meccanismo di feedback, ovvero di ritorno e circolarità, tra macchina e mondo, tra ciò che calcola e ciò che viene calcolato. Potremo dire che una macchina apprende nel momento in cui essa reagisce intelligentemente al contesto in cui agisce; per questo il feedback veniva definito, già da Wiener, “negativo”, nel senso che ogni output errato sarebbe rientrato sotto forma di input, per indirizzare il comportamento della macchina.
Questo modello adattivo sarà alla base del paradigma connessionista e successivamente di gran parte del deep learning, l’insieme di tecniche computazionali basate su reti neurali da cui è nato l’attuale interesse per il prompting. Torneremo a parlare di questa genìa nel secondo capitolo. Nel frattempo, l’ia simbolica aveva imboccato un’altra strada e, benché sia stato superato, questo paradigma fu determinante nel far compiere all’ia il salto verso le arti. Ciò è stato possibile anche grazie alle fortunate applicazioni incontrate dalla teoria dell’informazione in estetica, dapprima nella teoria musicale, nella quale a partire dalla metà degli anni Cinquanta avevano iniziato a moltiplicarsi i tentativi di modellare la creatività, ad esempio parlando di processi di composizione stocastica.
Oltre alla musica, un ambito particolarmente fertile è stato quello della creatività ludica, in particolare negli scacchi. Il gioco, come il linguaggio, è un sistema di regole spesso rigide, talvolta plastiche, all’interno del quale ci sono cose che possiamo fare e altre che invece ci vengono precluse proprio dalle regole del gioco stesso. Il gioco è un’attività essenzialmente creativa, anche se – o forse proprio perché – si configura anzitutto attraverso i vincoli. Come fare a traslare la creatività che emerge da sistemi simili, la musica, il linguaggio, il gioco, dove un atto creativo si dà grazie e in opposizione a ciò che lo regola e sorveglia?
Il salto verso le arti non fu immediato. Dovettero prima consumarsi gli otto anni in cui si svolsero le Macy Conferences (1946-1953), una serie di colloqui interdisciplinari, di cui alcuni organizzati a titolo della nascente cibernetica. In uno degli ultimi simposi, il neurofisiologo William Grey Walter sulla scorta di McCulloch e Shannon ribadì l’evidenza fisicalista della spiegazione dei fenomeni di causazione e di creazione: non esiste nulla al di fuori dei meccanismi fisiologici che fanno muovere il mondo. A ciò aggiungeva la questione di come nei cervelli e nelle macchine si arrivasse a una configurazione organizzata: se questa fosse il frutto di una finalità o implicasse invece un certo grado di casualità.
L’osservazione dei cambiamenti di stato in stato, ad esempio nei processi di apprendimento, faceva supporre che un’organizzazione casuale della materia potesse funzionare «come uno stato-trampolino per una macchina docile, che sia di metallo oppure di carne».[3] Su questa scia, a intrecciare causalità, casualità e creatività, assecondando un interesse di ricerca analogo, sarà l’evento spesso reputato l’epicentro mitologico dell’ia: la scuola estiva al Dartmouth College del 1956. Fra i quattro organizzatori di quelle giornate troviamo John McCarthy, lo scienziato che coniò l’espressione “intelligenza artificiale”, giunta poi a significare un intero ambito scientifico, persino gli esperimenti di deep learning lontani da ciò che lui aveva in mente da esponente del paradigma simbolico, a cui appartenevano anche Allen Newell, Herbert Simon e Marvin Minsky.
Nella proposta redatta in preparazione alla scuola estiva, gli organizzatori articolarono in sette punti quello che essi riassumevano come il “problema dell’ia”: i computer automatici (la programmazione di calcolatori capaci di simulare le funzioni più elevate del cervello umano); come far usare un linguaggio naturale a un computer (torna il problema di come automatizzare la generalizzazione e la manipolazione simbolica); le reti di neuroni (ovvero l’uso dei modelli matematici impostati secondo la metafora dei neuroni); la teoria della dimensione di un calcolo (come misurare l’efficienza di un calcolo in base alla complessità del dispositivo di calcolo e delle funzioni); l’automiglioramento (ipotesi ulteriore rispetto ai modelli adattivi della prima cibernetica); le astrazioni (come dare a certe macchine la capacità di formare astrazioni a partire da dati sensoriali e di altro tipo); infine, la casualità e la creatività (ogni ragionamento ordinato, per poter essere detto creativo, ha in sé una dose controllata di casualità).
Un altro organizzatore, Nathaniel Rochester, pur afferendo al paradigma simbolico, ebbe il merito di introdurre una questione divenuta centrale per lo sviluppo dell’ia e, come abbiamo visto, del prompting: come far sì che i risultati della macchina siano originali? La domanda si legava strettamente allo sforzo di innestare un barlume di intuito o di capacità congetturale nei calcolatori automatici. Rochester desumeva la sua proposta dal modello avanzato da Craik nel 1943, secondo il quale ogni azione mentale equivale a costruirsi piccoli motori (engines) nel cervello, il cui compito è fornire astrazioni e predizioni riguardo l’ambiente circostante. Per Rochester era inevitabile che questo processo avvenisse tramite una dose di casualità, ciò che gli individui esperiscono nella forma di intuizioni improvvise e inattese.
Quale approccio seguire? Da un lato, copiare il modo in cui il cervello sembra performare nei momenti di ragionamento e creazione casualmente orientati; dall’altro, cominciare da una classe di problemi che richiedono originalità per essere risolti, e sulla base di questi sviluppare un programma capace di risolverli con un calcolatore. Rochester indica che entrambi gli approcci sono percorribili, ma rimanda il responso a futuri esperimenti. Parla dei progressi che sono stati fatti con le reti neurali per risolvere il dilemma di come rendere una macchina originale, solo per poi dichiarare i limiti di quei tentativi, secondo lui in erba. Il percettrone doveva ancora essere ideato, ancora molti inverni e primavere dell’ia si sarebbero succedute: il problema di come riprodurre originalità e creatività nei programmi “intelligenti” permette di intravedere la scia che porta a ciò con cui abbiamo a che fare oggi, il prompting; una scia che sarebbe poi la storia profonda dell’ia, composta di una lunga serie di ambizioni, profezie e ideologie scientifiche che, il più delle volte, si sono spente
[1] M. Pasquinelli, The Eye of the Master. A Social History of Artificial Intelligence, Verso Books, London 2023, p. 64.
[2] .S. McCulloch e W. Pitts, “A Logical Calculus of the Ideas Immanent in Nervous Activity”, in «Bulletin of Mathematical Biophysics», vol. 5, 1943, p. 118.
[3] Si veda il tweet di François Chollet del 13 luglio 2017, twitter.com/ fchollet/status/885378870848901120.