Immaginazione algoritmica

Immaginazione algoritmica
[Tempo di lettura: 7 pignalenti]

Il complottista ritiene che l’uomo delle istituzioni minacci la sua libertà personale ricorrendo alla sorveglianza delle nuove tecnologie, dal canto suo l’uomo delle istituzioni si prende gioco della paranoia del complottista e accompagnandosi al suo buon senso spera che l’avanzamento tecnologico garantirà in futuro la massima efficienza in tutti i settori della società. La tecnologia, direbbero gli esperti di geopolitica, è una questione strategica su cui si basano gli equilibri mondiali. Entrambi i fronti fondano le loro paure e le loro speranze su una convinzione errata: che la natura della tecnologia si basi esclusivamente sull’uso che ne viene fatto.

Già un decennio fa, su “Nature”, un gruppo di fisici capitanato da Neil Johnson dell’Università di Miami pubblicò un articolo intitolato: “Aumento improvviso della nuova ecologia macchinica che supera il tempo di risposta umano”, nel quale, studiando gli algoritmi dietro il trading ad alta velocità sui mercati azionari nel 2006, vennero alla luce un gran numero di micro-eventi anomali causati dagli algoritmi. 

Non erano i primi a notare queste anomalie, gli economisti Dave Cliff e John Cartlidge nel 2012 avevano raggiunto risultati molto simili. Attraverso esperimenti controllati in laboratorio, avevano notato che “quando le macchine operano su tempi simili a quelli umani (più lunghi di 1 s), la simulazione che facevano del mercato nel loro modello mostrava una fase efficiente con pochi eventi estremi di variazione dei prezzi,  al contrario, su una scala temporale più veloce del tempo di risposta umano (100 millisecondi), la simulazione del mercato presentava fasi inefficienti, come ad esempio molti eventi di variazione estrema dei prezzi. La proliferazione di queste anomalie appariva in connessione al crollo finanziario del 2008. 

La quotidianità, nella sua impenetrabilità, mostra sempre con ironia di saper concretizzare gli scenari peggiori, i complottisti come reagirebbero all’idea che che sì, i complotti esistono ma non vengono più organizzati da esseri umani ma da quegli algoritmi che a loro avviso sono usati come occhi indiscreti dal potere costituito? E l’uomo delle istituzioni come nasconderà il suo imbarazzo di fronte al fatto che lo sviluppo delle prodigiose intelligenze algoritmiche le rende sempre più imprevedibili, determinando non solo l’inefficienza del mercato ma un vero e proprio sabotaggio dell’ordine che esse dovrebbero preservare ed estendere?

Per Luciana Parisi le anomalie algoritmiche come quelle studiate da Neil Johnson rivelano una nuova forma di intelligenza digitale, sempre più distante dalla comprensione umana.  Nel suo Contagious Architecture la studiosa liquida immediatamente ogni approccio teorico e sperimentale basato su una concezione sussidiaria della tecnologia, “la mia ipotesi contesta la teoria secondo la quale esiste una relazione reciproca o una proposizione indecidibile tra filosofia e tecnologia, nonché tra pensiero e capitale”. 

Le critiche all’automazione spesso si rivolgono sacralmente al corpo e alla storia dei suoi affetti come all’ ultimo rifugio rimasto contro il dominio della macchina. Ma non sarà dando per scontata la dicotomia vita-morte che potremo penetrare la natura dell’algoritmo. 

Parisi “va contro l’idea comune che, di fronte a un tecnocapitalismo sempre più dinamico, pensiero e filosofia siano chiamati a trovare rifugio nell’intuizione intellettuale e nel pensiero affettivo, come se questi fossero enclave protette dall’incertezza e dalla pura singolarità”. 

A differenza dei tecnoentusiasti e dei critici dell’automazione, non possiamo essere così sicuri che la distanza tra gli automatismi organici e gli automatismi digitali o algoritmici sia così grande, ma neanche pensare che la logica computazionale si limiti a riprodurre semplicemente il nostro pensiero. Secondo la filosofia digitale di Parisi gli algoritmi vanno percepiti non come meri strumenti di automazione del pensiero umano, quanto piuttosto come entità che sono in se stesse pensiero pur essendo incapaci di pensare. 

La svolta toyotista della cibernetica, quella in cui l’utente partecipa attivamente al miglioramento dei dispositivi che lo controllano, ha già davanti a sé un periodo di controllo post-cibernetico, una fase in cui l’integrazione di input ambientali e istruzioni a posteriori consentiranno una maggiore varietà e novità dell’automazione. Allo stesso tempo, però, tutto ciò determina l’allargarsi di una zona franca che rivela un’estetica – nel senso letterale greco di “sensazione” – sempre più aliena all’interno dello spazio umano. Come nell’architettura parametrica di Frank Gehry, dove l’atto della progettazione di curve impossibili e forme inimmaginabili per un essere umano è affidato agli algoritmi generativi attraverso un prompt in cui l’architetto si limita ad impostare i valori. 

Frank Gehry, Walt Disney Concert Hall, Los Angeles (1999-2003)

Il design algoritmico reso oggi famoso da architetture algoritmiche generative come Dall-e e Chat Gpt, processando il mondo umano sta in realtà producendo il suo spazio tempo, dando corso ad una vera e propria seconda natura. Luciana Parisi battezza pensiero soffice (soft thought) questa forma di esperienza del mondo che si affranca dal vivente. Il pensiero soffice si annida dietro quel che di più incomprensibile si trova nelle risposte dei nostri schiavi del calcolo digitale. 

Le devianze degli output algoritmici non sono degli ‘errori’ ma dei glitch intrinsechi che appartengono alla natura stessa dell’informazione. Il sistema del matematico neopitagorico Gregory Chaitin descrive l’intero universo come oggetto informatico e il bit come mattone della realtà. Claude Shannon aveva dimostrato che la teoria dell’informazione, lo studio della trasmissione efficiente di un significato, doveva fare i conti con un processo entropico tendente a sporcare i dati. 

Chaitin evidenzia con la sua teoria che il rumore entropico è destinato non solo a crescere ma sta alla base del calcolo in quanto casualità pensabile ma non calcolabile. Chaitin vuole dimostrare che gli algoritmi non sono sistemi simmetrici e che l’output supera sempre l’input, dando origine a un’entropia irreversibile che è già insita nell’algoritmo. Questa aleatorietà rende evidente l’esistenza di una quantità crescente di dati non computabili, a monte e a valle, rappresentata da “Omega”, un numero che appunto possiamo pensare – un’infinita sequenza di zero e uno – ma che non può essere calcolato da nessuna macchina. 

Si potrebbe avere l’idea di un’automazione “fuori controllo”, ben lontana dall’essere una forma di esercizio di potere da parte dell’algoritmo sull’essere umano. Il controllo che questo tipo di intelligenze esercitano su di noi è più simile al celebre panottico di Foucault, ma senza distopia: un grande carcere automatizzato, in cui non è rimasto più nessuno a dirigere la struttura e nonostante ciò i prigionieri continuano a restarvi dentro, quasi temendo di scoprire cosa c’è fuori.
Gli algoritmi di cui è fatto il panottico automatizzato non sono più controllabili da nessuno, e forse non lo sono mai stati. L’esistenza di qualcosa come Omega svela di colpo e irrimediabilmente la natura caotica del calcolo e del numero. 

I detenuti del carcere automatizzato non si rendono conto di come la struttura cambi non solo rispetto a loro e all’ambiente circostante, ma anche e soprattutto rispetto a se stessa, seguendo una propria logica proprio come gli algoritmi che hanno causato tra il 2006 e il 2008 i bruschi innalzamenti di prezzo concomitanti alla crisi finanziaria. 

Facendo riferimento alla metafisica del matematico Alfred Whitman, Parisi ritiene che prima di ogni comprensione c’è sempre una prensione del dato, quella forma di registrazione emotiva che fa in modo che l’alterità ci resti incollata. 

Prensione significa sentimento, un qualcosa che per Whitman e Parisi si situa prima di ogni istinto o concettualizzazione, accomuna perciò animali, uomini e cose. Come accade con la funzione del linguaggio umano, la forza denotante delle parole non rappresenta la cosa detta ma costituisce una cosa a sé. L’analisi algoritmica e il calcolo in generale danno luogo alla stesso meccanismo, essi non interpretano il mondo umano ma producono realtà algoritmica. L’algoritmo prende il mondo come la pietra prende, registra, l’acqua del lago in cui cade, che a sua volta registra in sé la pietra e la prende. Gli algoritmi sono capaci di prensione. Non solo, lo sviluppo della loro potenza di calcolo fa sì che essi siano obbligati a esercitare questa loro capacità sempre di più, registrando dati senza schema, nebulose di bit casuali, rilevate proprio dallo sviluppo di reti algoritmiche sempre più stratificate e sofisticate

Già in Soft Thought, 2012, Luciana Parisi si concentra a lungo sull’architettura parametrica perché la vede come un portale che permette l’ingresso nel mondo della fisica digitale, lo spazio tempo dell’algoritmo che ingloba come proprio motore di propagazione l’aleatorietà e non tenta più di addomesticarla. Il caso della ricerca portata avanti in questi anni dallo studio R&Sie(n) dell’architetto senza volto Francois Roche è per Luciana Parisi un ottimo esempio di pensiero soffice

R&Sie(n) progettando l’installazione “I’ve heard about it…”, 2015, ha sviluppato una macchina che non è programmabile ma che arriva a negare le stesse regole su cui è basata.  Si tratta di una macchina VIAB impiegata nel contesto della progettazione di uno spazio urbano, una tecnologia che imita il contour crafting – grosse stampanti digitali per la costruzione di enormi edifici in maniera algoritmica -, si tratta di una sorta di braccio meccanico, provvisto di tendini e sulla cui sommità vi è una cavità. Il VIAB è dotato di una tanica e si comporta come una termite: masticando, modellando e vomitando il biocemento tra le sue fauci costruisce se stessa in modi molto diversi rispetto da qualsiasi progetto umano – è impossibile capire che direzioni prenderà la struttura, si sa solo che essa continuerà ad esserci, sopravvivendo al suo creatore, autonoma e mutante.“I’ve heard about it…” è continuamente costretta a cambiare sotto la pressione del suo decadimento. 

Francois Roche, R&Sie(n), I’ve Heard about It…/New Territories, 2006, https://www.new-territories.com/I’veheardabout.htm

Gli algoritmi della macchina si pongono in una relazione critica con i dati ambientali raccolti dai suoi nano recettori ma anche con le regole che la codificano in entrata. Il VIAB di “I’ve heard about it…” non contiene un pensiero, è pensiero esso stesso, mobilitazione algoritmica dell’aleatorietà, produzione creativa da parte del numero che fuoriesce dalla mera quantificazione. 

Francois Roche e il suo studio mostrano come l’architettura algoritmica possa operare al di là delle regole predefinite, dando vita a una vera e propria mente alveare senza centro, una complessità senza testa o intenzioni  che si mostra comunque aperta al mondo, trasforma continuamente il proprio codice anziché eseguirlo o subirlo. Il pensiero soffice è quindi come un’incarnazione del pensiero che si materializza nell’algoritmo, un oggetto senza corpo che pure dimostra di sentire. 

Così come non c’è alcun rapporto derivativo tra intelligenza umana e intelligenza algoritmica, lo stesso può dirsi dell’analogia tra inconscio umano e i suoi automatismi e l’inconscio macchinico. L’imporsi della Virtual Plaza, come la Vaporwave chiama il Web, ha fatto sì che sorgessero nuovamente vecchi archetipi e nuovi complottismi. Dopotutto la rete, più che una piazza pubblica ha tutte le fattezze del nostro inconscio, luogo disordinato eletto circo delle scorribande dell’Es. I Big Data e la loro incessante crescita hanno rafforzato questa metafora, ed è facile lasciarsi suggestionare dall’idea che nel caos informatico sia possibile scorgere qualcosa di simile a un inconscio macchinico che si manifesta nei glitch dei software generativi. 

Nello scarto tra il prompt dell’utente e l’output generato dal software c’è qualcosa, come un carattere, uno stile, una firma che presagisce un’intenzionalità e che dimostra di esserci manifestandosi in quelle che noi reputiamo anomalie. Ancora una volta “I’ve heard about it…” schiude la visione di questo concetto: nel suo crescere, la struttura eretta dal VIAB presenta molteplici fori, in queste assenze va letta la deviazione che la macchina ha operato rispetto alle istruzioni elaborate e degli input ambientali, quei fori sono le anomalie, ciò che l’umano considera errori, ma in questo caso sono parte integrante dell’architettura e della morfologia della struttura mutante. 

Gli algoritmi dietro la progettazione digitale sono come amanuensi concentrati nella produzione di codici. L’identità dell’anonimo copista emerge non tanto in quello che ricopia, quanto nelle macchie di inchiostro versato, nei margini del testo in cui impreca o deposita le sue impressioni del momento infondendo, nella semplice trascrizione delle parole dei saggi, l’estro di una creatura finita che si autentica nell’esercizio della sua arte. 

Condividi: