Chi legge tutta la teoria che viene prodotta? A cosa serve? Se oggi l’accelerazione cognitiva ha superato la nostra capacità di discernimento, la teoria è più un riflesso per inerzia. Ha fatto parlare giusto qualche mese -quindi un grande successo- il saggio Ipnocrazia, Trump, Musk e la nuova architettura della realtà di Jianwei Xun (Tlon, 2025), suscitando attenzione non solo per l’esperimento concettuale (infatti Xun, l’autore, non esiste o meglio, rappresenta un collettivo di scrittori e IA) ma per la velleità affascinante che aveva già fatto dire sì a decine di autori e ricercatori in giro per il mondo. I suoi neologismi e le sue formule vuote da Chat-GPT come edging algoritmico. Tutto sta nel titolo. Gloria Origgi per «MicroMega» scrive:
«Possibile che proprio io, che sono filosofa di mestiere e che mi occupo di disinformazione, sia cascata in una bufala simile? Ovviamente mi assumo le mie responsabilità: ho letto il libro in fretta, più sedotta dal titolo che dal contenuto, che non ho approfondito, ho verificato le fonti sommariamente e l’ho usato per scrivere un articolo di un blog altrettanto in fretta, perché si tratta del genere di articoli, come quello che sto scrivendo ora, che faccio per passatempo e ai quali dunque non concedo il tempo che dovrei per approfondire come il mio lavoro di filosofa in altri casi richiederebbe».
L’articolo L’ipnocrazia è la teoria della settimana comparso su «Il Nemico» coglie con lucidità questo paradosso: il proliferare incessante di etichette, l’euforia neologistica, l’ossessione per la parola definitiva che finalmente spiegherà l’irrazionalità sistemica della nostra condizione postmoderna: «Tecnofeudalesimo. Ipnocrazia. Iperpolitica. Surrealismo capitalista». È come se ogni parola nuova fosse il tentativo di cogliere la tracotanza della realtà in un senso tangibile. Ma quel senso è già stato scrollato. La produzione teorica contemporanea somiglia sempre più a un riflesso inconsulto: una messinscena, la cui urgenza d’analisi è subordinata alla logica dell’algoritmo e quindi a visibilità, engagement, capitalizzazione dell’attenzione, rappresentando solo un eterno aggiornamento di stato.
Il loop dei modelli generativi
Nel mentre, nel mondo che i teorici cercano di mappare a neologismi, si sta verificando un altro fenomeno: la nascita di agenti non-umani che non solo pensano, ma agiscono in modo probabilistico. A fianco dei modelli linguistici come Chat-GPT o Claude, stanno emergendo infatti forme più strutturate di intelligenza artificiale: agent AI (come Manus, anche se i tempi non sono ancora maturi per una vera scalabilità), capaci di eseguire sequenze di azioni per obiettivi specifici, imparando dal contesto e operando in modo indipendente. A differenza dei language model, che rispondono su input umano, questi agenti sono progettati per interagire autonomamente con altri software, sistemi e database, svolgendo attività cognitive complesse, prese di decisione incluse. Finora l’AI è stata narrata, quantomeno nei discorsi aziendali, come uno strumento di supporto che amplifica il lavoro umano senza sostituirlo. Ma Manus non affianca il lavoratore, lo rimpiazza.
E non lo fa solo nei settori a bassa specializzazione, parliamo di customer service, data analysis, marketing strategico, persino progettazione tecnica. Anche se alcuni casi mediatici ad alto impatto non mancheranno, il cambiamento non si manifesterà con licenziamenti di massa, ma con qualcosa di più silenzioso e omogeneo: la scomparsa di opportunità. Le aziende semplicemente non assumeranno più per ruoli che l’agente AI può svolgere da solo, rendendo il mercato del lavoro by design escludente.
C’è poi una questione non secondaria: quella della responsabilità. Se un agente prende una decisione sbagliata che provoca un danno, chi risponde? L’azienda? Il programmatore? L’agente stesso? Il quadro normativo attuale è impreparato a reggere il carico decisionale di agenti non supervisionati. La possibilità di errori è un elemento strutturale di qualunque sistema probabilistico. Come sostiene Mark Coeckelbergh nel suo libro AI Ethics (MIT Press, 2020), i tradizionali modelli di responsabilità presuppongono agenti umani con capacità di intenzionalità e comprensione morale che i sistemi AI non possiedono nella stessa misura.
È qui che trovo sia interessante riflettere sulla produzione culturale odierna. Come gli intellettuali contemporanei generano teorie senza responsabilità epistemica (una nuova ogni trimestre, senza mai tornare sui propri passi o assumersi le implicazioni delle precedenti) così anche gli agenti AI agiscono senza memoria etica. Ottimizzano funzioni obiettivo, non riflettono sul senso o sulle conseguenze. Nel frattempo, gli LLM, i grandi modelli linguistici, elaborano il senso a partire dalle co-occorrenze, dall’addestramento statistico, da pattern reiterati, affiancati dalla teoria chatbot. I teorici si comportano da chatbot umani. Gli agenti si comportano da teorici autonomi. Nell’assenza di una memoria, etica o epistemica si incontrano gli attori. Certo, sarebbe assurdo chiedere a chiunque faccia analisi o teoria di assumersi le responsabilità dirette di ciò che può succedere a seguito delle sue riflessioni, come se ogni parola potesse determinare le traiettorie future. Tuttavia, ciò che andrebbe indagato è la mancanza di memoria: non solo una memoria storica, ma una memoria culturale ed epistemica, che permette di legare il pensiero al suo contesto e di riconoscere le implicazioni di ciò che viene enunciato. Se la scomparsa del futuro, divenuta uno slogan generazionale da Bifo a Fisher, è ormai un concetto logoro, l’eccesso di archivi e l’eterno presente digitale ci hanno tolto anche il passato. Siamo intrappolati in una ciclicità di informazioni che non riesce a generare senso e che disconnette le esperienze dal loro sviluppo temporale, come analizzato ottimamente da Federico Stoto per «Inactual Magazine». La nottola di Minerva non vola più. Non siamo in grado di guardarci indietro e avere una visione aerea del passato, tutto è confuso e sovrapposto. Come cantavano i Ministri, cos’è successo negli ultimi anni?
Forse la domanda su cosa è successo è destinata a rimanere senza una risposta chiara, se il passato scivola in un continuo flusso di dati che non fa in tempo a sedimentare. Il COVID-19, la guerra in Ucraina, gli anni dei governi tecnici. La nostra capacità di riflettere sul tempo è compromessa e con essa la capacità di generare significato. L’archiviazione infinita delle informazioni, la Biblioteca di Babele della modernità, dove la ripetizione continua impedisce qualsiasi vera comprensione del flusso temporale è intraducibile. È il “qui e ora” che si dissolve nell’immenso rumore dell’archivio, dove il passato, pur se archiviato, non può più essere reso significativo. E così, la teoria si trasforma anch’essa in un riflesso senza respiro, un uroboro del post-moderno.
La bolla speculativa dell’espressione
Senza memoria perché con troppa memoria. Senza lavoro perché con troppo lavoro. Come ha osservato Žižek parlando delle IA, non è la perdita del lavoro il problema, ma cosa faremo di quel tempo libero teoricamente guadagnato nel remoto caso in cui si avverasse una totale automatizzazione del lavoro. La promessa del tempo liberato si è trasformata in tempo sovraproduttivo: ora scriviamo più che mai, ma non per creare senso, quanto per alimentare flussi. Le IA generano contenuti testuali, visivi e musicali a partire dai nostri dati, ma quei dati siamo noi, che veniamo invitati ad apparire, scrivere, performare, creare, affinché le macchine abbiano qualcosa da rielaborare. È il capitalismo dell’automazione che si nutre della nostra espressività come biomassa computazionale. Le profezie di Matrix si fanno più patetiche ogni volta che si realizzano.
Nel mentre, la sorveglianza viene delegata agli algoritmi, la produzione automatizzata, e l’unico campo in cui sembriamo ancora avere libertà è quello dell’espressione (un campo che però ci ha abbandonati). La parola si inflaziona. L’arte si smaterializza. La creatività si automatizza. Come nei mercati finanziari, stiamo vivendo una bolla speculativa dell’espressione: ogni contenuto sembra avere valore, ma pochi riescono a generare una reazione. L’offerta supera infinitamente la domanda, e il rumore prende il posto del messaggio.
La Dead Internet Theory, secondo cui gran parte dei contenuti online sarebbe oggi prodotto da intelligenze artificiali e bot più che da esseri umani, non è più un’ipotesi marginale. Si stima che già oggi il 57% del traffico internet sia generato da IA (Imperva Research Labs, Bad Bot Report 2021: The Pandemic of the Internet, Imperva, 2021). E se i dati sono veri, allora il web non è più un luogo di relazione, ma un teatro di simulazioni espressive. Il feed diventa un sogno algoritmico, in cui le soggettività sono dissolte e riformulate secondo la logica dei social-like: contenuti probabili, virali, già visti. Nel frattempo, ChatGPT scrive saggi pubblicati da Tlon, Sora vince contest cinematografici e Stable Diffusion causa crisi d’identità nei creativi e i medici iniziano a studiarle come patologie emergenti. Anche la produzione teorica delle accademie passa sotto lo stesso giogo. Secondo un’analisi condotta da Heather Desaire e colleghi (2023) presso l’Università del Kansas, pubblicata su «Cell Reports Physical Science», siamo di fronte ad una crescente omogeneizzazione stilistica nei testi scientifici, potenzialmente riconducibile all’uso dell’IA. La prolissità metodica e la neutralità asettica, un tempo considerate virtù della comunicazione scientifica, sono diventate indicatori di possibile generazione automatica. Si assiste così all’emergere di una nuova categoria di pubblicazioni: formalmente impeccabili ma epistemologicamente fragili, stilisticamente uniformi, pregne di frasi formulaiche e talvolta concettualmente sterili (se non errate), frutto di una collaborazione ambigua tra intelligenza artificiale e produzione accademica. Le IA non solo replicano: anticipano. Overfittano il futuro, ossia creano versioni del domani già ipotecate dal passato mediatizzato. Solo ciò che è stato traccia tornerà ad essere traccia.
Un tempo un blog poteva far nascere una rivoluzione, una community, un partito politico. Era uno spazio espressivo che diventava spazio di azione. Oggi l’atto dell’esprimersi non precede più l’azione ma la sostituisce. E così, nel momento di massimo valore di mercato dell’espressione (dove tutto è comunicazione, branding, storytelling) la parola perde valore simbolico, e anche politico. Non è più leva di trasformazione, ma indice di esposizione. Il rischio, allora, non è che l’IA ci rubi la creatività. È che l’abbia già fatto. E che non ce ne siamo accorti perché nel frattempo ci siamo convinti che esprimersi bastasse. Che comunicare equivalesse a comprendere. Che apparire equivalesse a esserci. E che pubblicare fosse già un gesto sovversivo. Ma non lo è, se a leggerci sono solo altre macchine.
La prossima crisi
Forse siamo già immersi nella prossima grande crisi del capitalismo postmoderno. Dopo aver trasformato ogni materia in merce, ogni attenzione in views, ogni esperienza in contenuto, il sistema si trova oggi a fronteggiare una nuova impossibilità: quella di valorizzare l’espressione. La parola, ridotta a stimolo algoritmico, perde la sua funzione di rivelazione e diventa puro trigger per sistemi automatici di distribuzione e monetizzazione.
Se il capitalismo industriale si fondava sull’accumulazione di beni e quello cognitivo sull’accumulazione di dati e attenzione, il post-capitalismo algoritmico si regge su una sovrabbondanza dell’espressione che genera inflazione semiotica: parole che non significano più, immagini che non rappresentano, soggettività che si esibiscono senza più potersi fondare. Secondo Berardi in The Soul at Work: From Alienation to Autonomy, si arriva così ad una crisi della soggettività contemporanea caratterizzata dall’iper-produzione di segni che la frammenta e dissolve.
Questa crisi di senso non arriva da sola. È preceduta da un lungo nichilismo memetico, in cui l’ironia ha disinnescato ogni affermazione, ogni volontà di presa sul reale. I meme hanno insegnato una cosa fondamentale alla nostra generazione: che è più sicuro distruggere il significato che assumerlo. Il reale, così, è stato progressivamente sostituito da infinite rappresentazioni, battute, reazioni. E ora, nel vuoto lasciato dalla distruzione simbolica operata dall’ironia e dalla saturazione di significati tipica del postmodernismo, l’IA entra a sostituirci nell’unico gesto che pensavamo inalienabile: l’atto di affermare la nostra soggettività.
Ma questa è anche, potenzialmente, la soglia di un’apertura. Perché mentre questa bolla espressiva implode, un’altra crisi si profila: quella economica, strutturale, già annunciata dai tassi d’interesse, dalla stagnazione del lavoro, dalle nuove disuguaglianze post-pandemiche e dallo spettro della guerra alle porte. Quando il valore dell’espressione crollerà, quando non sarà più redditizio produrre contenuti, né utile essere online, né remunerativo parlare, allora forse si renderà necessario inventare nuovi modi di stare insieme, di significare, di trasformare.
Questa volta, la crisi non sarà (solo) del mercato o della produzione, ma del senso. E solo chi avrà il privilegio di tornare a fare (fare comunità, fare gesto, fare realtà) potrà ricostruire, tra le rovine della parola inflazionata, una lingua nuova. Non più probabile, ma vera. Non ottimizzata, ma posizionata. Non performativa, ma incarnata. Purtroppo, l’alternativa, ben più plausibile e meno immaginifica e stimolante, è che la domanda resti centrata su contenuti “user-centered”, mentre le IA si faranno sempre più invisibili, integrandosi perfettamente nei processi, agendo dietro le quinte, fino a sparire. Non ci verrà più chiesto di riconoscere la macchina, ma solo di funzionare con essa.
E noi, che abbiamo già imparato a scrivere, parlare e desiderare come algoritmi, ci abitueremo anche a questo. Fino a che non saremo in parte utenti, autori e interfacce.
Intellettuali probabilistici
Ecco il cortocircuito: i nostri intellettuali operano ormai come i modelli generativi che dovrebbero analizzare. Non perché li imitino, ma perché condividono la stessa ontologia operativa. La teoria contemporanea non è più costruita sull’esperienza, sulla prassi, sulla storia, ma su pattern discorsivi: collage teorici, mash-up intellettuali, interpolazioni ermeneutiche.
Ogni nuova teoria si comporta come un token in una catena linguistica: deve avere coerenza locale, ma non memoria globale. Un pensiero atemporale, asincrono, post-veritiero. Come i LLM, i teorici generano output che “sembrano veri” perché suonano familiari, ma non sono radicati in alcuna tensione epistemica verso la verità. Le loro loss function sono l’engagement, la viralità, la pubblicazione.
In questo, sono gli iperoggetti intellettuali di un’epoca dove la verità è secondaria alla pertinenza. Non è importante se la teoria sia falsificabile o meno, è sufficiente che sia performativa, citabile, linkabile. A ogni manifestazione della realtà corrisponde un nuovo frame teorico: prompt engineer dell’accademia. Ad aprile 2025, un team di ricercatori ha presentato The AI Scientist-v2, un sistema in grado di condurre l’intero processo di ricerca scientifica: dalla formulazione di ipotesi alla pubblicazione di articoli. Uno dei lavori generati è stato accettato in un workshop peer-reviewed.
Algocrazia culturale e rendita cognitiva
In un regime epistemico in cui la cultura è mediata da algoritmi di predizione, l’algocrazia (la governance algoritmica, che per fortuna non è un mio neologismo) non è solo un sistema tecnico, ma una forma di governo del senso. Laddove i vecchi regimi censuravano, il nuovo potere calcola. E nella sua logica predittiva, tutto ciò che è teoricamente valido è ciò che ha già funzionato in passato, fintanto che quel passato lo ricordiamo. O meglio, che quel passato è stato mediatizzato. Ecco il punto cieco della nostra produzione intellettuale: la teoria come ipotesi conservatrice e solo di ciò che abbiamo già conservato. Come notava Byung-Chul Han, l’informazione è priva di durata e ciò che non dura non può trasformare.
In questo loop semiotico tra IA e teoria, tra performance culturale e automazione discorsiva, si erode ovviamente il terreno stesso dell’agire. Occorrerebbe tornare alla prassi, direbbe ogni analisi teorica in conclusione. Eppure l’ottica non è produttivista. Serve la prassi in un’accezione più radicale. Un’epistemologia incarnata, come metodo di conoscenza che trasforma a partire dall’esperienza vissuta. I seguaci di Merleau-Ponty direbbero che è già così, ma questo è un’altro discorso. Sarebbe tuttavia riduttivo cedere al determinismo tecnologico che vede nell’inflazione semiotica un destino ineluttabile. Come evidenzia Feenberg nel suo «Critical Theory of Technology», la tecnica non è mai neutrale, ma nemmeno predeterminata nelle sue conseguenze sociali. Ogni espressione algoritmica porta con sé potenzialità ambivalenti: se da un lato alimenta l’entropia informazionale, dall’altro potrebbe generare nuove forme di resistenza semiotica, nuovi linguaggi capaci di sfuggire alla prevedibilità. L’inflazione del senso non è necessariamente irreversibile; contiene al suo interno la possibilità di implosione generativa, di una crisi che restituisca peso specifico alla parola. Gli stessi sistemi che oggi producono sovrabbondanza potrebbero domani facilitare nuove ecologie dell’attenzione, nuove pratiche di cura del significato. Non si tratta di rifiutare la mediazione tecnologica, ma di abitarla criticamente, trasformandola da dentro.
Si contrapponga a tutto questo un’etica della teoria che rinunci alla seduzione del neologismo e si riappropri del rischio della posizione. Un pensiero che non galleggi nei flussi, ma che si incarni, che metta radici nella vita, che sia capace di dire io c’ero, io ho agito. La capacità di pensare il tempo, di fare memoria, è l’unica che ci permette di riprendere il controllo della nostra narrativa.Temevamo che le macchine diventassero come noi e alla fine abbiamo iniziato a pensare come macchine. La dolceamara nuova uncanny valley non è più quella dei volti artificiali troppo umani, ma delle teorie umane troppo artificiali. E forse anche questo articolo è stato scritto da Chat-GPT. O, col volgere di strani eoni, alcune espressioni che ho usato, ormai parte di sterminati dataset, torneranno generate in un articolo sul post-post-moderno.