top of page

I turchi meccanici sognano? Intelligenze artefatte e governamentalità algoritmica




Terminiamo oggi la pubblicazione dei materiali del corso «Espistemologie», che rappresenta un ricco archivio di conoscenze e piste di ricerca per sviluppare una critica della scienza e al suo ordine del discorso. Concludiamo questo percorso con un dialogo tra Federico Chicchi, sociologo dell’Università di Bologna, e Matteo Polettini, fisico dell’Università di Lussemburgo. Intrecciando saperi differenti, il dialogo impatta la questione epistemologica attorno ai temi della probabilità, dell’oggettivazione e dell’influenza degli algoritmi sul mondo del lavoro.

 

* * *


Polettini

Quando ci siamo sentiti con Federico Chicchi per discutere su quali temi convergere, abbiamo individuato l’articolo di Rouvroy, Stiegler (2016) The digital regime of truth: from the algorithmic governmentality to a new rule of law, come punto di contatto. Allora con i miei strumenti tecnici vorrei provare a sostanziare alcune delle intuizioni che ci sono in questo articolo. L’altro input di partenza saranno le riflessioni sentite nei precedenti incontri di questo ciclo, soprattutto il confronto tra Donini e Gagliasso[1] sul tema dell’oggetto/soggetto/processo.


Sono un fisico matematico e mi occupo di meccanica statistica, e mi sono interrogato spesso sul ruolo della probabilità in fisica e nelle scienze. Per questo vorrei partire da un famoso problema, il Monty Hall (https://it.wikipedia.org/wiki/Problema_di_Monty_Hall).

 


Illustrazione: ci sono tre porte e dietro una delle tre c’è un premio. Il conduttore del gioco chiede a una partecipante di scegliere una delle tre porte, che tiene chiusa, dopodiché apre una delle altre porte dietro cui non c’è il premio (ce n’è sempre una disponibile, e nella nostra immagine dietro le porte “sbagliate” ci sono delle capre). Ora come scelta finale la partecipante può cambiare porta o rimanere con quella scelta prima dell’apertura. Ci chiediamo se sia vantaggioso cambiare porta o se sia equivalente.

Intuitivamente la maggioranza delle persone tendono a dire che la scelta è indifferente, ritenendo che ci sia eguale possibilità di un premio nelle due porte rimaste, stando a una definizione intuitiva della probabilità (eventi favorevoli diviso per gli eventi contrari).

Questo ragionamento è fallace perché utilizza una definizione di probabilità data a posteriori, che non vede il processo. In un certo senso questo ragionamento «oggettifica» una certa idea di probabilità e rimuove il processo storico che ha portato a quella situazione. La soluzione corretta al problema invece tiene conto di tutto il processo: se la porta scelta inizialmente fosse quella dietro cui c’è il premio (in un caso su tre), il conduttore potrebbe aprire una delle due porte rimaste prima di chiedere alla giocatrice se intende cambiare scelta oppure no; se invece la porta scelta inizialmente non cela il premio, il conduttore è obbligato ad aprire una porta specifica tra le due rimaste. Ne risulta che in due casi su tre a cambiare porta si vince con il 66% di probabilità. L’azione del conduttore non è neutra, ma ci fornisce un’informazione.

Questo è un banalissimo esempio di come il concetto di probabilità può essere controintuitivo, da cui capiamo che la costruzione del concetto di probabilità richiede una valutazione della storia degli eventi che hanno portato alla configurazione attuale, e tutta l’informazione che i/le partecipanti alla costruzione del concetto portano in campo.

Andiamo ora verso la questione della probabilità nelle scienze cosiddette naturali. Quando la probabilità viene narrata in modo semplice e idealizzato, è rappresentata in termini di problemi purificati come il lancio di un dado. Poi però assumiamo che questi esempi siano un universale per le nozioni più quotidiane di probabilità.

Il dado è un oggetto simmetrico, ed è «naturale» assumere che le sue facce abbiano la stessa probabilità di ⅙. Si parla spesso in questo caso di un tipo di assiomatizzazione frequentista: la probabilità è semplicemente il rapporto tra casi favorevoli e casi contrari, calcolato nel corso di moltissime realizzazioni ipotetiche di un esperimento. Però, anche se è plausibile che siano stati fatti moltissimi lanci di una moneta o di un dado nella storia dell’umanità, non abbiamo bisogno di tirare un dado tantissime volte per essere convinti che le sue facce siano equiprobabili. Piuttosto abbiamo costruito il nostro oggetto con delle simmetrie e delle proprietà che ci fanno presumere che la probabilità dei lanci sia facilmente predicibile.Nelle scienze cosiddette naturali non c’è la possibilità di ripetere così tanti esperimenti. Quindi esiste una costruzione della probabilità che non è frequentista (viene talvolta detta «bayesiana soggettivista») e che non postula una probabilità assoluta ma la costruisce passo-passo. A partire da degli assunti sulla realtà, da tanti piccoli aggiustamenti, altre teorie e considerazioni precedenti, e acquisendo ulteriori informazioni si aggiusta il valore di probabilità con un processo detto di inferenza, che è una forma di apprendimento.

Quindi nelle scienze cosiddette naturali la probabilità contiene tutta la storia degli esperimenti fatti, e addirittura anche quelli non fatti! Segnalo a riguardo il lavoro del sociologo della scienza Harry Collins sui valori di verità condivisi e accettati dalla comunità che studia le onde gravitazionali. Ma prima torniamo un momento all’articolo di Rouvroy e Stiegler, in cui si parla del «regime digitale della verità». Non sono sicuro di cogliere in pieno l’idea foucaultiana di «regime di verità», ma l’approssimerei con quelle narrazioni che una comunità si dà per stare insieme e dare senso alle proprie iniziative. Allora in questo senso Collins ha fatto un grande lavoro di ricostruzione dei valori che tengono insieme la comunità dei ricercatori di onde gravitazionali. Si tratta di una collaborazione tra gruppi in tutto il pianeta, di una comunità che in passato ha fatto delle affermazioni troppo azzardate che sono state poi confutate e nel corso degli anni si è ricostruita a partire dal senso che danno agli strumenti statistici che usano per «scoprire» le onde gravitazionali.

Nel lavoro di Collins (2014) Gravity’s Ghost and Big Dog, c’è un bellissimo capitolo in cui si spiega la difficoltà nella costruzione degli strumenti statistici di analisi dati. Uno dei principali problemi è quello del file drawer: per costruire la probabilità di un evento bisognerebbe confrontarsi con tutti gli esperimenti fatti in passato e addirittura anche di tutti quelli ideati ma non realizzati. Questo mi rimanda a un passaggio dell’articolo di Rouvroy e Stiegler in cui si parla del virtuale come lo spazio di tutti i possibili futuri e possibili passati di una singola persona. Ecco, questo virtuale gioca un ruolo importante nella costruzione delle probabilità.

Un altro aspetto critico nella costruzione della probabilità è: quando finisce il gioco (la modellizzazione) e ci prendiamo sul serio (l’esperimento)? Deve esistere un playground in cui possiamo «giocare con i dati», indagare la loro possibile struttura. I numeri non parlano da sé, è necessario costruire un apparato concettuale per estrarne informazione. Però se mettiamo troppa intenzione nell’analisi dei numeri, non stiamo mai davvero osservando qualcosa. In altri termini, se siamo troppo «oggettivi» non diciamo nulla, mentre se siamo troppo «soggettivi» la verità che diciamo non ha riscontro al di fuori di noi stessi.

Collins mostra che la comunità di onde gravitazionali costruisce due momenti nel suo lavoro: quello in cui è permesso giocare con gli strumenti statistici per estrarre un segnale dai dati delle osservazioni astronomiche, e un secondo momento dove non c’è più il diritto di manipolare i dati ma le tecniche vengono applicate all’osservazione in maniera rigorosissima. La cosa importante qui è che non c’è niente di qualitativo che distingue tra le due fasi: si tratta di una decisione presa da quel consorzio di persone, in cerca di verità non assolute ma legate a delle buone pratiche che loro mettono in atto (e così facendo dimostrano anche al resto del mondo che il loro lavoro è serio e credibile).

Esistono anche meccanismi che creano regimi di verità più numerici e quantitativi, e più normativi per le vite, ma su questo ora non mi addentrerò. Per ora ho fatto una panoramica sul ruolo di oggetto e soggetto all’interno della probabilità, e sul ruolo dei processi. Ovviamente oggettivizzare non è un male in sé, serve per creare un dizionario comune, però bisogna ricordare che dietro l’oggettivazione esistono delle pratiche, dei soggetti e dei processi.

Continuando a seguire la traccia di Rouvroy e Stiegler: ci chiediamo ora in che modo le pratiche di apprendimento automatico tramite machine learning escano dal paradigma che abbiamo descritto, mettendo addirittura in crisi il concetto di regime di verità.

C’è un fatto tecnico importante degli algoritmi di apprendimento automatico che provo a sintetizzare: questi algoritmi sono funzioni matematiche implementate da una macchina che approssimano delle «funzioni verità» che si suppone esistano. Ad esempio, si suppone che esista una funzione verità che sa dire di ogni immagine se è un cane o un gatto. Noi non la conosciamo, ma credendo o sperando che ci sia, costruiamo delle funzioni che la approssimano interpolando molte immagini di cani e gatti. Le tecniche specifiche non sono molto esotiche, e per moltə fisichə questo rinascimento del machine learning è stato sorprendente perché, a livello teorico, si tratta di risultati degli anni ‘70-‘80. L’unica ragione per cui adesso questi algoritmi sono così diffusi è che abbiamo a disposizione molti dati e molta potenza di calcolo.

La specificità di questi algoritmi è che le funzioni approssimanti di cui abbiamo parlato sopra sono altamente non lineari, e di fatto è impossibile ricostruire quello che sta facendo l’algoritmo. L’algoritmo diventa una specie di oracolo. Quindi la giustificazione del loro operato non può avvenire su un piano di controllo della teoria che vogliamo confermare o confutare. Viene a cadere un confronto con uno dei pilastri del «regime di verità» della comunità scientifica.

Ecco in che senso, sempre secondo Rouvroy e Stiegler, esiste semplicemente il dato in sé, oggettivizzato, intrinseco e immanente. La giustificazione degli algoritmi diventa whatever works, se funzionano funzionano altrimenti nisba (ma non si potrebbe dire la stessa cosa della scienza tutta?!). Qui si apre un’altra questione: cosa significa «funzionare»? Finché un algoritmo deve apprendere a giocare a scacchi è abbastanza facile capire se funziona o no. Io sono un fan del gioco e trovo appassionante vedere come si comportano questi nuovi algoritmi di apprendimento automatico rispetto ai vecchi algoritmi deterministici: fanno delle scelte che in passato nessuno avrebbe fatto e non c’è la possibilità di sapere «perché» fanno una mossa piuttosto che un’altra.

In questo caso è chiaro cosa significhi che gli algoritmi funzionano: funzionano se vincono a scacchi. Invece se un algoritmo deve decidere come far pattugliare alle forze di polizia le aree di una città, oppure come assegnare i bonus di un’assicurazione, è chiaro che il significato di «funzionare» diventa molto più complicato. Come scrivono molto bene Rouvroy e Stiegler, l’algoritmo non avendo necessità di una giustificazione diventa automaticamente operativo nel momento in cui si esprime nella società. E nel momento in cui è operativo esso stesso determina la società, lo spazio delle cose possibili, lo spazio delle cose che si possono attuare.

 

Chicchi

La mia attività professionale non ha mai affondato le sue radici nella riflessione epistemologica. Eppure, quest’ultima, in questa fase così turbolenta per le scienze, ha una rilevanza straordinaria. Ovviamente, essendo un sociologo mi sono molto occupato di metodologia e in particolare di metodologia delle scienze sociali. Premesso questo volevo qui proporre una riflessione partendo da un altro lato del problema, rispetto a quello scelto da Matteo. Provare cioè a capire in che modo il tema e la questione degli algoritmi impatta oggi sul mondo del lavoro. Dirò alcune cose a partire dalla letteratura che esiste a riguardo: il modo in cui si vengono a determinare i rapporti tra gli algoritmi, le piattaforme e il lavoro vivo, per poi provare invece a interloquire direttamente con Matteo attraverso le riflessioni della filosofa del diritto belga Antoinette Rouvroy e nello specifico con la questione che la studiosa belga definisce «governamentalità algoritmica».

Innanzitutto, credo sia opportuno e corretto evitare di considerare la tecnologia algoritmica, e il modo in cui questa viene implementata nelle piattaforme, come fosse così tanto sviluppata e avanzata da determinare, in maniera pressoché automatica, tutti i processi che si realizzano nel contesto produttivo e di estrazione del valore su cui insistono. In altre parole, vorrei provare a demistificare quella l’idea, oggi piuttosto diffusa nell’immaginario sociale, che tutto ciò che «funziona» sia oggi già di per sé collegato al funzionamento di una macchina «algoritmica».

Il titolo del mio contributo è «I turchi meccanici sognano?». Il turco meccanico è una macchina inventata nel Settecento che era apparentemente capace di giocare una partita di scacchi senza alcun intervento umano. Come è noto questa macchina in realtà era una specie di contenitore all’interno del quale si nascondeva un «nano gobbo» (Benjamin, 2007) che attraverso un gioco complesso ma efficace di specchi vedeva la scacchiera e muoveva con dei magneti e dei fili i pezzi su di essa.



 

Credo sia opportuno mettere in chiaro che l'automazione e i processi automatici che riguardano la produzione di valore nell'economia contemporanea, per quanto investiti da flussi di digitalizzazione crescenti e sempre più efficaci, ancora oggi si basano su un sistema molto simile a quello del turco meccanico: vale a dire che esiste un processo, come lo chiama Antonio Casilli, di «allevamento degli algoritmi» che è un processo basato sul lavoro vivo tuttora in atto e tuttora necessario per far funzionare le macchine digitali. Più che di funzionamento automatico degli algoritmi ci troviamo. cioè in una fase in cui stiamo raffinando le modalità attraverso cui raccogliamo e organizziamo i dati che servono a far funzionare in modo «intelligente» ed euristico queste macchine. Questo significa che dietro a tutta una serie di procedure che noi crediamo automatiche in realtà si nasconde una trama fitta di attività umane che secondo paradigmi di neo-taylorizzazione e di parcellizzazione estrema del lavoro, non fa altro che indicare, dettagliare, catalogare immagini, file audio o tracce di dati che produciamo quando utilizziamo i dispositivi digitali. Dietro questa mole di dati c’è cioè un'intera popolazione di lavoratori che accompagna il processo che servirà all’algoritmo per riuscire poi in futuro a discriminare e prendere decisioni al loro posto. Casilli (2020) ha scritto questo libro che in italiano è uscito con il titolo Gli schiavi del clic per mettere in evidenza come oltre questa coltre ideologica, che chiama «ideologia californiana», in questa automazione che renderebbe il lavoro già superfluo, in realtà si nasconde un processo che porta la già avanzata precarizzazione del lavoro e il già oltremodo avanzato sfruttamento del lavoro a una fase ulteriore oggi ancora più esasperata. I «turchi meccanici» nasconderebbero nella loro pancia migliaia di lavoratori che eseguono quelle che Casilli chiama attività di digital labor e, in particolare, taskification del lavoro, cioè un lavoro fatto di micro-attività micro-remunerate (quando va bene) che attraverso l’iscrizione ad alcune piattaforme dedicate uno può decidere di eseguire, in taluni casi, anche in cambio di pochi centesimi. E quindi esisterebbe un lavoro digitale che sarebbe tutt’altro che virtuale, realizzato digitalmente, in senso etimologico però: attraverso le dita dagli schiavi del click. Raggiunta una certa soglia di dati, l’algoritmo comincia però poi a funzionare in automatico. Le nuove applicazioni del lavoro del turco meccanico sono le più svariate, ad esempio sempre di più sotto la retorica del digitale e dell’intelligenza artificiale vengono offerti servizi, anche molto complessi.

In questo senso ancora Antonio Casilli nel suo libro ci racconta una storia paradigmatica: è la storia di una società francese che vanta di utilizzare l’intelligenza artificiale per fornire servizi di svago a persone facoltose. Simon, un lavoratore intervistato dal sociologo italiano, decide di fare in questa azienda un tirocinio di formazione post-laurea. A un certo punto, dopo parecchio tempo che lavora lì come stagista, si trova casualmente vis-à-vis con l’amministratore delegato dell’impresa. Simon coglie l’occasione al balzo e con un po’ di coraggio gli chiede il perché nei tre mesi che ha passato presso l’azienda non ha mai incontrato un ingegnere e neanche un programmatore che si occupi di intelligenza artificiale. Come facciamo a fornire i servizi che pubblicizziamo? Gli domanda. Il capo gli risponde che l’azienda non ha nessun’attività reale di sviluppo dell'intelligenza artificiale, semplicemente raccoglie dati da queste persone che chiedono divertimento originale e li manda in Madagascar dove ci sono altri dipendenti della stessa azienda che lavorano su questi dati e li trasformano in un pacchetto di servizi per i vip. Sono loro che si occupano di individuare le perversioni inespresse e nascoste dei clienti e di trasformarle in esperienze adatte ad accontentare queste persone. L’I.A. è dunque solo uno specchietto per le allodole per attirare l’interesse sull’azienda e le sue proposte commerciali.

Questo racconto pone una questione che dobbiamo fare nostra: ciò che noi chiamiamo intelligenza artificiale, in realtà, è qualcosa di molto più complesso di un algoritmo, è qualcosa che si interfaccia con un modo d’essere del lavoro vivo che la stessa intelligenza artificiale (intesa come retorica) sta piano piano trasformando e trasfigurando. Casilli pone il problema di trovare il modo di evidenziare la questione perché fino a che questo lavoro resterà pressoché invisibile, cioè resterà ricoperto dalla retorica della «ideologia californiana», resterà un lavoro non protetto, sfruttato e sempre di più sottoposto alla rapacità capitalistica. Il rapporto tra lavoro morto e lavoro vivo, tra macchina digitale e lavoro vivo, è così tutt’altro che già esaurito nel campo digitale, al contrario è un processo assolutamente aperto, pervicace e ancora tutto da definirsi.

Da parte mia sono però convinto, seguendo il lavoro di Rouvroy e Stiegler (si veda in proposito il suo libro La società automatica, 2019), che l’applicazione alla realtà sociale ed economica della logica algoritmica vada oltre il lavoro e abbia la capacità radicale di modificare quella che si può definire l’arte di governo neoliberale Chicchi, Simone (2022). Cioè le norme che interpellano le soggettività si sono, a mio avviso, modificate a partire da questa inedita disponibilità tecnologica.

Il tempo e il modo in cui effettivamente queste dinamiche di estrazione del valore attraverso il digitale si realizzano sono lunghi e ancora da determinare, ma dal punto di vista della possibilità di verificare l’esistenza di una norma che regola l’attività sociale non più a partire da dei regimi di verità ma a partire da alcune evidenze che gli algoritmi sarebbero in grado di determinare, credo, sia un tema estremamente attuale che non vada sottovalutato. Al di là della retorica sull’automazione di cui ci parla Casilli. Qual è quindi la questione? C’è un’immane raccolta di dati, parafrasando Marx, che nelle metropoli è ossessivamente insistente, dove i flussi di soggettività, per ora chiamiamoli così, si sviluppano e articolano tra di loro incessantemente. La qualità della norma algoritmica tende però a frammentare la soggettività fino a ridurla a qualcosa di diverso da come noi l'abbiamo sempre intesa nel moderno. Cioè si arriva a prefigurare il concetto di «dividuale», di cui ci ha parlato in termini filosofici, Deleuze (1999). I dividuali sostanzialmente non sono più delle soggettività in carne e ossa, non sono più dei corpi, non sono più dei soggetti morali, non sono più delle identità, ma sono dei flussi rizomatici che scompongono le soggettività e i passaggi che si trovano a compiere. i nuovi profiling non sono così più neanche riconducibili a quello che noi pensavamo essere il corpo di un individuo. E non sono neanche a base categoriale perché la categoria ci riconduce ancora una volta a una statistica di tipo «attuariale», come sottolinea Rouvroy. Quello che succede è che sostanzialmente l’algoritmo non classifica le persone a seconda di alcune caratteristiche statistiche tradizionali, quali: genere, razza, età, appartenenza territoriale, ecc. Questa quantità massiva di dati inimmaginabile fino a poco tempo fa ci permette di costruire un profiling di tipo nuovo che non ha più necessità di essere rappresentato dentro le classiche categorie statistiche ma in un certo qual modo riesce a rappresentare esattamente la condizione di ciascuno, in maniera ancora più pervasiva: ciascuno nella sua parzialità singolare che viene chiamata in causa dal processo che si intende far funzionare. Così viene ricostruito e catturato anche il campo delle mie possibili azioni all'interno di quel contesto. In questo senso la Rouvroy (2016) parla di «prelazione», cioè si tratta di definire, attraverso il profiling dei dati, di individuare dei comportamenti, delle condotte future.

Il tema che pone Matteo Polettini è centrale, cosa significa «funzionare»? Si tratta di misurare l’efficienza prevalentemente dal punto di vista economico-contabile, affinché questi flussi possano essere profilati devono così essere anche quantificati e quindi queste soggettività si muovono dentro i flussi metropolitani e vengono segmentate nelle loro diverse parzialità (quindi il profilo non dice tutto di quella persona, dice quello che interessa in quel momento rispetto a una funzione economica che si deve raggiungere). Il punto è che l’algoritmo produce una serie di verifiche che danno vita nel momento stesso in cui questo flusso si determina a una verità fattuale, autoevidente, operativa e funzionale su quel determinato processo.

La Rouvroy nell’utilizzare il concetto di governamentalità algoritmica, Rouvroy, Berns (2013), provoca la tradizione foucaultiana. Il concetto di governamentalità è infatti usato da Foucault (2005) per indicare una trasformazione del potere in senso biopolitico. Secondo il filosofo francese il potere nella società dei consumi passa da essere per lo più disciplinare a governamentale, quest’ultimo è un potere positivo, che si basa sulla ricerca statistica e che non si esercita più solo a livello del corpo individuale ma anche su quello che in termini statistici chiamiamo una «popolazione». Per Foucault la governamentalità risponde a un regime di verità che è il farsi verità del mercato, il mercato diventerebbe l'indice di verità, l'indice di quel regime e quindi il governo funziona nel momento in cui produce degli effetti di efficienza negli scambi, nei commerci, nella concorrenza, dentro una logica neoliberale. Il neoliberalismo è il contesto privilegiato in cui Foucault colloca la governamentalità; quindi, la governamentalità risponde a un preciso regime di verità che si chiama mercato, l’economia politica è ciò che rende il regime di verità una tecnica ed esprime le modalità secondo cui gli Stati devono agire per agire correttamente.

La governamentalità algoritmica al contrario nega l’esigenza di rispondere a un regime, regime che cioè la giustifichi e che renda effettivamente egemone l’esercizio di una certa verità. La governamentalità algoritmica si autodetermina in quanto mostra un autoevidenza, un funzionamento ottimale e incontestabile, si fonda all’interno di un ciclo che psicoanaliticamente potremmo forse definire perverso.

Per tornare all’esempio degli scacchi: noi sappiamo che i computer che usano gli algoritmi di ultima generazione per giocare vincono praticamente tutte le partite che giocano contro gli umani. Il problema risiede nel fatto che non è possibile comprenderne le ragioni, non riusciamo cioè a capire il perché questo accada.

La verità in questo caso qual è? Qual è la teoria che l'algoritmo usa per vincere la partita? Non è possibile stabilirlo, ciò che accade è solo il fatto che l'algoritmo vince la partita. Allora noi, ex post, possiamo provare a studiare il modo in cui quella macchina ha condotto la sua partita ma difficilmente riusciremo a ricavare delle teorie ricorrenti. Il computer gioca infatti milioni di partite contro sé stesso finché non trova in maniera per lo più casuale alcune tattiche per vincere le partite. Non studia affatto le mosse dei grandi campioni e le partite più importanti proposte nella teoria del gioco, si limita a provare milioni di combinazioni a caso, fino a trovare euristicamente quella più efficace.

Di fronte a questa capacità di produrre effetti di efficienza tattica occorre inoltre sottolineare che gli algoritmi realizzano una modalità che rende il loro potere paradossalmente inoffensivo Rouvroy, Berns (2010, p.96), in quanto non è espressione di nessun regime di verità particolare ma solo dimostrazione di massima efficienza.

 

«La force de ce gouvernement réside très précisément dans le rapport qu’il noue au réel. C’est parce que, par la grâce des algorithmes de corrélation statistique, le savoir prédictif sur lequel il fonctionne fleurit «dans» un réel digitalisé (une « mémoire digitale totale » qui est aussi de la sorte une «mémoire du futur») que le gouvernement algorithmique semble particulièrement «objectif», enraciné dans le «réel». Que ce soit là éventuellement une illusion ne change rien : que le réel soit partiel, que la prédiction soit autoréalisatrice, que l’actuariel ne soit pas le réel, que l’efficacité qui sous-tend l’appel à ces pratiques soit autoréférée, tout cela peut toujours être montré, mais ne changera rien au fait que ce qui apparaît est la possibilité de gouverner les sujets, ou du moins leurs comportements, comme si c’était la réalité même de ces comportements qui en appelait à un tel gouvernement: non plus gouverner le réel, mais gouverner à partir du réel, tel qu’il est vraiment, et donc de manière inoffensive. Ceci signifiant dès lors aussi que l’accord – réel ou supposé – de ce qui est gouverné est acquis».

 

Ciò che è particolarmente rilevante è che l’algoritmo riesce a prefigurare anche quelle che sono le possibili soluzioni ma anche quelle che non saranno le soluzioni, questo è il grande tema del virtuale di Deleuze. Il problema è quello di un’occupazione non solo delle azioni che effettivamente registrano ma anche delle azioni possibili che a partire da quella registrazione poi ne potrebbero derivare. Non si tratta più di immaginare l’esercizio del potere come un esercizio topologico (modellizzazione dello spazio, es: il panottico) ma come un esercizio di modellizzazione del tempo, cioè l’algoritmo funzionerebbe determinando il modo in cui la temporalità soggettiva si compie. Che cosa vuol dire essere immanenti al reale? Non vuol dire semplicemente essere adesivi rispetto alla realtà, vuol dire essere adesivi rispetto anche a ciò che la realtà potrebbe essere. L’algoritmo avrebbe la capacità di stare nel tempo che serve all’individuazione, stare nel cuore del processo stesso. Il controllo di tutte le possibilità (attualizzate e non attualizzate) permette così all’algoritmo di sollecitare i comportamenti, non solo di registrarli, ma anche di indurli. Quindi qual è il cortocircuito all’interno del quale ci troviamo? Da un lato noi costruiamo le nostre attività, i nostri flussi, attraversiamo le città convinti di essere pienamente consapevoli di quello che stiamo facendo e in realtà siamo totalmente invasi dai fantasmi che l'algoritmo dissemina nel territorio, che noi attraversiamo e non possiamo fare a meno che entrarci in contatto e di subirne il fascino.

 

«La sua temporalità è quella dell’eterno presente: una giustapposizione di «ora» successivi. Essa non mira dunque più del tutto a governare degli «animali autobiografici» (Derrida), o dei «mortali» (Arendt), ossia degli individui in carne e ossa, capaci di patire e interpellati in quanto soggetti possessori di diritti e di obblighi, incaricati di rendere conto dei loro atti e delle loro decisioni. Essa non governa altro che delle reti di dati aggregati sotto forma di modelli «predittivi», i quali incarnano unicamente la pura potenzialità, l’opportunità economica rilevata in tempo reale, vale a dire l’opportunità pura, finalizzata solo in termini di accelerazione e di oggettivazione degli stessi processi di decisione, ossia, in definitiva, di automatizzazione della stessa decisione» Rouvroy (2016, p. 34).

 

Sicuramente possiamo, per concludere, sottolineare un dato: in ogni caso la tecnica, la tecnologia, le macchine, il lavoro morto, hanno un impatto sul modo in cui noi sentiamo e percepiamo il mondo, insistendo e condizionando il modo in cui la cooperazione sociale produttiva si organizza e produce. C’è tutta una politica «dei resti» e dei margini, o se volete degli intervalli, che dovremmo allora iniziare a pensare e poi praticare, sempre se crediamo nella progressiva importanza sociale della governamentalità algoritmica, ovviamente.



Note

[1] Video del terzo incontro qui (https://youtu.be/4holnlAsAW0).

 


Riferimenti bibliografici

W. Benjamin, Infanzia berlinese. Intorno al Millenovecento, Einaudi, Torino 2007.

A.A. Casilli, Schiavi del Clic. Perché lavoriamo tutti per il nuovo capitalismo?, Feltrinelli, Milano 2020.

F. Chicchi – A. Simone, Il soggetto imprevisto. Neoliberalizzazione, pandemia e società della prestazione, Meltemi, Milano 2022.

H. Collins, Gravity’s Ghost and Big Dog: Scientific discovery and social analysis in the twenty-first century, University of Chicago Press 2014.

G. Deleuze, Poscritto sulle società del controllo, in Pourparler, Quodlibet, Macerata, 1999.

M. Foucault, Nascita della Biopolitica, Corso al Collège de France 1978-1979, Feltrinelli, Milano 2005.

A. Rouvroy, La governamentalità algoritmica: radicalizzazione e strategia immunitaria del capitalismo e del neoliberalismo?, «La Deleuziana», n. 3, 2016.

A. Rouvroy – T. Berns, Le nouveau pouvoir statistique. Ou quand le contrôle s'exerce sur un réel normé, docile et sans événement car constitué de corps «numériques», «Multitudes», n. 40, 2010.

A. Rouvroy – T. Berns, Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation?, «Réseaux», n. 177, 2013.

A. Rouvroy – B. Stiegler, The digital regime of truth: from the algorithmic governmentality to a new rule of law, «La Deleuziana», n. 3, 2016.

B. Stiegler, La società automatica. L’avvenire del lavoro, Meltemi, Milano 2019.



* * *


Federico Chicchi è professore associato presso il Dipartimento di Sociologia e Diritto dell’Economia, insegna Politiche del lavoro e Globalizzazione e Capitalismo all’Università di Bologna. Svolge attività di ricerca sulle trasformazioni del lavoro, dell’impresa e della soggettività nel capitalismo.


Matteo Polettini è ricercatore in Fisica presso la facoltà di Scienze, Tecnologie e Medicina dell’Università di Lussemburgo, si occupa di termodinamica, del rapporto tra scienze e società e di comunicazione scientifica. È membro della comunità eXtemporanea, un gruppo di student* e ricercator* – ma non solo – sparpagliat* in giro per l'Europa, che si occupano del rapporto tra scienze e discorsi sociali/politici, tra verità scientifiche e forme della convivenza collettiva.


bottom of page