top of page

«Non ho niente da nascondere»


Breve storia artigianale dell’Intelligenza Artificiale – seconda parte

 


Pélagie Gbaguidi, Spectrum of Homo mercantilis, 2016
Pélagie Gbaguidi, Spectrum of Homo mercantilis, 2016

Secondo articolo di Paolo Vernaglione Berardi, che ripercorre storia e caratteristiche dell'Intelligenza Artificiale.

Se il primo sottolineava i cambiamenti in termini di organizzazione del lavoro, della produzione e, complessivamente, della società, in questo secondo contributo l'autore si sofferma sull’operatività della macchina e su come essa inneschi un processo di normalizzazione che consiste nella perdita della capacità di percepire e di apprezzare le differenze tra ambienti ed esperienze reali e virtuali.

Le piattaforme, inoltre, convertono parole, cose e azioni in profili individuali orientati al consumo, trasformando l’insieme delle relazioni e delle interazioni in oggetti di valorizzazione e di transazione.


***


Da un primo esame, fatto a volo d’uccello, è venuto fuori il carattere pervasivo dell’Intelligenza Artificiale (IA) e la sua estensione a tutti campi dell’attività umana. Un altro aspetto è che l’introduzione dell’IA porta a un salto rispetto alle precedenti tecnologie digitali; un ulteriore elemento è che questa tecnologia ha dato e sta dando corso ad una trasformazione antropologica che rompe con i modi con cui, fino a poco tempo fa, sono stati rappresentati e considerati gli esseri viventi, gli ambienti e le realtà non umane.

La risposta della macchina oggi è articolata su più piani. C’è un primo piano che è quello delle procedure, quello dell’operatività di base che si è sviluppata con il PC e con i diversi devices «touch», con gli smartphone: ad una serie di comandi sullo schermo il dispositivo risponde innescando un’unica sequenza di operazioni.

Con l’IA generativa (Chat GPT, Gemini ecc.) l’evoluzione della programmazione informatica ha fatto sì che un primo piano di connettività sia integrato ad un secondo, quello della connettività audiovisuale: la comunicazione tra due o più utenti in tempo reale. A questo, si aggiunge un ulteriore piano, quello della «risposta» della macchina che proviene dall’elaborazione di una quantità di dati in continua crescita. La macchina estrae, seleziona e fornisce una risposta, ma profila l’utente secondo una certa procedura. Questa procedura è regolata dall’algoritmo che è il criterio operativo in base alle istruzioni date alla macchina; si tratta di una sequenza di operazioni che viene replicata ad ogni «interrogazione» dell’utente.

Le macchine-IA elaborano una enorme quantità di dati e informazioni raccolte in cloud di proprietà delle grandi corporation statunitensi – Google, Facebook, Meta, Amazon, Apple, X – e selezionano la risposta più pertinente o l’azione migliore in base alla richiesta. Big data e potenza di calcolo sono la materia e la forma della tecnologia di IA.

A differenza delle tecnologie precedenti in cui le macchine avevano comunque una limitata capacità di elaborazione, l’IA opera un accumulo continuo in una dinamica illimitata, ed è un accumulo basato sul tempo storico, sul tempo trascorso tra le prime forme di immagazzinamento di dati e informazioni e gli attuali cloud storage. Questo tempo è una potenza temporale che richiede una potenza di calcolo sempre maggiore per elaborare risposte «ottimali».

Molti critici parlano dunque di un evento di rottura. Questo salto del tempo storico delle tecnologie digitali rappresenta una soglia nell’evoluzione dell’informatica che apre un «altrove» che è concretamente presente.

Uno degli effetti rilevanti dell’attuale situazione storica riguarda la normalità quotidiana, o almeno, le abitudini e i modi di vivere in cui consistono le attività, il lavoro, le relazioni e gli ambienti, il linguaggio e l’uso del corpo in cui scorre il tempo quotidiano.

Questo cambiamento ha a che fare con la percezione della normalità: l’operatività della macchina innesca un processo di normalizzazione per lo più impercettibile che consiste fra l’altro nella perdita della capacità di percepire e di apprezzare le differenze tra ambienti ed esperienze reali e virtuali, dal momento che l’IA le riconduce ad un criterio univoco di realtà. La macchina sancisce un normale regime di verità dell’esistenza attraverso la replica dei gesti dell’utente. Il suo uso risulta un fatto ordinario al pari di altri gesti, attitudini, pratiche e preoccupazioni quotidiane, con una serie di impieghi e di necessità che attutiscono, fino a farlo scomparire, l’altrove in cui sono proiettati spazi, tempi ed esperienza e dissolvono il contrasto tra l’uso e la posizione sociale soggettiva. Così diventa irrilevante la condizione materiale di esistenza. La norma diviene la sequenza in cui il giorno scompare nella notte.

In secondo luogo, accedendo direttamente ai corpi e al linguaggio, l’IA, sia nelle sue app generative che in quelle di uso bellico e di controllo o con funzionalità domotiche, mette in conflitto la razionalità tecnica e i corpi, generando un conflitto che si risolve con l’adattamento dei corpi all’operatività della macchina.

Inoltre, le istruzioni impartite alla macchina per rispondere ai prompt (le domande degli utenti), sono elementi di un’educazione permanente. Non è la macchina ad essere addestrata ma i corpi e la lingua ad essere regolati secondo uno schema comportamentale basato sulla previsione. La vera istruzione viene impartita dalla macchina a chi la usa. L’educazione all’uso forgia un ambiente «naturale» in un’esperienza di normalità condizionata. La replica stabilisce un’abitudine di apprendimento secondo una legge implicita di induzione.

L’estensione mondiale e ormai cosmica delle piattaforme colloca questi ambienti in un altro spazio che è uno spazio indeterminato e obliquo, aperto nel taglio dei corpi, delle specie viventi e del consumo della terra. É uno spazio che attraversa i corpi, relega le specie viventi in ambienti inabitabili, estrae dalla terra risorse comuni rare, provvede la guerra di estinzione e attrezza la ricchezza all’immortalità.

Profilazione raffinata degli individui; estrazione e gestione di enormi quantità di dati personali con finalità di profitto; proprietà dei dati, delle informazioni, delle infrastrutture tecnologiche e delle risorse; produzione di ambienti interattivi che sostituiscono spazi, tempi e relazioni con esperienze immersive; costruzione di una soggettività di controllo e di induzione all’azione in base ad un criterio univoco di comunicazione. In questo scenario quotidiano, la critica dell’IA si è articolata intorno ad alcuni temi che hanno come linea comune quella della colonizzazione dell’immaginario, che segue la linea della critica della cibernetica come movimento guida, di orientamento generale, che spegne le istanze collettive e i desideri di progettazione comune.

Questo piano critico ha una storia: da ormai più di 30 anni la critica non considera le tecnologie digitali come il «grande fratello» che totalizza l’insieme delle relazioni sociali, ma ne osserva il movimento di infiltrazione, di contaminazione in una microfisica delle relazioni tra umani, non umani e macchine.

C’è un versante critico che si esercita dall’esterno della macchina-IA e da questa posizione di esteriorità rileva la differenza tra intelligenza naturale e artificiale riportandola alle facoltà del vivente. Si tratta di uno spazio critico che è terreno di conflitto tra l’organico e la macchina, che assume l’analisi delle condizioni di funzionamento dell’IA.

Vedremo come in questa critica si trova la contestazione di pratiche diffuse come l’estrazione di dati sensibili, l’esproprio di identità e risorse e soprattutto l’impiego bellico dell’IA in sistemi d’arma da remoto. Il tema, in altri termini, è quello del capitalismo della sorveglianza.

Nel suo recente libro, Shoshana Zuboff, docente alla Harvard Business School, ha esplorato l’intero territorio delle tecnologie di controllo a fini di profitto delle grandi corporation.

Questo tema si accompagna ad un altro, posto in questi anni dal filosofo e psicoanalista Miguel Benasayag. In un bel dialogo con Ariel Pennisi, docente all’Universidad Nacional de José C. Paz e co-direttore di Red Editorial, Chat GPT non pensa (e il cervello neppure), Benasayag riprende la teoria di due grandi biologi, Maturana e Varela e rileva le differenze tra macchine ed esseri viventi nella qualità dell’intelligenza e nella facoltà di interpenetrazione degli organismi, facoltà che è del tutto assente in una macchina da calcolo.

Su questa linea si svolge la ricerca che Renato Curcio compie da anni sulle tecnologie digitali e il loro potere di captazione. Nell’ultimo lavoro del laboratorio di socioanalisi, Intelligenze artificiali e intelligenze sociali (2024), Curcio riprende il filo della precedente ricerca e indica nell’enorme potere dei network globali l’agente del cambiamento antropologico e di trasformazioni epocali che richiedono forme di contrasto adeguate alle pratiche che l’IA pone e impone.

Infine, c’è una sponda critica che da anni costituisce il campo di ricerca di Rosi Braidotti, ribadita e approfondita nell’ultimo suo testo, Femminismi (2024). A partire dell’attuale realtà biologica, zoologica e antropologica, Braidotti segnala come l’insieme delle trasformazioni che investono materia vivente, protesi e dispositivi, comporta un’esposizione costante dei corpi a mutazioni che revocano le norme di genere, sesso, razza, in favore di una produttiva contaminazione tecno-naturale. Si tratta della mutazione complessiva dell’ibrido corpo-macchina che dà luogo a soggettività resistenti in spazi sociali e di immaginario ancora per molti versi inesplorati.

Shoshana Zuboff sostiene che la nuova forma di cattura e di sfruttamento «non si ciba più di lavoro, ma di ogni aspetto della vita umana». Come già aveva affermato la prima critica del capitalismo delle piattaforme, l’automazione e la composizione della forza-lavoro nella crisi del capitalismo industriale ha prodotto la rapida, inarrestabile estensione del lavoro cognitivo iscritto nella precarietà e nell’appropriazione di affetti, gusti, mode e forme di vita.

Il machine learning che è alla base dell’IA, costituisce dunque l’evento singolare che è stato possibile per l’accumulo storico di dati e informazioni. In questo evento cade la distinzione storica tra tecnologia e modo di produzione, tra tecno-scienze ed economia, tra conoscenza e potere che, da Weber ad Habermas, era stata indicata come rapporto sociale generale delle società occidentali. La cattura di attenzione, relazioni, affetti ridotti a clic e like, costituisce la più imponente tecnologia di governo della vita.

La grande trasformazione che Karl Polanyi indicava nella riduzione delle prerogative dello stato, è consistita nell’insieme delle tecniche, delle procedure e delle forme in cui il capitale è divenuto capitale umano; in cui il regime della fabbrica esteso alla società è divenuto regime della produzione di sé, della responsabilità individuale, dell’identità soggettiva; in cui il regime di libero mercato ha prodotto l’individuo come imprenditore di sé stesso, come consumatore e come investitore; in cui, infine, l’homo oeconomicus è divenuto il soggetto della razionalità strumentale ed è, oggi, l’agente sociale della produzione e del consumo di libertà.

Se consideriamo lo sviluppo tecnologico a partire dalla fine della seconda guerra mondiale vediamo che non esiste un sapere informatico, né esiste una scienza cibernetica che sia indipendente dal potere di stato e del mercato – e oggi dal potere di sfruttamento da parte delle corporations high-tech.

La critica della neutralità della scienza e l’evidenza dei dispositivi di sapere-potere in cui si è articolato lo sviluppo tecnologico, derivano dalla storia dei rapporti tra tecno-scienze, libero mercato e modi dello sfruttamento di lavoro, risorse e relazioni. Ed è una storia in cui ad un certo momento, il «sistema automatico di macchine» che Marx considerava il nuovo modo di produzione, ha incorporato le tecno-scienze. Questo movimento ha generato una tecnologia disciplinare e di controllo, di induzione e di soggettivazione. Una «presa» sulla vita che ha investito corpi e popolazioni.

Incorporazione soggettiva delle tecno-scienze, tecnologia liberale di governo della vita, accumulo storico ed estrazione di dati e informazioni, di affetti, relazioni e abitudini che divengono risorse scarse, fonti di profitto, proprietà; valorizzazione finanziaria della merce-informazione, connettività in tempo reale; digitalizzazione e penetrazione capillare di devices che sono terminali di produzione e consumo di identità, bisogni, tempo, spazio, movimenti, di volontà e di desideri.

Queste realtà si raccolgono «qui e ora» nell’architettura cibernetica che è l’insieme di dispositivi, di pratiche, di linguaggi, di vincoli e di modi di appropriazione che operano sul presupposto delle libertà e articolano l’insieme degli scambi e della produzione di ricchezza.

Le piattaforme big-tech convertono parole, cose e azioni in profili individuali orientati al consumo. L’insieme delle relazioni e delle interazioni ridotte a quantità di bit trasformano dati «sensibili» in risorse «insensibili», disponibili in tempo reale come oggetti di valorizzazione e di transazione. L’automazione intensa e quasi integrale dei processi di selezione, associazione e produzione di dati intensifica l’autonomia dei dispositivi personali.

Il passaggio dall’automazione all’autonomia della macchina, dalla connettività alla produzione autonoma di procedure, consiste nell’integrazione di processi che fa sì che si impieghi il termine «intelligenza» sia per l’operatività di dispositivi di cura, protesi e sostegno che per il monitoraggio degli effetti del cambiamento climatico; sia per i massacri, i genocidi e le operazioni di guerra «ibrida» che per la distruzione di comunità ed ecosistemi; sia per lo sfruttamento schiavistico delle popolazioni che per il respingimento, la detenzione e l’uccisione di migranti in terra e in mare. La delega alla macchina di processi, operazioni, scelte e decisioni genera una ambivalenza etica in cui si consuma l’«altrove» dello spirito del capitalismo. Crudeltà e violenza quotidiane esercitate in nome della sicurezza sono gli effetti diffusi della razionalità strumentale acquisita da un soggetto «intelligente».

L’IA genera dunque un’etica che è un insieme di pratiche riferito ad una norma indifferente all’uso. Rovesciando la famosa indicazione di Weber, si può dire che la causa etica del capitalismo big-tech effettua un «protestantesimo», una contaminazione di materia prima corporea, soggettivazione normalizzante e produzione di informazioni: il dispositivo di cura e le protesi corporee; l’identificazione da remoto, il drone che osserva lo scioglimento accelerato dei ghiacci e che rade al suolo un edificio, un ospedale, una scuola; la spia sottocutanea che previene ictus e infarti e la spia all’interno degli smartphone che cattura dati «sensibili» e innesca esplosivi; programmi per la manipolazione delle immagini e per la profilazione dei soggetti «a rischio»; intelligenza generativa per la scuola, l’università e la pubblica amministrazione e per tracciare le insorgenze; algoritmi per generare profitti sui mercati finanziari e sistemi «intelligenti» per la guida autonoma.

Shoshana Zuboff scrive che «Google ha beneficiato della contingenza storica e di un apparato di sicurezza nazionale che sulla spinta dell’11 settembre è stato propenso a coltivare, celare, camuffare e copiare le doti emergenti del capitalismo della sorveglianza per inseguire la conoscenza totale e le certezze che questa prometteva». Tutta la normalità di cui abbiamo bisogno si esprime nella flebile, volontaria adesione al programma d’uso del digitale intelligente: «non ho niente da nascondere».

La «privacy» scompare quando la sfera privata scompare. E scompare non perché viene violata, ma perché l’intrusione rivela la sua inesistenza. L’invenzione liberale che a partire dalla metà del XVIII secolo formerà il destino politico dell’occidente, compare, nella modernità, in contrasto e in rapporto alla sfera pubblica che identifica la società civile. A partire dalla metà degli scorsi anni Settanta il libero mercato ha eroso progressivamente la cosiddetta sfera pubblica, cioè l’insieme delle prerogative di controllo e di amministrazione dello stato. Lo stato perde il diritto di interferire con il funzionamento dell’economia mentre cresce il diritto al capitale come legge naturale dello sviluppo.

Quando il primo utente si accorge che Gmail scansiona la corrispondenza per generare inserzioni pubblicitarie a saltare non è dunque la sfera privata ma la falsa distinzione tra sfera pubblica ed economia di mercato.

Quando nel 1998 nasce Google, delocalizzazione e deregolamentazione dei mercati finanziari sono già un fatto storico. L’esempio di Google è emblematico. Nato come motore di ricerca con finalità «accademiche» e universaliste – «generare informazioni per gli utenti per migliorare l’umanità» era il refrain – dopo la crisi della net-economy del 2000 comincia a trasformarsi in un’agenzia di raccolta di advertising che profila gli utenti sulla base delle domande sui motori di ricerca.

Google è un’architettura automatizzata basata su «un’asimmetria di conoscenza e potere». Dall’interesse per gli utenti all’accumulazione basata sulla sorveglianza dei comportamenti il passo è breve. Ciò che infatti per i singoli è ricerca, bisogno, desiderio, umore, che possono essere resi pubblici – la famosa sfera pubblica virtuale dei primi ottimisti digitali – per Google è l’insieme dei dati da scambiare e da vendere. «Era necessario disporre di un’enorme potenza informatica e di algoritmi all’avanguardia per poter prevedere in maniera efficace il comportamento degli utenti e stimare la rilevanza di un ads», scrive Zuboff.

Nel 2003 tre scienziati informatici dell’azienda registrano un brevetto per usarlo nell’adevertising mirato che inaugura la politica economica dei clic finalizzata al profitto. I dati estratti non servono più per migliorare il servizio ma per «per far combaciare gli ads ai loro interessi, dedotti dalle tracce collaterali lasciate dal loro comportamento on-line». Nel processo di matching, di traduzione istantanea della domanda in pubblicità, si compilano nuovi set di dati chiamati user profile informations che rendono sempre più accurata la previsione. Il modello Google di estrazione e analisi dei dati diventa il modello universale sul web. Questo advertising content targeted mirato al contenuto venne chiamato AdSense.

Nel 2004 AdSense arrivò a una performance di un milione di dollari al giorno e entro il 2010 a più di 10 miliardi di dollari l’anno. Si stabilisce così una nuova forma di mercato: la compravendita delle previsioni di comportamento degli utenti. Nel 2016 il 90% circa dei ricavi della società madre di Google, Alphabet, derivavano dai programmi di targeted advertising di Google.

Nel 2017 Google è la seconda azienda al mondo per capitalizzazione: 649 miliardi di dollari. Nel 2017 i ricercatori a Pechino del motore di ricerca di Microsoft, Bing, scoprono che la stima accurata del tasso di clic degli annunci aumenta i profitti in maniera considerevole. Uno 0,1% in più di accuratezza vale centinaia di milioni di dollari di maggiori entrate. Una app di network neurali avanzati promette un miglioramento di 0,9% di uno dei sistemi di identificazione. Accumulazione per mezzo di esproprio. L’esperienza viene estratta, trasformata in pattern di comportamento e prodotta come un bene da scambiare sul mercato. L’esperienza rinasce come comportamento. La sorveglianza deve essere continua nello spazio, nel tempo e sulla mobilità.

Nel 2010 Google acquisì Keyhole, azienda di mappatura satellitare finanziata dalla CIA. Keyhole sarebbe diventata l’«anima» di Google Hearth e il suo fondatore avrebbe guidato Google Maps.

Nel 2009, secondo la rivista Wired, era la prima volta che la CIA e Google finanziavano la stessa start-up, Recorded Future, «in grado di monitorare ogni aspetto del web in tempo reale per predire gli eventi futuri». Negli ultimi mesi della presidenza Obama fu formalizzato un nuovo Defense Innovation Advisory Board  tra tecnici e Dipartimento della Difesa e la commessa fu affidata al Ceo di Google, Eric Schmidt. Ma l’atto di nascita del «nuovo modello globale di sicurezza» risale al 2001 quando Google entra in rapporto con il Pentagono e le agenzie di intelligence. Queste volevano la stessa deregolamentazione di cui fruiva la Sylicon Valley. La studiosa del diritto Stephanie A. DeVos definì «senza precedenti» la collaborazione tra Google e l’intelligence, soprattutto con l’NSA che «si sforzava di diventare più simile a Google».

Con l’ascesa dello smartphone, Google è stata costretta a trovare «nuovi modi per difendere ed espandere la sua principale fonte di approvvigionamento, data dalla ricerca». Nel 2008 un gruppo di aziende tecnologiche e di operatori wireless sviluppa una piattaforma aperta per dispositivi mobili: Android.

Google fornì la licenza gratuita di Android ai produttori di devices affinchè gli utenti utilizzassero Google Search e altri servizi. A differenza dell’iPhone di Apple, Android era open source e per gli sviluppatori era semplice rivolgersi agli utenti di Android. Google racchiuse le app nel Google Play Store, il negozio virtuale più fornito della galassia.

Nel 2017 una ricerca dell’organizzazione no-profit Exodus Private e dello Yale Privacy Lab registra la proliferazione dei software di tracciamento. In più di 300 app Android, prodotti anche per Apple, sono stati identificati 44 tracker. Anche le app più “innocenti”, ad esempio quelle per il meteo, sono infestate da tracker che raccolgono «enormi quantità di surplus comportamentale finalizzato alla creazione di pubblicità mirate».

Nel 2007 Google lanciava Google Hearts, un servizio di mappatura delle strade svolto con camera car, con la finalità di rendere strade, piazze, case, quartieri, villaggi, città, paesi, elementi di una griglia infinita di coordinate GPS e di inquadrature.

La giustificazione di Peter Fleischer, consulente per la privacy di Google, fu che a differenza della sfera privata in quella pubblica non c’è privacy. La finalità di Google Hearth non era facilitare l’accesso alla viabilità e alla mobilità globale, ma rendere il pianeta un archivio spettacolare di informazioni demografiche in tempo reale e un bersaglio per la sorveglianza.

Street View, Google Maps e Google Hearth, descrizione in 3D della terra con satelliti e fotografie aeree, hanno svuotato il mondo trasformandolo in un depliant turistico. Strade, piazze, quartieri non sono più luoghi ove camminare e incontrarsi, ma aree deserte da ispezionare ed espropriare a fini commerciali.

Nel 2009 i residenti del villaggio inglese di Broughton bloccarono un’auto di Street View che aveva provato a oltrepassare il perimetro urbano, considerandola un’invasione indesiderata. John Hanke, vicepresidente dei prodotti legati a Google Maps e fondatore di Keyhole, finanziata dalla CIA, disse al London Tmes che l’azienda rimaneva intenzionata a mappare l’intero Regno Unito.

Nel 2010 la commissione federale tedesca per la protezione dei dati annunciò che le operazioni di Street View celavano un furto di dati. «Le auto di Street View raccoglievano segretamente dati personali dalle reti wi-fi private». Google negò l’accusa ma dopo un’analisi indipendente di alcuni esperti di sicurezza tedeschi fu costretta ad ammettere di aver intercettato e archiviato «carichi utili» di dati e informazioni personali estrapolate da connessioni wi-fi non criptate.

Nel 2012 alcuni paesi europei, in Nord Atlantico e in Oceania, svolsero indagini. Negli Stati Uniti i procuratori di 38 stati lanciarono un’indagine sulle procedure di Street View e i cittadini lanciarono molte class-action. Google affermò che le violazioni della privacy erano state un errore commesso da un misterioso ingegnere informatico. L’azienda rifiutò di diffondere l’identità del misterioso ingegnere e «ribadì che chi era alla guida del progetto era ignaro della cattura dei dati, e che comunque “non aveva intenzione” di usarli».

Un’indagine della Federal Communication Commission nel 2012 definì il caso «una deliberata decisione su una questione di software design assunta da uno degli impiegati di Google mentre lavorava al progetto di Street View…le sue note indicavano che il traffico degli utenti e i dati sulla loro posizione sarebbero stati catalogati con “le informazioni su che cosa stanno facendo”, da “analizzare offline per essere usate in altri ambiti”. Queste note rilevavano “questioni di privacy”, ma non le prendevano in considerazione». Alla fine prevalsero gli avvocati di Google. La FCC comminò a Google una multa irrisoria, 25.000 dollari e si accordò con gli stati accettando una multa di 7 milioni di dollari. Anche l’indagine tedesca si chiuse con scarsi risultati.

Tra il 2008 e il 2010 furono raccolti nel mondo 600 miliardi di byte di informazioni personali. Nel 2011 Google fece terminare Street View in Germania. Nel 2016, in seguito alla severa regolamentazione imposta in Svizzera, il servizio venne limitato ai siti turistici all’aperto. Ma nel resto del mondo Google continua ad estrarre dati e informazioni personali in tempo reale. L’India ha bloccato Street View, come anche Grecia, Lituania, Austria, mentre è disponibile (nel 2018) in 65 dei 200 paesi di Google Maps.

Google è stata l’azienda apripista nell’imporre il principio della mappatura con finalità di sorveglianza. Sperimentando una serie di app e di protesi come Google Glass ha esteso indirettamente ai grandi operatori telefonici e alle aziende di telecomunicazioni il principio del profitto derivante dal furto di dati personali. «Il capitalismo della sorveglianza è nato digitale, ma non è più confinato nell’ambito delle multinazionali digitali». Zuboff elenca sei principi fatti propri dalle multinazionali della sorveglianza:

1)     l’esperienza umana è la materia prima di cui impossessarsi

2)     l’esperienza può essere trasformata in dati comportamentali

3)     i dati estratti sono proprietari

4)     la proprietà dei dati implica la loro conoscenza

5)     la conoscenza dei dati implica il diritto al loro uso

6)     il diritto all’uso implica il diritto di stabilire le condizioni che tutelano il diritto al possesso dei dati. Il tutto attraverso il modulo per dare il consenso.

L’integrazione di persone, processi e merci viene reinventata come informazione. Questa renderizzazione delle relazioni soggettive è la resa operativa di una intelligenza letale che disperde quella collettiva possibile, da reinventare in esperienze comuni.

 

 

 

Riferimenti

  • Miguel Benasayag in dialogo con Ariel Pennisi, Chat GPT non pensa (e il cervello neppure), Jaca Book, 2024.

  • Rosi Braidotti, Il postumano. Vol III. Femminismo, DeriveApprodi, 2024.

  • Renato Curcio, Intelligenze artificiali e intelligenze sociali, Sensibili alle foglie, 2024.

  • Shoshana Zuboff, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, trad.it. Luiss University Press, 2018.  


***


Paolo Vernaglione Berardi, insegnante, critico, ha lavorato come editor e come prof. invitato. È autore di scritti e testi storico-filosofici tra cui Dopo l'umanesimo. Sfera pubblica e natura umana (2009); Filosofia del comune (2013); Michel Foucault. Genealogie del presente (2015); La natura umana come dispositivo (2018); Commenti alla filosofia (2021). Ha costituito con amici il laboratorio «archeologia filosofica» (2016-2023) e

con amici e amiche cura l’attuale collana editoriale «archeologia del presente», presso Efesto editore.

 

 

 

 

 

 

2 Comments


Outstanding coursework makes a huge difference in the realm of academic accomplishment. Students who usually experience extreme pressure to achieve well may benefit from using a professional Help with coursework writing service. Fortunately for you, we are available to offer first-rate assistance at every turn. We understand the importance of well-written assignments, therefore our assistance will be customized to meet your needs. Assignment assistance has developed into a vital tool for students juggling demanding workloads and overcoming academic obstacles. This aid, accessed through a number of online resources and tutoring packages, can offer support in everything from research papers and essays to projects and presentations. Course assistance can prove almost like an anchor for students who cannot manage their time or have…


Like

Easy to pick up and fun to master, Foodle fits seamlessly into your day, providing both a challenge and a little taste of trivia.

Like
bottom of page