12 settembre 2024

UNA STORIA CHE L' IA NON PUO' RACCONTARE

 


Una storia che l’IA non può ancora raccontare


Paolo Vernaglione Berardi
12 Settembre 2024

Dalla nascita dell’ipertesto (anni Settanta) al primo sito (1991), dalla guerra contro il software libero allo sviluppo dell’informatica tascabile e della cybersecurity, fino all’estensione dell’intelligenza artificiale alla vita di ogni giorno… Ci sono però molte cose in questa storia che vengono trascurate. Ad esempio che i corpi sono sempre di più cancellati. Che la rete è addestrata prima di tutto per far accumulare denaro a pochi. Che con lo sviluppo dell’informatica in mano a mercanti in ambito sanitario cresce il numero di persone escluse. Che i lavori usuranti non sono affatto scomparsi. Ma anche che ci sono gruppi di persone che ovunque non smettono di immaginare e aprire strade a tante comuni digitali alimentate da libero scambio e gratuità



L’estensione dell’intelligenza artificiale all’insieme delle attività quotidiane dimostra che il presente ha fatto storia. É la storia dei nostri giorni nella scena della vita mondiale. È una storia già raccontata varie volte. Una storia che, anche quando coglie l’impercettibile non coincide con ciò che c’è.

L’ipotesi cibernetica che mercanti di futuro avrebbero lanciato per far ripartire il moderno, il nuovo, il normale senza eccezioni, con l’informatica, con le reti, con il mito dell’uguaglianza digitale, si consuma nella visione del mondo analoga al funzionamento del cervello. Come scrivevano Deleuze e Guattari «il rapporto dell’uomo e della macchina si fa in termini di reciproca comunicazione interna, e non più d’uso o d’azione».

La cibernetica, cioè l’azione di pilotare, guidare, dirigere, è quel dispositivo che le crisi finanziarie non riducono a epifenomeno sempre più integrato alla vita, ma che si costituisce come tekné, un’arte, un insieme di pratiche riferito a nozioni, concetti, programmi automatici.

In un ponderoso testo del 2019, Il capitalismo della sorveglianza, Shoshana Zuboff, docente alla Harward Business School, rileva il senso delle tecnologie come dispositivi di governo della vita. Eric Schmidt, ex-ceo di Google, evidenziava qualche anno fa che le tecnologie più profonde sono quelle che scompaiono. Si legano al tessuto della vita quotidiana fino a diventare indistinguibili da esso.

Che tutto ciò derivi dall’idea della guerra è ormai noto. Robert Wiener ottiene l’incarico di sviluppare una macchina per prevedere e controllare le posizioni degli aerei nemici in caso di attacco nucleare. Nel 1943 Wiener incontra von Neumann, incaricato di costruire potenti macchine di calcolo per sviluppare il “progetto Manhattan”, cioè la bomba atomica.

L’utopia della comunicazione è il mito complementare al nucleare. La minaccia nucleare agitata dalla deterrenza dopo il 1945 si sgancia dal vincolo della mutua distruzione, perché un primo attacco a sorpresa con armi autonome è difficilmente rintracciabile. La guerra Stranamore, che era il gioco degli scorsi anni Settanta, diventa il grande gioco del diritto che ha creato questo scenario: le guerre saranno combattute soltanto con robot, oppure tra umani e robot, ma ai robot sarà permesso usare solo armi che disattivano i robot e sono innocue per gli umani.

Le leggi di Asimov + Matrix in un film del 2041 già visto.

Vale la pena accennare agli inizi dell’informatica per indicare le differenze tra le reti, internet e l’IA. Arpanet, nata nel 1969 e chiusa nel 1983, era una rete a commutazione di pacchetto che collegava i centri di calcolo affiliati all’Advanced Research Project Agency del Dipartimento di Difesa statunitense. L’informatica applicata si dirige verso la costruzione di linguaggi artificiali in analogia con la lingua naturale, dei supercomputer di stazza enorme e dei sistemi di crittazione. Nasce l’ipertesto, un insieme di documenti in relazione con parole chiave che funzionano come collegamenti ipertestuali. Negli anni Settanta il protocollo TCP/IP permette la comunicazione tra diverse reti e non solo tra PC.

Con la produzione di massa di computer desktop e l’invenzione nei garage californiani dei sistemi operativi e delle prime applicazioni, la tecnologia delle reti si estende e l’uso delle macchine diviene sempre più intuitivo.

Nel 1991 l’informatico inglese Tim Berners Lee pubblica il primo sito web. Nasce il world wide web (www) e nasce insieme al primo browser, Nexus, non commercializzato perché ad esclusivo uso dimostrativo. Nel 1994 Netscape, primo browser commerciale, sviluppa il cookie (biscottino), bit di codice che consentono il passaggio di informazioni tra server e client. Nel 1998 Berners Lee definisce lo standard XML, un metalinguaggio che consente di aggiungere informazioni sui contenuti web attraverso tag (targhette), cioè parole chiave o termini associati al contenuto.

Alla fine dello scorso secolo le tecnologie digitali accelerano. Silicon Valley diventa l’ombelico del mondo. Una cultura ludica del lavoro, gerarchie informali e un’intensa personalizzazione dei rapporti promettevano una sperimentazione di formati e programmi open source. In realtà le start-up già alla metà degli anni Novanta erano inglobate dai grandi produttori di hardware e sistemi operativi (Apple, Microsoft). Inizia la guerra contro il software libero.

Con lo sviluppo dell’informatica tascabile, smartphone e lettori, le tecnologie digitali sono sempre più interattive ma richiedono lo sviluppo di tecnologie di sicurezza. La cybersecurity diverrà il settore informatico più lucroso in ragione della protezione privata di big data e speculazione finanziaria.

È in questa sequenza storica che l’IA diviene la tecnologia di punta con un rapidissimo sviluppo negli ultimi anni, anche a causa della pandemia, accompagnando una imperiosa guerra capitalistica per lo sfruttamento di dati, risorse e minerali rari. La crisi dell’economia globale, la distruzione ambientale, la condizione permanente di disuguaglianza e l’aumento della povertà, razzismi e discriminazioni dilaganti sono gli elementi di cui l’IA è parte integrante.


LEGGI ANCHE QUESTO ARTICOLO DI FRANCO BERARDI BIFO:


Il termine Intelligenza Artificiale fu coniato nel 1956 dallo scienziato informatico John McCarthy durante il leggendario Darthmouts Summer Research Project on Artificial Intelligence. Nei quarant’anni successivi le applicazioni pratiche evolvono lentamente. Nel 1996 il supercomputer DeepBlue sconfiggeva a scacchi Gerry Kasparov. Il momento di svolta è nel 2016 quando AlphaGo, una macchina costruita dagli ingegneri di Deep Mind “sconfigge” in cinque round il campione di Go Lee Sedal.

Il filosofo e attivista Miguel Benasayag, in un libro di qualche anno fa, La singolarità del vivente, scriveva che la macchina non ha mai giocato, se il gioco è un gesto in base a un significato. La macchina è incapace di distinguere le operazioni di un sistema dal significato dei gesti, benché riesca a leggere le microespressioni facciali. Organizzata sul modello delle reti neurali, la macchina elabora dati secondo istruzioni dall’esterno (input) per ottenere risposte secondo un algoritmo (output). L’intero processo è basato sul calcolo: quanto maggiore è la capacità computazionale della macchina tanto più raffinata e profilata sarà la risposta. Un limitato insieme di istruzioni condensato in un algoritmo opera la grande massa di dati e seleziona, tra n risposte, quella più vicina alle attese. In pratica la risposta è preimpostata. L’IA viene “addestrata” e si auto-istruisce funzionando. Il processo si chiama deep learning e consiste nell’elaborazione di una quantità crescente di dati.

La rapida evoluzione delle tecnologie digitali secondo Kai-Fu Lee, già presidente di Google China e dirigente Microsoft, SGI e Apple e co-presidente del Consiglio per l’Intelligenza Artificiale del World Economic Forum, è il quarto stadio di un processo lungo circa quindici anni: da internet alle applicazioni finanziarie, ai servizi pubblici, alla logistica e alla sanità; quindi ai beni di consumo, all’educazione e al backoffice (2012); quindi all’energia, ai commerci, alla sicurezza e alla realizzazione di smart cities (2016); fino all’IA autonoma, alla robotica, ai trasporti e all’agricoltura (2018). Fino a qualche anno fa Cina e Stati Uniti erano i paesi leader. Gli Stati Uniti implementano la ricerca, la Cina crea applicazioni sfruttando i big data, ma questa differenza economico-politica tende oggi a sfumare nelle feroci guerre tecno-energetiche tra l’occidente al tramonto e i paesi ex-emergenti che rappresentano un’alternativa al sistema di dominio tecnologico statunitense.

Uno dei settori in cui l’IA si è rapidamente sviluppata è la computer vision, cioè la produzione, manipolazione e creazione di immagini indistinguibili dalla realtà. Al computer viene “insegnato” a vedere in modo che la macchina possa catturare ed elaborare immagini, rilevare e segmentare oggetti dividendo l’immagine in aree principali, riconoscere e apprendere le differenze, tracciare movimenti e gesti, comprendere scene. Le applicazioni sono svariate: assistenti alla guida, negozi autonomi, sicurezza aeroportuale, riconoscimento facciale e dei gesti, applicazioni militari, navigazione autonoma di droni e auto. Le enormi possibilità della computer vision estendono all’infinito la cosiddetta bio-sicurezza, cioè il tracciamento continuo di ogni singolo vivente, e diversificano le operazioni sulle immagini abolendo la distinzione tra creazione, produzione, riproduzione e simulazione. La macchina crea falsi e rivelatori del falso.

La tecnologia di realtà estesa (XR) sviluppa tre modi di produzione e alterazione di spazi e ambienti. La realtà virtuale, la realtà aumentata e la realtà mista. La prima è attiva da tempo nelle esperienze immersive in ambienti interamente digitali; la realtà aumentata consiste nella sovrapposizione di oggetti 3D, testi, video, agli spazi reali per fornire indicazioni sugli spazi percorsi; la realtà mista fonde in un ibrido mondo reale e mondi virtuali costruendo un ambiente complesso costruito a partire da una decomposizione e interpretazione degli spazi.

Ma il limite di tutte le forme di XR è di esaurire l’esperienza, che viene aspirata nella sua riproduzione astratta. I corpi non ci sono più, c’è la continua delega al dispositivo di percezioni, sensazioni, emozioni e azioni.

Uno degli sviluppi più importanti dell’IA è l’informatica quantistica con cui si giunge al cuore dell’estensione della macchina nei territori più pericolosi e che generano più profitti. Scrive Kai Fu Lee che a differenza dei bit binari 0/1 i bit quantistici sono gli elementi che consentono una capacità di superelaborazione. I qubit hanno proprietà di sovrapposizione, che è la capacità in tre dimensioni di elaborare più esiti in contemporanea, – e hanno capacità di intreccio, cioè di connessione tra loro anche a grandi distanze, per cui l’aggiunta di 1 qubit aumenta esponenzialmente il potere computazionale. I computer quantistici sono però sensibili alle minime perturbazioni: vibrazioni, interferenze elettriche, cambi di temperatura e onde magnetiche possono far svanire la sovrapposizione. Per ridurre il rischio di decoerenza, cioè di perdita di capacità, i computer devono essere costruiti con superconduttori ed essere chiusi in camere a vuoto con frigoriferi di super-raffreddamento. Nel 1998 i computer quantistici erano 2, nel 2020, 65. Nel 2019 Google ha dimostrato la supremazia quantistica. Un CQ da 54 qubit ha risolto un problema “insolubile” in pochi minuti.

Nel campo della medicina e della sanità, l’introduzione dell’IA mostra più che altrove l’ambivalenza insita nei dispositivi di gestione dei servizi sanitari, nel bio-lavoro e nella ricerca, nella produzione e commercio di protesi e cure. L’impiego dell’IA nella sanità genera preziosi dataset, digitalizza i registri dei pazienti, l’efficacia dei farmaci, gli strumenti medici, i dispositivi indossabili, i test clinici, la supervisione e l’efficacia delle cure, la diffusione delle malattie infettive e la fornitura di farmaci e vaccini. La personalizzazione dei trattamenti, i nuovi farmaci, il sequenziamento del DNA, la reazione digitale della polimerasi (dPCR), i nuovi marker cancerogeni e l’editing genetico (CRISPR) saranno implementati. Ma il nuovo panorama prevede ingenti capitali. Uno studio del 2019 ha rilevato che nel 2025 il mercato della IA sanitaria crescerà del 41,7% arrivando nei soli Stati Uniti a 13 miliardi. Ciò significa che saranno le multinazionali del farmaco a organizzare, regolare e gestire nel mondo sanità e medicina in regime di mercato; che le ragioni del profitto saranno relative all’aumento della longevità e che la commercializzazione da parte di big pharma scava un baratro tra chi può e chi non può curarsi e rende inaccessibili i brevetti.

Nel primo dei dieci brevi racconti di un libro da preferire alla sterminata letteratura sull’IA, AI 2041, Che Qiufan, co-autore con Lee, narra la vita di una famiglia povera di Mumbai costretta a seguire i consigli imposti da un’app di assicurazione sulla vita al punto da dettare in tempo reale gusti, affetti e comportamenti per far abbassare il premio.

La rete è addestrata per una “funzione obiettivo”. La funzione obiettivo delle reti deep learning è il denaro. Immediata o quasi immediata, nella finanza, nelle economie di scambio e nei commerci; mediata, nelle attività creative e di riproduzione o ricreazione o ampliamento di realtà – a partire dal consumo di immagini, eventi, informazione e spettacolo, – la funzione obiettivo è comunque accumulare denaro.

Nel caso delle assicurazioni sulla vita, i big data affluenti con i dati sensibili sono elaborati dalla macchina per determinare le possibilità che, ad esempio, l’utente possa sviluppare gravi problemi di salute, o che possa investire quote della pensione integrativa in base alle previsioni di profitto dei mercati finanziari, o possa prevedere e negare richieste di risarcimento sanitario.

L’IA dei social network e dei grandi network di e-commerce profilano il cliente con una accuratezza che mancava ai siti web statici. Le statistiche implementano di continuo il profilo dell’utente e tracciano ogni giorno il singolo cliente. Queste operazioni sono collegate a metriche aziendali in funzione dei profitti. Più la piattaforma è in grado di raccogliere dati più soldi genererà.

Nel campo dell’istruzione i programmi di IA sganciano scuola e università dai sistemi pubblici di istruzione in due modi: con l’introduzione, già avviata e proposta, cioè imposta come necessaria, di programmi di esercizi e schemi di lezioni (Chat GPT, Gemini), e con le app di insegnamento virtuale basate su autoapprendimento e autovalutazione. L’IA applicata alla didattica, alla programmazione e all’organizzazione scolastica e accademica, si basa sulla riproduzione del linguaggio “naturale”, considerato come risorsa computazionale e ridotto alla funzione comunicativa. Il maestro, l’insegnante e il professore, sono avatar creati dall’utente che gli fanno da mentore nella prospettiva di un ambiente tutto virtuale, come nel racconto I passeri gemelli. L’avatar “segue” lo studente, ne ottimizza facoltà e abilità, ma soprattutto ne individualizza il comportamento e costruisce l’identità soggettiva con elementi e processi programmati e selezionati con i dati forniti dallo stesso studente. Competizione, valutazione, merito, correzione di comportamenti anomali costituiscono il circuito di normalizzazione di bambini e bambine, ragazzi e ragazze, preselezionati in base a test diagnostici che attestano deficit cognitivi e di socialità.

Nel campo dell’istruzione l’IA è un mezzo di formazione di soggetti docili, mentre l’economia digitale non crea abbondanza ma genera scarsità.

Ogni bene e ogni tipo di consumo è sottratto alla gratuità in un regime di risorse ambientali sempre più scarse. Se anche dovesse scomparire la scarsità legata al denaro e alla ricchezza privata e lo scambio non fosse più un’attività necessaria, con le tecnologie algoritmiche l’economia non scomparirebbe, continuando a produrre scarsità anche in un ipotetico regime di abbondanza.

Tecnologie digitali di controllo e tecnologie di sicurezza entrano nella produzione, regolazione e normalizzazione delle attività quotidiane in una giornata lavorativa di 24 ore. L’IA al lavoro genera un nuovo sistema di caste con un’elite di super-ricchi, un sottoinsieme relativamente piccolo di lavoratori con mansioni di strategia e pianificazione, una massa enorme di creativi sottopagati e una popolazione mondiale impiegata in regime di schiavitù.

La realtà disdice le retoriche di liberazione dai lavori usuranti: è più remunerativo sfruttare il lavoro che fare investimenti in robotica e conversione ecologica. Eilon Musk e simili, impiegano tutto il potere di estrazione digitale disponibile non per trasformare le povertà in abbondanza, ma per ridurre ogni giorno di più l’accesso pubblico ai beni disponibili. Per questo il diritto digitale continua ad avere solo un profilo di orientamento, anche nel caso in cui sanziona le multinazionali che evadono il fisco o sono giudicate monopoliste.

Il regolamento approvato dall’Ue in marzo, (145 pagine di non facile lettura) si basa sul principio di precauzione e vede l’ambito di applicazione dell’IA regolato secondo crescente pericolosità di profilazione, manipolazione dei dati e induzione a compiere azioni che mettono a rischio l’autonomia individuale. Ma queste norme non sono vincolanti e consentono la più ampia libertà di manovra da parte dei licenziatari e dei gestori (stati e imprese) di app e software, e rendono molto difficile per le persone rivendicare eventuali induzioni a comportamenti. Il diritto molto liberale a tutela della proprietà e della gestione delle reti, delle app e della ricerca corporate, affonda nell’imposizione del libero scambio.

Kai-Fu Lee: «Cosa ne pensate di una comune digitale del Ventunesimo secolo dove persone che condividono valori comuni sono disposte ad offrire i loro dati per aiutare tutti i membri della comune, sulla base di una mutua comprensione di come i dati saranno utilizzati e protetti?».

Ma l’alternativa giuridica a questo diritto del più forte, che è arrivato a dominare lo spazio cosmico non è un altro diritto più giusto, più “umano”, più al servizio delle persone. Potrebbe essere invece un’alternativa che non proviene e non produce diritto e che non produce alcuna forza di legge. Si tratterebbe di un non-diritto, di una revoca del diritto vigente, di una operazione locale e generale di esaurimento del diritto proprietario e di produzione di ambiti di condivisione. Si tratterebbe di un campo operativo di singolarità in cui accesso alle reti, conproprietà, gratuità e scambio siano garantite all’interno di spazi comuni. La pratica del non-diritto smonterebbe la Singolarità evocata da accelerazionisti e transumanisti, oscuro simbolo di dominio sui viventi in mutazione. Ma per far questo non c’è bisogno di macchine superintelligenti. Un non-diritto disposto al di là delle alternative tra produzione giuridica e diritto dei popoli disferebbe l’enfasi sulla nuova era e risarcirebbe almeno in parte coloro che non hanno mai smesso di perdere.

Anche la felicità digitale va lottata. Ma questa lotta potrebbe essere accesa da una gioiosa macchina rivoluzionaria vivente, intelligente al punto da prevenire le intenzioni nefaste dell’economia che uccide.

LEGGI ANCHE:

Nessun commento:

Posta un commento