AI, pappagalli stocastici e automazione del razzismo
Il 15 giugno Elon Musk ha avuto un lungo incontro con il governo italiano per discutere di cyber-sicurezza e libertà d’informazione. Un incontro tra titani della difesa dei diritti fondamentali su temi tanto delicati per la libertà di tutti. Musk non avrà mancato di chiedere sostegno alla proposta di moratoria “di sei mesi” – che fa insieme a Google, Apple e altri soggetti interessati alla competizione con il concorrente OpenAI e il suo programma ChatGPT4 – perché si affronti l’intelligenza artificiale (AI) anche come “un pericolo esistenziale per l’umanità”. In questo articolo, Silvia Ribeiro spiega molto bene perché Musk sia così preoccupato per le sorti dell’umanità. Intanto, il Parlamento Europeo ha votato – molti lo definiscono un voto storico – sull’AI Act. Un voto certo positivo che chiede una società libera dalla sorveglianza di massa, ma che per rendere concreta questa solenne affermazione ha tutt’altro che concluso il suo percorso. Si tratta di un cammino lungo, molto poco trasparente – per usare un eufemismo – e irto di trappole e difficoltà di diversa natura. Intanto, però, e questo a noi di Comune non pare certo elemento trascurabile, la società di cui si parla esclude le persone migranti. Quasi sempre le critiche all’AI investono il pericolo della sostituzione dell’intelligenza umana con quella artificiale. Sulle reali potenzialità di questo rischio, l’articolo di Silvia è molto chiaro, così come lo sono molti degli altri che ci è capitato di leggere. Quel che invece si racconta poco è l’utilizzo, già largamente in atto, di sistemi di intelligenza artificiale e di sistemi veloci e complessi che però non comprendono i messaggi che trasmettono perché a base probabilistica (pappagalli stocastici) nella guerra contro i migranti e altre categorie di persone escluse dalla cittadinanza europea e dai diritti fondamentali. Oltre ad avere un notevole impatto ambientale, questi programmi, come ricorda Silvia citando Emily Bender, sono intrinsecamente discriminatori nei confronti delle minoranze, sono razzisti, sessisti, e si basano sull’idea che la disuguaglianza sia un fatto naturale. Il Parlamento Europeo ci difenderà anche dall’automazione del razzismo?
Nelle ultime settimane abbiamo assistito a una sorta di guerra di messaggi in cui i maggiori magnati delle imprese tecnologiche dichiarano che l’intelligenza artificiale è un pericolo esistenziale per l’umanità e che dovrebbe essere istituita una moratoria. Elon Musk e gli altri dirigenti e ingegneri di giganti della tecnologia come Apple e Google, che hanno firmato questa dichiarazione nel marzo 2023, chiedono una moratoria di sei mesi. In linea con altre spacconate senza fondamento di questo arrogante super-miliardario, è ridicolo affermare che un problema esistenziale di tale portata si possa risolvere in sei mesi. Ma ovviamente il problema che pongono non esiste in quanto tale, né loro intendono ottenere che venga predisposta una regolamentazione indipendente dai loro interessi economici, né che vengano analizzati criticamente gli impatti reali dei sistemi di intelligenza artificiale che già esistono.
L’obiettivo principale della dichiarazione è quello di rallentare l’avanzata della concorrente OpenAI con il suo programma ChatGPT4, un motore di ricerca che ha ottenuto un ritmo di vendita di abbonamenti che è molto più rapido di quello che finora è stato raggiunto da qualsiasi altro sistema simile. Musk era un finanziatore di OpenAI, ma si è ritirato. Ora annuncia che sta sviluppando la propria versione di un programma simile, che essendo sviluppato da lui non sarebbe più un problema esistenziale.
Un altro obiettivo è quello di distogliere l’attenzione dagli attuali gravi impatti reali di questi sistemi, mettendo in evidenza gli effetti che potrebbero avere in futuro.
Emily Bender, una co-autrice citata nella prima nota della dichiarazione di Musk e altri, hanno rapidamente preso le distanze. In un’intervista con l’analista critico Paris Marx, Bender spiega che non ci sono sistemi di intelligenza artificiale in grado di competere con l’intelligenza umana, anche se hanno indubbiamente degli impatti. Si tratta di sistemi di generazione di testo sintetico che sono veloci e appaiono complessi, ma in realtà non capiscono i messaggi che trasmettono. Sono ciò che lei e le sue collaboratrici hanno chiamato pappagalli stocastici (1): ripetono e mettono insieme dei testi che possono sembrare sensati (perché basati su ciò che è stato detto e scritto da persone umane), ma loro non sono in grado di comprendere il significato dei risultati che producono. Il fatto che un pappagallo possa ripetere un tango non significa che lo capisca (“ChatGPT Is Not Intelligent”).
Non ci sono, aggiunge Bender, sistemi che competano con i sistemi linguistici umani, perché le macchine non possono comprendere gli immaginari sociali, i valori, le emozioni, le culture diverse o gli universi di significati collettivi nelle molte lingue esistenti. Sono stati sviluppati quelli che vengono chiamati grandi modelli linguistici, come quelli utilizzati da ChatGPT, che, sulla base di volumi immensi e sempre più grandi di dati, possono prevedere una serie di testi e parole che di solito sono associati tra loro in una determinata lingua. Possono anche mescolarli in maniera aleatoria (stocastica) per farli apparire diversi e originali, ma provengono sempre da schemi prestabiliti e basati su algoritmi creati da persone.
In un articolo emblematico intitolato “Sui pericoli dei pappagalli stocastici: i modelli linguistici possono essere troppo grandi?”, Bender e le co-autrici spiegano che ciò comporta una moltiplicazione dei problemi e dei pregiudizi che già esistono, per cui questi programmi sono intrinsecamente discriminatori nei confronti delle minoranze, sono razzisti, sessisti, e si basano sull’idea che la disuguaglianza sia un fatto naturale. Inoltre, la stragrande maggioranza parte dall’inglese, ripetendo così l’ingiustizia e i sistemi di dominio basati su quella lingua (“On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”.
Altre due co-autrici dell’articolo, Timnit Gebru e Margaret Mitchell, sono state licenziate da Google perché non hanno voluto ritrattare. Mitchell ha deciso di aggiungere Sh al suo nome nell’articolo (Shmargaret ShMitchell) per segnalare che avevano cercato di metterla a tacere.
Un esempio che danno è che ChatGPT si basa sulla raccolta di dati da Wikipedia e Reddit, tra gli altri. Su Wikipedia, solo il 9-15% dei redattori sono donne, e più del 70% sono bianchi. Su Reddit, due terzi hanno meno di 30 anni. In entrambi i casi, ciò significa che moltiplicano i relativi pregiudizi a scapito di altre prospettive, altre fasce d’età, altre culture, e così via. È stata dimostrata la discriminazione razziale implicita nei sistemi di intelligenza artificiale, non solo a livello linguistico, ma anche nell’ambito delle immagini e del riconoscimento facciale.
Nello stesso articolo, le autrici sottolineano che questi sistemi hanno anche un enorme impatto climatico e ambientale, perché richiedono enormi quantità di energia per addestrare ogni sistema su un solo argomento. Mentre una persona emette 5 tonnellate di anidride carbonica l’anno, l’addestramento di un sistema di intelligenza artificiale comporta l’emissione di almeno 284 tonnellate di carbonio. E in sei anni si è moltiplicato per 300.000 il numero di computazioni utilizzate per addestrare i sistemi, una crescita molto più rapida di quella prevista dalla cosiddetta legge di Moore (2) sulla tecnologia.
Ciò nonostante, le società tecnologiche devono assumere lavoratori manuali in Africa e in Asia, pagando loro salari irrisori, per rimuovere testi, frasi e immagini di violenza sessuale e di altri comportamenti che i programmi non filtrano o non comprendono.
Questi sono soltanto alcuni degli impatti e dei problemi reali e attuali – non di un futuro lontano e improbabile – di questi sistemi che, più che intelligenti, sono programmi di bla-bla-bla matematicamente programmato.
(1) N.d.t. – Il termine stocastico indica ciò che viene prodotto con procedimenti casuali, su base probabilistica.
(2). N.d.t. – Legge empirica che descrive il ritmo di sviluppo della microelettronica.
Fonte: “Inteligencia artificial y cotorreo”, in La Jornada
Traduzione a cura di Camminardomandando.
Articolo ripreso da https://comune-info.net/intelligenza-artificiale-pappagalli-stocastici-e-automazione-del-razzismo/
Nessun commento:
Posta un commento