Foto di Emad El Byed su Unsplash
Un crimine
di massa guidato dall’IA
10 Aprile 2024
Quando una bambina di tre anni viene uccisa in una
casa a Gaza, è perché qualcuno nell’esercito israeliano ha deciso che non era
un grosso problema per lei essere uccisa, che era un prezzo che valeva la pena
pagare per colpire un altro bersaglio. Tutto è intenzionale. Oggi si conosce
esattamente quanti “danni collaterali” ci sono in ogni casa. Questo accade
attraverso l’uso diffuso di un sistema chiamato Habsora (Vangelo), che si basa
in gran parte sull’intelligenza artificiale e può generare obiettivi quasi
automaticamente a una velocità che supera di gran lunga quanto era possibile in
precedenza. Due inchieste pubblicate su testate indipendenti israeliane hanno
rivelato come la fabbrica di omicidi di massa in Palestina sia guidata da
programmi di IA. Una nuova forma di “banalità del male”
Nel libro Davanti al dolore degli altri,
Susan Sontag ricorda che il bombardamento della città basca di Guernica ad
opera dei nazisti nel 1937 – reso immortale dall’omonima opera di Picasso –
indicato storicamente come avvio dei moderni bombardamenti aerei sui civili
come target di guerra – che poi sarebbe continuato nella Seconda guerra
mondiale, da Coventry a Dresda, da Hiroshima a Nagasaki, e in tutte le guerre
successive – aveva avuto dei precedenti, non tanto nei teatri europei della
Prima guerra mondiale, quanto nelle colonie europee. Soprattutto a cura degli
inglesi:
“Tra il 1920 e il 1924, la Royal
Air Force, da poco istituita, bersagliò sistematicamente i villaggi iracheni –
nel territorio che aveva ricevuto come bottino di guerra, insieme alla
Palestina, dallo smembramento dell’impero ottomano sconfitto nella Grande
guerra – in cui i ribelli potevano trovare rifugio con raid ‘portati avanti
ininterrottamente, giorno e notte, su case, abitanti, raccolti e bestiame’,
secondo la tattica delineata da un tenente colonnello della Raf”.
Ma l’opinione pubblica non inorridì, come accadde per
la guerra civile spagnola, perché le stragi di civili non accadevano in Europa,
non erano documentate, non morivano sotto le bombe cittadini europei, i cui
governi “civili”, anzi, ne erano i carnefici.
Mi sono tornate in mente queste pagine di denuncia
sull’ipocrisia del dolore, sul doppio standard morale, sull’ineguale “dignità
di lutto” – per dirla con un’altra autrice statunitense, ed ebrea come Sontag,
Judith Butler – oggi che, dopo sei mesi di bombardamenti ininterrotti su
Gaza da quel maledetto 7 ottobre 2023, il dolore israeliano per 1.200
vittime inermi e 250 ostaggi è stato moltiplicato (ad oggi) per trenta volte
con il dolore per le inermi vittime palestinesi, che supera in orrore
perfino la logica veterotestamentaria della vendetta (“occhio per occhio”),
nella quale è stabilito un principio di proporzionalità della violenza di gran
lunga superato. Eppure – mentre continua la reiterazione
mediatica della visione delle vittime di Hamas del 7 ottobre – questa
massa enorme di vittime palestinesi del “civile” governo israeliano, alle
quali si aggiungono gli operatori delle Nazioni Unite (170, circa) e delle Ong
(le ultime sono le 7 vittime internazionali del World central kitchen), non
le vediamo, sono sottratte al nostro sguardo: possiamo solo immaginare
ammassi di corpi straziati nascosti dietro il numero abnorme, crescente
settimana dopo settimana. Soprattutto dopo la messa fuorilegge di Al Jazeera,
l’unico media presente sul campo, che ha avuto decine di morti tra gli operatori,
perché racconta da un punto di vista situato tra le vittime.
Come sia possibile questo altissimo numero di vittime
civili, compresi i bambini, questa carneficina continua che non accenna a
fermarsi, in un così breve lasso di tempo lo ha rivelato il giornalista Yuval
Abram in due inchieste successive, pubblicate sulle testate indipendenti
israeliane +972 e Local Call, svelando che questa
“fabbrica di omicidi di massa” è guidata da programmi di intelligenza
artificiale. La prima inchiesta, pubblicata il 30 novembre 2023 (e ripresa in italiano
da Internazionale, 15-21 dicembre 2023), ha rivelato attraverso
fonti di intelligence che “niente accade per caso. Quando una bambina
di tre anni viene uccisa in una casa a Gaza, è perché qualcuno nell’esercito ha
deciso che non era un grosso problema per lei essere uccisa, che era un prezzo
che valeva la pena pagare per colpire un altro bersaglio. (…). Tutto è intenzionale.
Sappiamo esattamente quanti danni collaterali ci sono in ogni casa”. Questo
accade attraverso “l’uso diffuso di un sistema chiamato Habsora
(Vangelo), che si basa in gran parte sull’intelligenza artificiale e può
generare obiettivi quasi automaticamente a una velocità che supera di gran
lunga quanto era possibile in precedenza”.
Ma mentre questo programma di IA è usato per
contrassegnare come obiettivi edifici e strutture dalle quali secondo
l’esercito operano i militanti di Hamas, la seconda inchiesta, pubblicata il 3 aprile 2024 (e
ripresa in italiano dal manifesto, 5 aprile 2024), ha rivelato
l’esistenza di un altro programma di intelligenza artificiale, chiamato
Lavender (Lavanda), che produce a getto continuo liste di palestinesi da
sopprimere. Non durante le battaglie, ma bombardando in casa, di notte, con le
rispettive famiglie e quelle dei vicini. “L’esercito ha deciso che, per ogni
giovane agente di Hamas segnalato da Lavender, era consentito uccidere fino a
15 o 20 civili. (…). Nel caso in cui l’obiettivo fosse un alto funzionario di
Hamas con il grado di comandante di battaglione o di brigata, l’esercito ha
autorizzato in più occasioni l’uccisione di più di 100 civili nell’assassinio
di un solo comandante”. Inseriti alcuni criteri minimi e generici nel
programma per “riconoscere” presunti affiliati ad Hamas, “fonti hanno affermato
che se Lavender avesse deciso che un individuo era un militante di Hamas, gli
sarebbe stato essenzialmente chiesto di trattarlo come un ordine, senza alcun
obbligo di verificare in modo indipendente il motivo per cui la macchina aveva
fatto quella scelta o di esaminare i dati grezzi di intelligence su cui si è
basata”. Con tutte le “vittime collaterali” conseguenti, in produzione seriale.
Siamo al totale disimpegno morale della componente
umana e della sua intelligenza emotiva: all’IA è demandata la generazione
continua di liste dei sommersi, senza salvati tra coloro che gli stanno vicino.
I carnefici, a tutti i livelli, diventano meri esecutori di un crimine di
massa, guidato dalla macchina. Una nuova forma, artificiale, di
“banalità del male”. Una distopia, tecnologica e realizzata – contro la
quale, tra le altre cose, si battono gli studenti che nelle università chiedono
l’annullamento di contratti che prevedano accordi di ricerca tecnologica a fini
bellici – che, mentre moltiplica e nasconde le vittime, fa impallidire
sia Guernica quanto a numero di morti sia le distopie futuristiche di Black
Mirror.
Pezzo ripreso da
https://comune-info.net/un-crimine-di-massa-guidato-dallia/ e pubblicato
anche su un blog del fattoquotidiano.it
Nessun commento:
Posta un commento