Diritti digitali. La guerra degli algoritmi

Fb ancora sotto accusa: Continua il nostro viaggio nei diritti digitali, si tratti di elezioni  o di perseguitare minoranze deboli e oggetto di discriminazione. Due nuovi rapporti puntano l'indice su Internet che questa volta ha colpito  Palestinesi e Rohingya

Continua il nsotro viaggio nei diritti digitali, si tratti di elezioni – come Stefano bocconetti ha raccontato per il Brasile o il Kenya – o di perseguitare minoranze deboli e oggetto di discriminazione. Due nuovi rapporti mettono di nuovo sotto accusa il Mondo di Internet. Questa volta: Palestinesi e Rohingya

di Stefano Bocconetti

Gli algoritmi discriminano. E lo si sapeva da tempo. Ma gli algoritmi “istruiti” male, gestiti peggio, assecondati nelle loro distorsioni, possono distruggere. Possono uccidere. Di che si parla? Nel giro di pochi giorni sono usciti due studi che raccontano – dati alla mano – come la violenza verbale sui social generi tragedie. Tragedie per chi è nel mirino di quella violenza. E ricchezza, tanta ricchezza, per chi tramite quei messaggi fa crescere contatti, pubblicità, traffico on line. Soldi. Le vittime negli ultimi due casi presi in considerazione sono due popoli: i Palestinesi ed i Rohingya, la minoranza musulmana perseguitata in Myanmar. E sul banco degli imputati c’è sempre Meta, cioè FaceBook, cioè Zuckerberg. Il più grande social al mondo. Il primo report ha una genesi particolare, in qualche modo simbolica.

Era il maggio dell’anno scorso, nei territori occupati della Palestina. L’esercito israeliano stava bombardando Gaza, in un’operazione che – stando al governo di Tel Aviv – doveva rispondere alle proteste seguite allo sgombero delle famiglie palestinesi dal quartiere di Sheikh Jarrah, a Gerusalemme Est. Un’operazione che alla fine sarà costata la vita a duecentocinquanta civili, decine di bambini. Gli abitanti della piccola enclave – un carcere a cielo aperto, come la definiscono – avevano provato a documentare con filmati e testimonianze la ferocia dell’aggressione. Ma i loro video, i loro testi, scomparivano pochi istanti dopo essere stati pubblicati. In tutto il Mondo, le organizzazioni per i diritti digitali denunciarono questa censura, sostenute anche dalle interrogazioni di alcuni paesi. FaceBook – cioè Meta, cioè Zuckerberg – rispose sostenendo che non era vero, che era tutta una montatura. Di fronte alle domande incalzanti, davanti alle critiche sempre più puntuali, il gruppo pensò però di trovare una via d’uscita. E decise di affidare ad una società di consulenza indipendente, la Business for Social Responsibility, la BSR, una ricerca sul proprio operato.

Mal gliene incolse, lo studio è stato reso pubblico -a cominciare dal sito theintercept – pochi giorni fa. Ed è un disastro per FaceBook. I ricercatori non usano mezze parole: “Le azioni di Meta nel maggio 2021 hanno avuto un impatto negativo, terribile sui diritti umani, sui diritti dei palestinesi”. Hanno violato la loro libertà di espressione, di riunione, hanno ridotto la “loro capacità di condividere informazioni e approfondimenti sulle loro esperienze”. Mettendoli, spesso, in grave pericolo. Pericolo fisico. “Tanto più quando si è trattato di operatori per i diritti umani, di giornalisti”. S’è accertato, insomma, che ogni volta che l’algoritmo di FaceBook – addestrato con l’intelligenza artificiale – leggeva in arabo le parole Palestina, Sheik Jarrah, bloccava il messaggio. Non solo ma se la censura arrivava dopo un po’ che il testo era on line, bloccava anche l’account di chi aveva messo un semplice “mi piace”. Censura “a cascata”, lo definisce il report.

In quegli stessi giorni, però, sempre su FaceBook molti estremisti di organizzazioni ebraiche incitavano a fare pulizia etnica. E lo studio della BSR rileva che i contenuti “in lingua israeliana sono stati cancellati ad un ritmo e ad una frequenza incredibilmente minore rispetto a quelli in lingua araba”. Le colpe? Il report – va detto anche questo, com’è un po’ nello stile della BSR – non affonda il colpo. Le responsabilità sarebbero – lo si accennava – un po’ dell’algoritmo, che è stato istruito con informazioni sbagliate e discriminanti, un po’ forse – forse? – di un colosso digitale che dispone di 24 miliardi di dollari di riserve di cassa ma non vuole spendere qualche soldo in più per formare personale che sia in grado di leggere e capire tutte le lingue del mondo, non solo l’inglese (sì, perché i messaggi censurati dall’algoritmo, teoricamente, sarebbero dovuti passare poi al vaglio di un operatore, di un essere umano; pagato un dollaro all’ora, che magari vive dall’altra parte del mondo e che davanti a milioni di messaggi non poteva certo andare tanto per il sottile). Errori organizzativi, nell’organizzazione del lavoro, insomma, dice ancora la BSR. Che seppure hanno avuto effetti drammatici, non sono dipesi da “pregiudizi intenzionali” di FaceBook. Il suo social, insomma, sarebbe sì razzista ma non intenzionalmente.

Fin qui, lo studio. Al quale però si aggiunge un lunghissimo commento firmato di 7amleh, il gruppo di intellettuali, studiosi, militanti del Medio Oriente che si occupa di questi temi. In una lunga lettera – redatta assieme a tutte le organizzazioni mondiali per i diritti digitali -, dopo aver apprezzato il lavoro della BSR, scrive che è un po’ ridicola la distinzione fra “responsabilità intenzionali e non intenzionali”. Perché è quasi un decennio che in tutti i modi l’”Arab Center for the Advancement of Social Media” dice, prova a dire a FaceBook che il suo impatto sulla moderazione dei contenuti ha un effetto devastante sulla vita dei palestinesi. E se dieci, quindici anni fa gli errori potevano dipendere da un’organizzazione e da strumenti difettosi, ora non può più essere così. Anche perché, aggiunge – ed è forse l’elemento più preoccupante – l’”unità informatica”, alle dipendenze del governo israeliano, invia ogni anno a Meta la richiesta di rimozione per decine di migliaia di utenti. Senza neanche motivare le sue richieste. E a quel che risulta l’azienda ha detto di sì almeno nel 90% dei casi.

Rohingya sotto attacco

Questa la Palestina. Più tragica, ancora, se possibile, la situazione dei Rohingya. In questo caso si parla di un rapporto pubblicato il 29 settembre, a cura di Amnesty International. Anche qui non si usano perifrasi: “I pericolosi algoritmi di Facebook/Meta e la sconsiderata ricerca del profitto hanno contribuito in modo sostanziale alle atrocità perpetrate dall’esercito del Myanmar contro il popolo Rohingya nel 2017”. E’ l’anno delle stragi, è l’anno dalla campagna di pulizia etnica delle forze di sicurezza del Myanmar. Con migliaia di persone appartenenti alla minoranza uccise, torturate, violentate, con centinaia di migliaia costrette alla fuga. Una pulizia etnica di fatto sostenuta da FaceBook. Che non è riuscita a cancellare neanche uno fra quei milioni di messaggi che invitavano allo sterminio, che addirittura promettevano premi per chi avesse eliminato “i cani mussulmani”. Con più di centocinquanta pagine FaceBook riconducibili ad organismi pubblici che esortavano alla guerra santa. Con la parola d’ordine “Kway Kalar” (cane musulmano), rilanciata venti, trenta milioni di volte, senza un intervento. Per tutti, valga l’esempio del post di Tun Lwin, il meteorologo che appariva ogni giorno in tv a raccontare le previsioni del tempo. Un milione mezzo di follower. Sulla sua pagina FaceBook ha chiesto “al popolo birmano di unirsi per proteggere il cancello ovest, dove abbiamo il nostro unico nemico”. Un post che era rintracciabile fino a pochi mesi fa.

Una denuncia spaventosa, insomma, quella di Amnesty. Che una volta tanto, però, alle parole vuole far seguire i fatti. E l’organizzazione ha presentato una formale richiesta di risarcimento: assieme ai rifugiati Rohingya ha chiesto un “indennizzo” a Zuckerberg per un milione di dollari. Che andrebbero a finanziare le scuole nel campo di Cox’s Bazar, in Bangladesh. E che sarebbero lo 0,002 per cento dei profitti di Meta. Potrebbe servire al gruppo per salvare la faccia. Ma non è una strada che sembra intenzionato a seguire: ha già fatto sapere che per policy “non può impegnarsi in attività filantropiche”.

Queste sono le Big Tech. Tutte. Perché sempre in questi giorni si torna a parlare del Project Nimbus, un contratto per cloud computing da 1,2 miliardi di dollari firmato da Google, Amazon e il governo di israeliano. Non si sa ancora moltissimo dell’operazione tranne che Google darà una mano a costruire un gigantesco centro dati e, assieme al partner digitale, metterà a disposizione tutti gli strumenti perché gli apparati – civili e militari – del governo di Tel Aviv possano monitorare ogni giorno, ogni momento, ogni aspetto della vita dei palestinesi. La notizia era conosciuta da qualche tempo ma se n’è tornato a parlare perché, per la prima volta, contro quest’accordo si sono mobilitati, e sono scesi in piazza, i lavoratori di Google e di Amazon. La loro parole d’ordine: “No tech for apartheid”. L’hanno fatto in America. Ma forse non basta.

Per saperne di più

Il report della BSR

https://www.bsr.org/en/our-insights/report-view/meta-human-rights-israel-palestine

La lettera di 7amleh e di altre 73 organizzazioni  per i diritti umani e digitali

https://7amleh.org/2022/09/27/statement-regarding-bsr-s-hra-for-meta-on-palestine-and-israel

Il rapporto di Amnesty

https://www.amnesty.org/en/latest/news/2022/09/myanmar-facebooks-systems-promoted-violence-against-rohingya-meta-owes-reparations-new-report/

La campagna No Tech For Apartheid

https://www.notechforapartheid.com

https://ilmanifesto.it/una-nuvola-si-addensa-sulla-palestina

In copertina e nel testo: foto di Michael Dziedzic on Unsplash

Tags:

Ads

You May Also Like

La Libia delle nuove alleanze

Il Parlamento turco si prepara al voto per l'invio delle truppe a sostegno di al-Sarray scompaginando le carte per gli Stati Europei e non solo

Nuovi scenari per la guerra in Libia con un nuovo attore protagonista: la Turchia. Stando ...

Un sorriso e un’oliva, la faccia del Libano che accoglie

di Alice Pistolesi C’è un Libano che accoglie e che si adopera per rendere ...

Il drammatico avvitamento del Paese dei cedri

A un anno dall'esplosione senza colpevoli del 4 agosto del 2020 il Libano sprofonda sempre più nella crisi economica e politica aggravata da un clima di sospetto e costante impunità

“La situazione è esplosiva perché la frustrazione della gente per la mancata verità va ...