di Stafano Bocconetti
Quando l’algoritmo non sa cosa sia la povertà. O più brutalmente: quando l’algoritmo contribuisce ad affamarti. E’ la storia di Tariq, 33 anni, che prima del Covid faceva la guida per i turisti ad Amman. Per qualche mese ha avuto una manciata di dinari di sussidio, ora non più. Possiede una macchina che però è ferma da anni, perché non ha i soldi per la benzina. Continua però a risultare titolare di una vecchia auto e tanto è bastato ad escluderlo dai benefici. O è la storia di quella famiglia nel piccolo villaggio di Jurf al-Darawish, 150 chilometri a Sud della capitale giordana, che è rimasta fuori dal sostegno perché la sua bolletta elettrica era più alta della media nazionale. Era la loro ultima bolletta, non hanno più avuto i soldi per pagarla. L’inverno di due anni fa, però, aveva fatto molto freddo e avevano dovuto tenere accesa la vecchia, vecchissima stufetta elettrica. Nessuna possibilità di sostituirla con una “a più basso consumo”. Costava troppo. Ma quell’ultima bolletta è stata fatale a quella famiglia giordana, ora tagliata fuori dall’assistenza.
Di storie così se ne potrebbero raccontare altre quattrocentosessantamila, le testimonianze di chi è stato escluso dal “Takaful” – acronimo lunghissimo –, l’organismo che elargisce il sussidio contro la povertà in Giordania. Un progetto di assistenza che è stato finanziato per quasi due miliardi di dollari dalla Banca mondiale ma che è riuscito a garantire un minimo di sostegno – davvero un minimo – a neanche un terzo delle famiglie classificate come “poverissime”. Quelle che vivono al di sotto la soglia di sussistenza. E come sono stati scelti i beneficiari? Ecco che si arriva a parlare dell’algoritmo, del misterioso algoritmo. Del quale non si sa nulla. Ma i cui effetti – drammatici, disastrosi, “impietosi”, “discriminatori” – sono stati rivelati da un accuratissimo studio, pubblicato in questi giorni da Human Rights Watch, una delle più autorevoli organizzazioni mondiali per i diritti civili.
Ne è uscito uno sterminato report (ottanta e più pagine) che mette sotto accusa un po’ tutti. Ce n’è per la Banca Mondiale, che con molta burocrazia e poca fantasia e con ancora meno conoscenza delle diverse situazioni, da qualche tempo ha deciso di affidare la distribuzione dei sostegni economici a “strumenti automatizzati”, come li definisce. Che considera – lo scrive testualmente – “più razionali, equi, ed efficaci”.
Aggettivi, definizioni che suonano grotteschi se applicati al “caso Giordania”. Perché davanti ad un aggravarsi drammatico della situazione economica del Paese – che già cinque anni fa, prima della pandemia, aveva visto crescere fino al 15 per cento del totale le famiglie che vivevano al di sotto della soglia di povertà e che, dopo il Covid e la guerra in Ucraina, sono arrivate ad essere il 23 per cento, secondo i dati ufficiali -, davanti a questa situazione, la Banca Mondiale ha deciso di affidare, d’intesa con le autorità giordane, la distribuzione dei sussidi a Takaful. Le risorse a disposizione dell’organismo sono però limitate, non bastano a coprire tutte le richieste. Sarebbero sufficienti più o meno per un terzo, un quarto dei richiedenti. Hanno deciso così di scrivere una classifica della povertà, dalla “più estrema” alla “meno drammatica”. Classifica scritta appunto da Takaful, utilizzando un algoritmo. Sistema automatizzato di distribuzione dei sussidi allestito anche questo col sostegno di tutte le organizzazioni mondiali, (con un ulteriore versamento di duecento milioni di dollari) che hanno fornito anche tutte le “competenze” tecniche.
Algoritmo, dunque. Che ha utilizzato quali criteri? Quali dati? Raccolti come? Nessuno ha voluto spiegarlo, solo dopo la pubblicazione del report di Human Rights Watch, le autorità giordane in queste ore hanno annunciato che procederanno ad una verifica del sistema. Per ora comunque, tutto tace. Si sa solo che l’algoritmo si basa su 57 indicatori socio-economici, che valutano la condizione di vita delle famiglie. L’inchiesta – l’inchiesta sul campo, condotta anche attraverso interviste a tappeto, di chi è beneficiario e di chi è stato escluso dal sussidio, fino ai funzionari pubblici che seguono il progetto – ha raccontato le incongruenze del sistema. Dove le domande sono state respinte automaticamente se c’era scritto che le bollette di luce ed acqua superavano il 20 per cento del proprio reddito, perché “sospettate” di essere false. In un Paese dove si calcola che almeno due terzi delle famiglie è costretta ad indebitarsi per pagare i servizi minimi, dopo il pazzesco aumento delle spese domestiche, imposte dal FMI in cambio dei prestiti.
Algoritmo, lo si è detto, che rifiuta le domande anche solo se si è possessori di un’auto che invece – raccontano i ricercatori – in più di metà del paese viene usata una volta al mese, nelle aree rurali, per fare scorta di legna e cibo. Con un parco-macchine mediamente vecchio di vent’anni. Di più, di più grave: l’algoritmo ha “accettato” passivamente la discriminazione ancora vigente nelle leggi giordane. Per le quali un uomo, un maschio sposandosi può regalare la cittadinanza ad una donna di un altro paese. Ma lo stesso non può farlo una donna: se il suo compagno non ha il passaporto giordano – ed in questa condizione c’è quasi un milione di palestinesi – l’algoritmo la considera single. E perde punti.
E poi, sempre in omaggio a quelle “soluzioni tecniche”, la Banca mondiale e le autorità giordane hanno deciso che la distribuzione di questi sussidi avvenga attraverso un “pagamento digitale”. La somma, la piccola somma viene insomma accreditata sui telefonini. Ma in molte zone del Paese, quei soldi non hanno alcun valore. Occorre andare a cambiarli in dinari nelle banche od in altri uffici. Che si prendono una percentuale per il servizio. Senza considerare che la domanda per accedere a Takaful va fatta esclusivamente on line. In un paese dove il tasso di digitalizzazione, all’infuori della capitale, è decisamente basso. E così è cominciata una nuova attività nei maktabeh: nei piccoli negozi dove prima si vendevano cibo in scatola, giocattoli e articoli di cartolibreria, ora c’è il servizio per l’aiuto a compilare i moduli on line. Tre dinari, quattro dollari e mezzo, su un sussidio che raramente, nelle famiglie numerosissime, arriva a novanta dinari.
Tutto sbagliato, insomma. A cominciare dalla filosofia sottesa a Takaful. Perché – scrivono testualmente i firmatari del report – “i modi coi quali le persone lottano per sopravvivere alla fame sono invisibili all’algoritmo”. Perché le statistiche non possono fotografare la realtà, “non sono adatte a rappresentarne la complessità”, le classifiche, le classifiche digitali non possono raccontare la battaglia quotidiana di tre milioni di famiglie per sbarcare il lunario. Ma sbagliate anche le scelte “politiche”, del Governo giordano così come della Banca Mondiale: che preferisce affidarsi a misure tampone, occasionali, piuttosto che sostenere “misure universali”. Le uniche in grado davvero di combattere la povertà ed avviare possibili redistribuzioni di ricchezze. Anche su questo è esplicito il report: meglio un sostegno a tutti, a tutte le famiglie con bambini, a tutti gli oltre 65 anni, meglio una misura anche graduale che quel “bonus” povertà ogni tanto. Misure che in tutto, l’anno prossimo, costerebbero l’un per cento del Pil giordano.
In ogni caso, in attesa di interventi veri, non ci si può più affidare ad improbabili soluzioni tecnologiche. Che oltretutto – si è saputo – la Banca Mondiale vorrebbe estendere a diversi altri paesi, a cominciare dall’Egitto, Libano, Mauritania, Tunisia, Marocco, Yemen, fino ai territori occupati della Palestina. Improbabili soluzioni digitali, adottate senza la minima accortezza: addirittura nella sua policy la Banca Mondiale scrive che i “registri digitali” dovrebbero essere utilizzati solo negli Stati che hanno leggi a difesa della privacy dei dati. La Giordania ancora non ce l’ha. Ed è noto che ha utilizzato la raccolta delle informazioni on line per profilare chi tre anni fa scese in piazza contro gli aumenti dei beni primari.
Tutto sbagliato, allora. Ma forse il report di Human Rights Watch va al oltre i confini della Giordania. Ed entra a pieno titolo nel dibattito sull’intelligenza artificiale, fra chi sostiene la necessità inderogabile di processi decisionali automatizzati e chi invece li descrive come una futura distopia che sarebbe meglio evitare. Senza accorgersi invece che le scelte politiche automatizzate sono già al lavoro. Da tempo. E fanno disastri. E riducono alla fame Tariq e un altro mezzo milione di famiglie.
In copertina immagine di Michael Dziedzic (Unsplash)