di Stefano Bocconetti
Imparare a discriminare. Con l’”aiuto” obbligato dei discriminati. Imparare da milioni di dati, di foto, di video, per “apprendere” che se abiti alla periferia di Washington e sei nero probabilmente sei un potenziale criminale. Imparare che se hai una macchina degli anni ’60 e vivi a Berlino, sei un cultore del vintage e plausibilmente anche un attento ecologista. Ma se hai la stessa auto a Mombasa invece sei un tassista abusivo, per indole “furbacchione”. Al quale magari è meglio negare il visto negli States.
Si parla – è facile capirlo, quando si citano apprendimento e dati – di intelligenza artificiale. Giganteschi sistemi hardware e software che consentono operazioni impossibili anche all’informatica tradizionale. Sistemi che hanno imparato ad istruirsi da soli. Immagazzinando milioni di terabyte di dati – spesso raccolti in modo illecito, come accade nelle aziende di riconoscimento facciale – e che sono in grado di migliorare automaticamente le proprie prestazioni. Il problema è che quei sistemi sembrano essere stati programmati per attribuire un senso a certi dati e negarlo ad altri. Sembra insomma che siano stati addestrati, rispecchiando esattamente i pregiudizi, le remore, quando non le vere e proprie xenofobie, di chi li ha progettati: per lo più, gli ingegneri bianchi della Silicon Valley, per restare negli stereotipi.
Entra nella community
Iscriviti alla nostra newsletter
Sia chiaro, tutto ciò non è una denuncia nuova. Se ne parla da tempo. Tanto più col clamoroso caso di Timnit Gebru, probabilmente una delle più autorevoli studiose al mondo del rapporto fra etica ed informatica. Per darsi una patente di “politicamente corretto”, il gigante big tech, Google, anni fa, l’aveva assunta proprio per dirigere il settore che riguarda l’Intelligenza artificiale. Qualche tempo fa, la ricercatrice ha scritto una lunga lettera per denunciare la pericolosità dell’approccio di Google all’intelligenza artificiale. Timnit Gebru si riferiva esplicitamente a come il machine laearning, il meccanismo di auto miglioramento degli algoritmi, potesse mettere a rischio le minoranze. E’ stata licenziata in tronco, via email.
Nulla di nuovo, si diceva. Indagini e denunce vengono pubblicate a ritmo serrato. C’è ora però uno studio dell’università di Montreal (in collaborazione con l’istituto di statistica canadese e con l’ateneo di Princeton) che ha fornito un angolo di visuale oltremodo originale. Raccontando appunto dell’”aiuto obbligato” – se ne parlava all’inizio – che sono costretti a fornire all’intelligenza artificiale, le vittime della discriminazione.
I quattro professori – Alan Chan, Chinasa T. Okolo, Zachary Terner e Angelina Wang – partono ovviamente dagli squilibri nel “mondo dell’intelligenza artificiale”. Che riflettono esattamente gli squilibri del mondo economico, dove vincono poche nazioni e alle altre restano le briciole. Si parte da una semplice constatazione: che quei sistemi per funzionare hanno bisogno di enormi, giganteschi data base. Dove ogni singolo dato viene etichettato, segnato, numerato, descritto – “taggato” – in modo che il “cervello” possa acquisirlo e possa migliorare le sue prestazioni. Un mercato – quello della raccolta ed etichettatura – che entro sei anni dovrebbe triplicarsi e crescere di sei miliardi di dollari. Ed è inutile aggiungere che i grandi “magazzini di numeri” sono tutti di proprietà americana ed europea. (1- segue. La prossima puntata sarà online il 9 marzo)
In copertina foto di Michael Dziedzic (Unsplash)
Lasciaci qualche informazione su di te, così saremo in grado di contattarti quando lanceremo la campagna di crowdfunding e potrai ricevere la nostra newsletter con gli ultimi aggiornamenti dal mondo.