Dove va (a scuola) l’Intelligenza Artificiale – 1

Non basta progettare macchine intelligenti perfette. Perché bisogna fare i conti anche con i maestri e soprattutto con i loro istituti. Prima puntata

di Stefano Bocconetti

Imparare a discriminare. Con l’”aiuto” obbligato dei discriminati. Imparare da milioni di dati, di foto, di video, per “apprendere” che se abiti alla periferia di Washington e sei nero probabilmente sei un potenziale criminale. Imparare che se hai una macchina degli anni ’60 e vivi a Berlino, sei un cultore del vintage e plausibilmente anche un attento ecologista. Ma se hai la stessa auto a Mombasa invece sei un tassista abusivo, per indole “furbacchione”. Al quale magari è meglio negare il visto negli States.

Si parla – è facile capirlo, quando si citano apprendimento e dati – di intelligenza artificiale. Giganteschi sistemi hardware e software che consentono operazioni impossibili anche all’informatica tradizionale. Sistemi che hanno imparato ad istruirsi da soli. Immagazzinando milioni di terabyte di dati – spesso raccolti in modo illecito, come accade nelle aziende di riconoscimento facciale – e che sono in grado di migliorare automaticamente le proprie prestazioni. Il problema è che quei sistemi sembrano essere stati programmati per attribuire un senso a certi dati e negarlo ad altri. Sembra insomma che siano stati addestrati, rispecchiando esattamente i pregiudizi, le remore, quando non le vere e proprie xenofobie, di chi li ha progettati: per lo più, gli ingegneri bianchi della Silicon Valley, per restare negli stereotipi.

Entra nella community

Iscriviti alla nostra newsletter

Sia chiaro, tutto ciò non è una denuncia nuova. Se ne parla da tempo. Tanto più col clamoroso caso di Timnit Gebru, probabilmente una delle più autorevoli studiose al mondo del rapporto fra etica ed informatica. Per darsi una patente di “politicamente corretto”, il gigante big tech, Google, anni fa, l’aveva assunta proprio per dirigere il settore che riguarda l’Intelligenza artificiale. Qualche tempo fa, la ricercatrice ha scritto una lunga lettera per denunciare la pericolosità dell’approccio di Google all’intelligenza artificiale. Timnit Gebru si riferiva esplicitamente a come il machine laearning, il meccanismo di auto miglioramento degli algoritmi, potesse mettere a rischio le minoranze. E’ stata licenziata in tronco, via email.

Nulla di nuovo, si diceva. Indagini e denunce vengono pubblicate a ritmo serrato. C’è ora però uno studio dell’università di Montreal (in collaborazione con l’istituto di statistica canadese e con l’ateneo di Princeton) che ha fornito un angolo di visuale oltremodo originale. Raccontando appunto dell’”aiuto obbligato” – se ne parlava all’inizio – che sono costretti a fornire all’intelligenza artificiale, le vittime della discriminazione.

I quattro professori – Alan Chan, Chinasa T. Okolo, Zachary Terner e Angelina Wang – partono ovviamente dagli squilibri nel “mondo dell’intelligenza artificiale”. Che riflettono esattamente gli squilibri del mondo economico, dove vincono poche nazioni e alle altre restano le briciole. Si parte da una semplice constatazione: che quei sistemi per funzionare hanno bisogno di enormi, giganteschi data base. Dove ogni singolo dato viene etichettato, segnato, numerato, descritto – “taggato” – in modo che il “cervello” possa acquisirlo e possa migliorare le sue prestazioni. Un mercato – quello della raccolta ed etichettatura – che entro sei anni dovrebbe triplicarsi e crescere di sei miliardi di dollari. Ed è inutile aggiungere che i grandi “magazzini di numeri” sono tutti di proprietà americana ed europea.  (1- segue. La prossima puntata sarà online il 9 marzo)

In copertina foto di Michael Dziedzic (Unsplash)

Entra nella community

Lasciaci qualche informazione su di te, così saremo in grado di contattarti quando lanceremo la campagna di crowdfunding e potrai ricevere la nostra newsletter con gli ultimi aggiornamenti dal mondo.

IN ESCLUSIVA PER TE L’ABSTRACT SULL’INSERTO “SPECIALE CORONAVIRUS”

Tags:

Ads

You May Also Like

La spirale che attanaglia il Mali

Le violenze in Mali continuano. Dieci  caschi blu sono rimasti uccisi in un attacco al campo base di Aguelhok. Mentre 800 scuole in tutto il Paese sono state  chiuse

di Elia Gerola. Come riportato da un comunicato ONU, nella prima mattinata di domenica ...

Dietro le dimissioni del governo di Bamako

Lasciano sia il primo ministro sia l'esecutivo  mentre le violenze tra pastori e agricoltori non si fermano. Le principali cause della crisi  in Mali

Si aggrava sempre più la situazione del Mali. A circa un mese dall’uccisione di 160 persone ...

Venezuela e Colombia ai ferri corti

Una fuga da telenovela. Ma i profughi salgono a quasi 5 milioni

di Maurizio Sacchi Le Forze speciali  venezuelane hanno catturato il 30 gennaio  nella città ...