Dove va (a scuola) l’Intelligenza Artificiale – 1

Non basta progettare macchine intelligenti perfette. Perché bisogna fare i conti anche con i maestri e soprattutto con i loro istituti. Prima puntata

di Stefano Bocconetti

Imparare a discriminare. Con l’”aiuto” obbligato dei discriminati. Imparare da milioni di dati, di foto, di video, per “apprendere” che se abiti alla periferia di Washington e sei nero probabilmente sei un potenziale criminale. Imparare che se hai una macchina degli anni ’60 e vivi a Berlino, sei un cultore del vintage e plausibilmente anche un attento ecologista. Ma se hai la stessa auto a Mombasa invece sei un tassista abusivo, per indole “furbacchione”. Al quale magari è meglio negare il visto negli States.

Si parla – è facile capirlo, quando si citano apprendimento e dati – di intelligenza artificiale. Giganteschi sistemi hardware e software che consentono operazioni impossibili anche all’informatica tradizionale. Sistemi che hanno imparato ad istruirsi da soli. Immagazzinando milioni di terabyte di dati – spesso raccolti in modo illecito, come accade nelle aziende di riconoscimento facciale – e che sono in grado di migliorare automaticamente le proprie prestazioni. Il problema è che quei sistemi sembrano essere stati programmati per attribuire un senso a certi dati e negarlo ad altri. Sembra insomma che siano stati addestrati, rispecchiando esattamente i pregiudizi, le remore, quando non le vere e proprie xenofobie, di chi li ha progettati: per lo più, gli ingegneri bianchi della Silicon Valley, per restare negli stereotipi.

Entra nella community

Iscriviti alla nostra newsletter

Sia chiaro, tutto ciò non è una denuncia nuova. Se ne parla da tempo. Tanto più col clamoroso caso di Timnit Gebru, probabilmente una delle più autorevoli studiose al mondo del rapporto fra etica ed informatica. Per darsi una patente di “politicamente corretto”, il gigante big tech, Google, anni fa, l’aveva assunta proprio per dirigere il settore che riguarda l’Intelligenza artificiale. Qualche tempo fa, la ricercatrice ha scritto una lunga lettera per denunciare la pericolosità dell’approccio di Google all’intelligenza artificiale. Timnit Gebru si riferiva esplicitamente a come il machine laearning, il meccanismo di auto miglioramento degli algoritmi, potesse mettere a rischio le minoranze. E’ stata licenziata in tronco, via email.

Nulla di nuovo, si diceva. Indagini e denunce vengono pubblicate a ritmo serrato. C’è ora però uno studio dell’università di Montreal (in collaborazione con l’istituto di statistica canadese e con l’ateneo di Princeton) che ha fornito un angolo di visuale oltremodo originale. Raccontando appunto dell’”aiuto obbligato” – se ne parlava all’inizio – che sono costretti a fornire all’intelligenza artificiale, le vittime della discriminazione.

I quattro professori – Alan Chan, Chinasa T. Okolo, Zachary Terner e Angelina Wang – partono ovviamente dagli squilibri nel “mondo dell’intelligenza artificiale”. Che riflettono esattamente gli squilibri del mondo economico, dove vincono poche nazioni e alle altre restano le briciole. Si parte da una semplice constatazione: che quei sistemi per funzionare hanno bisogno di enormi, giganteschi data base. Dove ogni singolo dato viene etichettato, segnato, numerato, descritto – “taggato” – in modo che il “cervello” possa acquisirlo e possa migliorare le sue prestazioni. Un mercato – quello della raccolta ed etichettatura – che entro sei anni dovrebbe triplicarsi e crescere di sei miliardi di dollari. Ed è inutile aggiungere che i grandi “magazzini di numeri” sono tutti di proprietà americana ed europea.  (1- segue. La prossima puntata sarà online il 9 marzo)

In copertina foto di Michael Dziedzic (Unsplash)

Entra nella community

Lasciaci qualche informazione su di te, così saremo in grado di contattarti quando lanceremo la campagna di crowdfunding e potrai ricevere la nostra newsletter con gli ultimi aggiornamenti dal mondo.

IN ESCLUSIVA PER TE L’ABSTRACT SULL’INSERTO “SPECIALE CORONAVIRUS”

Tags:

Ads

You May Also Like

Venezuela, el día después

Fallito il tentativo di insurrezione popolare, la diplomazia comincia il suo lavoro. Il fronte pro-Guaidó si divide, gli Usa perdono alleati,e  l'opzione di un intervento militare non piace nemmeno a Bolsonaro

di Maurizio Sacchi Si è concluso con la diserzione di appena 151 militari, e ...

Elezioni in Bangladesh: l’ombra dell’islam radicale

Con il lancio della Lia, un cartello elettorale di partiti islamici moderati e costituzionali il prossimo 21 ottobre, molti temono un’infiltrazione degli estremisti filo-pachistani del partito della Jamaat-e-Islami

di Subir Bhaumik Mentre ci si avvicina alle elezioni parlamentari previste per il gennaio ...

Myanmar, il silenzio dei diritti umani

Uno sciopero nazionale particolare oggi in occasione della Giornata mondiale per la loro tutela. All'Icc intanto sono state depositate da una Ong le prove che accusano la giunta di tortura sistematica e programmata

Il Myanmar Accountability Project, MAP, un’organizzazione non governativa con sede a Londra, ha presentato ...