L’ascesa della sorveglianza AI

Questo articolo fa parte di “L’era della sorveglianza “, un rapporto speciale sull’intelligenza artificiale.

Benvenuto nel lato oscuro dell’intelligenza artificiale.

Come tecnologia, l’IA è stata pubblicizzata come un proiettile d’argento per molti dei mali della società. Ha il potenziale per aiutare i medici a individuare i tumori, assistere nella progettazione di nuovi vaccini, aiutare a prevedere il tempo, fornire alle squadre di calcio approfondimenti sulle loro strategie e automatizzare compiti noiosi come la guida o il lavoro amministrativo.

E, naturalmente, può essere utilizzato per la sorveglianza. 

C’è un motivo per affermare che non esiste intelligenza artificiale senza sorveglianza. Le applicazioni di intelligenza artificiale si basano su montagne di dati per addestrare algoritmi a riconoscere schemi e prendere decisioni. Gran parte viene raccolta dai consumatori senza che loro se ne rendano conto. Le società Internet tengono traccia dei nostri clic per indovinare le nostre preferenze per prodotti, articoli di notizie o annunci. La società di riconoscimento facciale Clearview AI elimina le immagini da siti come Facebook e YouTube per addestrare il suo modello. Facebook ha recentemente annunciato che inizierà ad addestrare modelli di intelligenza artificiale con video pubblici che gli utenti hanno caricato sulla piattaforma.

Tuttavia, gli algoritmi non sono sempre più alimentati solo dalla sorveglianza. Vengono impiegati nel suo servizio.

La pandemia di coronavirus – e la necessità di dati rapidi sulla salute pubblica – ha aperto la porta alla raccolta e al monitoraggio dei dati su una scala che sarebbe stata quasi inimmaginabile poco più di un anno fa.

I governi hanno utilizzato le informazioni dei telefoni cellulari per monitorare i movimenti nell’Unione europea. Le aziende hanno installato telecamere dotate di AI per verificare se lavoratori e clienti rispettano le regole di distanziamento sociale. La Francia ha introdotto la tecnologia di riconoscimento facciale nei trasporti pubblici per monitorare l’uso della maschera.

“La normalizzazione della sorveglianza biometrica è abbastanza evidente con [il] COVID-19 “, ha affermato Fabio Chiusi, project manager di AlgorithmWatch, un gruppo di difesa che monitora il processo decisionale automatizzato.

L’uso dell’intelligenza artificiale per la sorveglianza è anteriore al coronavirus, ovviamente. Quasi ogni singolo paese europeo ha una qualche versione della tecnologia di riconoscimento facciale in uso. La polizia olandese lo usa per abbinare le foto dei sospetti a un database criminale. La London Metropolitan Police utilizza il riconoscimento facciale in tempo reale per abbinare i volti ai criminali in un database. Il governo francese è un fan dell’utilizzo dell’IA per monitorare ” comportamenti sospetti “.

La rapida adozione delle tecnologie di sorveglianza ha sollevato interrogativi su come si adattano ai valori di una società. Il riconoscimento facciale, in particolare, evidenzia i compromessi tra privacy e legittime esigenze di tracciamento. I sostenitori della tecnologia affermano che si tratta di uno strumento potente che può aiutare i funzionari dell’immigrazione a scansionare i viaggiatori alle frontiere o aiutare la polizia a catturare i criminali.

Algoritmi simili sono in fase di sviluppo anche per il cosiddetto riconoscimento biometrico, identificando le persone in base a come appaiono, suonano o camminano. C’è un “crescente impulso nei campi della biometria per identificare le emozioni delle persone e altri stati basati sull’aspetto esteriore”, ha detto Ella Jakubowska del gruppo per i diritti digitali EDRi, che ha fatto una campagna per vietare la tecnologia. Ha aggiunto che questo uso della tecnologia è “seriamente non basato su alcuna scienza credibile”.

Negli Stati Uniti, le preoccupazioni per la tecnologia hanno spinto alcuni stati e città a tracciare linee più dure. La città di Portland, Oregon, ha  adottato  un divieto assoluto per l’uso della tecnologia di riconoscimento facciale per i suoi dipartimenti cittadini, nonché per i negozi, i ristoranti e gli hotel. La città di New York ha vietato il riconoscimento facciale nelle sue scuole e gli attivisti chiedono che il divieto venga esteso alle strade della città.

Gli attivisti hanno anche lanciato l’allarme per i danni che questi sistemi possono causare ai gruppi emarginati. “È abbastanza chiaro nei modelli che vediamo in tutta Europa, l’uso di questi sistemi sta radicando stereotipi e idee discriminatorie su chi ha maggiori probabilità di essere criminale e su chi non ci si può fidare, in un modo che è davvero, davvero pericoloso”. disse Jakubowska.

I sistemi di riconoscimento biometrico notoriamente lottano per riconoscere correttamente i volti delle donne e delle persone di colore. Falsi abbinamenti hanno portato persone innocenti ad essere incarcerate.

Finora, tuttavia, questi sistemi sono per lo più sfuggiti alla regolamentazione. L’Europa sta attualmente discutendo regole sul riconoscimento facciale dal vivo, che consentirebbe alle autorità di utilizzare la tecnologia per abbinare i volti di un live streaming. I critici, compreso il supervisore europeo della protezione dei dati , affermano che ciò potrebbe portare a una sorveglianza di massa. 

Ad aprile, la Commissione europea ha presentato la sua proposta per regolamentare gli usi rischiosi dell’intelligenza artificiale. La proposta vieta il riconoscimento facciale a distanza nei luoghi pubblici per le forze dell’ordine “in linea di principio”, ma lascia un certo margine di manovra alle forze dell’ordine nazionali per utilizzare la tecnologia. 

Uno dei più grandi miti sull’intelligenza artificiale è che è uno strumento oggettivo o neutro. Non è. L’intelligenza artificiale è modellata dai pregiudizi, dalle priorità e dalle decisioni dei suoi creatori e delle persone che la impiegano.

Per i governi che lottano con la controversa tecnologia, la domanda è quando viene utilizzata al servizio dei valori della loro società e quando funziona in opposizione ad essi.

 

 

https://www.politico.eu/