europa

Uso dell’intelligenza artificiale da parte della polizia: no alla sorveglianza di massa

• Algoritmi trasparenti e sistemi IA sempre supervisionati da persone
• Vietare banche dati private di riconoscimento facciale, la polizia comportamentale e il sistema di punteggio sociale
• No all’uso del riconoscimento facciale per il controllo delle frontiere o negli spazi pubblici

Per combattere la discriminazione e garantire la privacy, i deputati chiedono forti salvaguardie quando gli strumenti di intelligenza artificiale sono utilizzati dalle forze dell’ordine.

In una risoluzione adottata da 377 a favore, 248 contro e 62 astenuti, i deputati sottolineano il rischio di pregiudizi algoritmici nelle applicazioni che usano l’Intelligenza Artificiale (IA) e affermano che la supervisione umana e un chiaro quadro giuridico sono necessari per prevenire tali discriminazioni, soprattutto se utilizzate dalle forze dell’ordine e di controllo delle frontiere.

Le persone monitorate dai sistemi alimentati dall’IA devono avere accesso a ricorsi, aggiungono i deputati.

Trasparenza degli algoritmi per contrastare la discriminazione

Nel testo approvato si afferma che molte tecnologie di identificazione in uso già commettono un numero sproporzionato di errori di identificazione e di classificazione, danneggiando soprattutto le persone che appartengono a determinati gruppi razziali o etnici, le persone LGBTI, i bambini, gli anziani e le donne, situazione particolarmente preoccupante nel contesto delle operazioni delle forze dell’ordine e della magistratura.

Per garantire il rispetto dei diritti fondamentali, gli algoritmi dovrebbero essere trasparenti, tracciabili e sufficientemente documentati, chiedono i deputati, e le autorità pubbliche dovrebbero divulgare le loro applicazioni come software open-source.

Tecnologie controverse

Per rispettare la privacy e la dignità umana, i deputati chiedono un divieto permanente dell’utilizzo del riconoscimento automatico delle persone negli spazi pubblici, notando che i cittadini dovrebbero essere monitorati solo se sospettati di un crimine.

Il Parlamento chiede di vietare anche l’uso di banche dati private di riconoscimento facciale (come il sistema Clearview AI, banca dati di oltre tre miliardi di immagini raccolte illegalmente dai social network, già in uso) e la polizia predittiva basata sui dati comportamentali.

I deputati chiedono anche di vietare i sistemi di punteggio sociale, che cercano di valutare l’affidabilità dei cittadini in base al loro comportamento o personalità.

Infine, il Parlamento è preoccupato dall’uso di dati biometrici per identificare a distanza le persone. Per esempio, i cancelli di controllo alle frontiere che utilizzano il riconoscimento automatico e il progetto iBorderCtrl (un “sistema intelligente di rilevamento delle bugie” per l’ingresso dei viaggiatori nell’UE) non dovrebbero essere più utilizzati, dicono i deputati, che sollecitano la Commissione ad aprire procedure di infrazione contro gli Stati membri, se necessario.

Citazione

Il relatore Petar Vitanov (S&D, BG) ha detto: “Stiamo inviando un chiaro segnale che i diritti fondamentali sono incondizionati. Per la prima volta in assoluto, chiediamo una moratoria sul dispiegamento dei sistemi di riconoscimento facciale per scopi di applicazione della legge, poiché la tecnologia ha dimostrato di essere inefficace e spesso porta a risultati discriminatori.

Ci opponiamo chiaramente alla polizia predittiva basata sull’uso dell’IA, così come a qualsiasi elaborazione di dati biometrici che porti alla sorveglianza di massa. Questa è una grande vittoria per tutti i cittadini europei”.

Guarda anche...

europa

Difesa informatica: i deputati chiedono una politica comune UE

• Istituzione di un’unità congiunta per il ciberspazio• Risposte comuni agli attacchi informatici e sanzioni …

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.