La Svizzera prenderà le distanze dall'UE sulla sorveglianza di massa?
L’accordo quadro tra la Svizzera e l’Unione Europea (UE) è saltato proprio mentre Bruxelles è impegnata a regolamentare la sorveglianza di massa basata sull'intelligenza artificiale (IA). Ciò mette in questione il futuro delle norme sulla privacy in Svizzera, ora che gli elettori hanno appena approvato una delle leggi antiterrorismo più severe in Europa.
Questo contenuto è stato pubblicato il 07 luglio 2021 - 12:5107 luglio 2021 - 12:51A fine maggio, il governo svizzero ha affossato l'accordo quadro con l’UELink esterno dopo sette anni di trattative, dando un taglio netto alle relazioni bilaterali con Bruxelles, giunte ai minimi storici. Poco dopo, il 13 giugno, il popolo svizzero si è espresso chiaramente a favore della legge federale per la lotta al terrorismo, che riconosce alla polizia poteri di intervento più ampi a titolo preventivo.
La rottura con l’UE arriva proprio in un momento cruciale dell’impegno europeo contro l’uso delle tecnologie di sorveglianza della popolazione da parte non solo delle società private, ma anche dei corpi di polizia. La Commissione europea sta infatti lavorando alla prima legislazione al mondo per regolamentare l'intelligenza artificialeLink esterno (IA). La proposta attualmente in discussione affronta i rischi di questa tecnologia e definisce obblighi chiari per quanto riguarda i suoi usi specifici.
Nel mirino di Bruxelles compaiono in particolare i sistemi di identificazione biometrica (il riconoscimento facciale è uno di questi) che si stanno diffondendo sempre di più negli spazi pubblici – spesso all’insaputa della popolazione – a fini di sorveglianza, raccolta di dati e applicazione della legge.
All’inizio dell’anno, Amnesty International ha lanciato una campagna contro l’utilizzo delle tecnologie di riconoscimento faccialeLink esterno a scopo di identificazione sia da parte delle agenzie statali che degli attori del settore privato. Secondo l’ONG, “il riconoscimento facciale rischia di diventare un’arma nelle mani delle forze dell’ordine contro le comunità emarginate di tutto il mondo”. Allo stesso tempo, si è anche espressa apertamente contro la nuova legge svizzera sulle misure di polizia per la lotta al terrorismoLink esterno, ritenendola “pericolosamente vaga” e “una minaccia per il futuro”. Dal momento che la legge contribuisce a una maggiore sorveglianza, potrebbe indirettamente incrementare l’uso di quei sistemi di identificazione che Bruxelles sta cercando di vietare, dicono gli osservatori.
“Nel contesto liberal-democratico europeo, quella svizzera è sicuramente una delle leggi più estreme, poiché concede un potere in alcuni casi senza precedenti alla polizia federale”, avverte Lukas Hafner, coordinatore della campagna di Amnesty Svizzera nell’ambito della tecnologia e dei diritti umani. Anche il Consiglio d’EuropaLink esterno aveva reso note, già l’anno scorso, le sue inquietudini circa le significative violazioni dei diritti umani e fondamentali che la legge permetterebbe.
Dove guarda l’occhio elettronico della legge?
Sebbene la legge antiterrorismoLink esterno non menzioni espressamente la sorveglianza con telecamera, autorizza la polizia federale (fedpol) a ordinare "la sorveglianza elettronica di un potenziale terrorista", ad esempio con un braccialetto elettronico (art. 23q). Più controverso è il fatto che le misure di sorveglianza elettronica siano decise da fedpol senza l'accordo di un tribunale e che i dati raccolti possano essere utilizzati per uno scopo che va oltre quello previsto dalla legge, sottolinea Frédéric Bernard, professore di diritto pubblico all'Università di Ginevra. "Questa legge non impedisce granché, questo è il problema", dice.
Interpellata da SWI swissinfo.ch, la fedpol ha affermato di non fare uso dei sistemi di riconoscimento facciale e ha negato qualsiasi legame tra le misure preventive descritte nella nuova legge e l’impiego di tali tecnologie.
Alcune polizie cantonali, tuttavia, implementano già i sistemi biometrici per indagare sulle infrazioni compiute nel caso di un procedimento penale. La polizia di San Gallo, per esempio, utilizza un software di investigazione svedese, il “Griffeye Analyze DI ProLink esterno", che analizza grandi quantità di dati avvalendosi dell’IA e del riconoscimento facciale. Sul sito del produttore, Griffeye Technologies, si legge che il software può mettere in relazione “i metadati con le fonti aperte su Internet” e individuare i volti utilizzando grandi volumi di “immagini dal mondo reale”.
Nel mondo, almeno quattro miliardi di persone hanno un profilo sul Web da cui potrebbero essere tratte tali "immagini del mondo reale". StudiLink esterno come quello condotto dalla ricercatrice del MIT Media Lab Joy Buolamwini e dall'ex responsabile dell’etica dell’IA di Google Timnit Gebru mostrano che i software commerciali di intelligenza artificiale analizzano con meno accuratezza i volti delle persone di pelle scura e delle donne.
Il nuovo documentario "Coded Bias" (disponibile su Netflix in italiano) indaga sui pregiudizi degli algoritmi e sui difetti della tecnologia di riconoscimento facciale scoperti dalla ricercatrice del MIT Joy Buolamwini:
Hanspeter Krüsi, responsabile della comunicazione per la polizia di San Gallo, specifica via e-mail che il materiale raccolto “verrebbe confrontato dal sistema con le immagini nei database della polizia per cercare delle corrispondenze”. Le verifiche finali sarebbero poi effettuate da una persona in carne e ossa.
“Ogni cantone deve decidere da sé se vuole usare questa tecnologia in modo saggio e se ha le basi legali necessarie per farlo”, ha scritto fedpol a SWI swissinfo.ch. Ma in assenza di leggi chiare che definiscano il quadro di applicazione delle tecnologie, chi può decidere cosa è saggio e cosa non lo è?
“C'è un rischio di arbitrarietà e di abuso che non può essere trascurato, soprattutto a causa di concetti formulati in maniera imprecisa”, dice a SWI swissinfo.ch Jean-Philippe Walter, Commissario svizzero alla protezione dei dati presso il Consiglio d’Europa.
Tutti gli occhi sulla Svizzera
Negli ultimi tempi, Amnesty International sta tenendo d’occhio la situazione dei diritti fondamentali in Svizzera, anche per via del rischio di una maggiore sorveglianza indiscriminata della popolazione.
"La legge antiterrorismo svizzera porterà chiaramente a una crescente sorveglianza di un maggior numero di persone, poiché la polizia federale vuole identificare i 'potenziali terroristi' prima che commettano qualsiasi crimine. È plausibile che le tecnologie biometriche possano essere usate in questo contesto", sostiene Lukas Hafner di Amnesty. Hafner avverte che ciò potrebbe avere un impatto sproporzionato sulle persone che sono già emarginate e discriminate.
La polizia potrebbe, per esempio, decidere di installare delle telecamere fuori dai luoghi di incontro di potenziali sospetti, come una moschea già nel mirino, a titolo di sorveglianza preventiva, osserva l’attivista di Amnesty.
“Questi sistemi pongono dei problemi non solo in termini di diritto all’uguaglianza e alla non discriminazione, ma anche di libertà di espressione e di riunione, oltre che del diritto alla privacy”, sostiene Hafner. Nel testo della leggeLink esterno antiterrorismo svizzera, infatti, si legge che le “opinioni e le attività religiose e filosofiche” possono essere oggetto di sorveglianza e giustificare il trattamento di dati personali molto sensibili (art. 23h). E dal momento che la definizione di terrorismo è molto ampia, è verosimile che la legge possa essere applicata in maniera più estesa e oltre l’ambito originariamente previsto, ritiene l’esperto di diritto Frédéric Bernard.
Nessuna regola, nessun diritto
In alcuni Paesi, come negli Stati Uniti e in Cina, il riconoscimento facciale è sistematicamente utilizzato per scopi di ordine pubblico e, nel caso della Cina, persino per classificare il comportamento sociale. In Europa, il Belgio e il Lussemburgo sono gli unici due dei tre Paesi al mondo in cui l’impiego delle tecnologie biometriche di identificazione è vietato. Il terzo è il Marocco.
Attraverso la sua proposta di legge sull’IA, la Commissione europea vuole proibire l’identificazione biometrica negli spazi pubblici in tutti gli Stati membri dell’UE e sanzionare chi non si attiene alle regole.
Anche se si è dotata di una legge sulla protezione dei dati, in parte conforme alla legislazione sulla privacy dell’UE (GDPR), la Svizzera non possiede nulla di paragonabile alla normativa europea in ambito tecnologico. “Per questo dovrebbe tornare a sedersi al tavolo con l’UE e contribuire a orientare il dibattito sulla governance delle nuove tecnologie quanto prima”, dice a SWI swissinfo.ch Ricardo Chavarriaga, Capo dell'ufficio svizzero di CLAIRELink esterno – la Confederazione dei laboratori per la ricerca sull'intelligenza artificiale in Europa.
Un nuovo standard?
La legge proposta dalla Commissione europea ammette l’impiego del riconoscimento facciale nel caso di “crimini gravi”, associati soprattutto al terrorismo. Ma secondo Chavarriaga e altri esperti sancisce comunque una svolta significativa ed è destinata a diventare uno standard nel settore high-tech.
Ecco perché Chavarriaga ritiene che i costi di un allineamento tardivo o inesistente alla legge europea sarebbero molto alti. L’esperto di IA teme non solo per la competitività dei prodotti tecnologici svizzeri sul mercato globale, ma anche per i diritti umani.
“Alcune aree di applicazione delle tecnologie ad alto rischio, come quelle utilizzate dalla polizia per far rispettare la legge, potrebbero avere effetti nefasti sulla popolazione”, afferma. “I corpi di polizia sono solo l’ultimo anello della catena: i sistemi che utilizzano sono prodotti da aziende che promettono loro risparmio di denaro ed efficienza, spesso senza fornire alcuna reale garanzia.” Ecco perché stabilire degli standard è così importante.
Nessuno comprerebbe un ascensore senza un certificato di sicurezza, o un orologio che non funziona, sottolinea Chavarriaga, aggiungendo che i requisiti dovrebbero essere proporzionali ai rischi. Perché per i sistemi di IA dovrebbe essere diverso, specialmente se in ballo ci sono i diritti fondamentali?