Facial matching system risici racemæssige fordomme, Human Rights Law Center advarer

Indsendelse siger bill ville en uforholdsmæssig stor indvirkning på etniske minoriteter, og at de skader forsamlings-og ytringsfrihed

• Tilmeld dig for at modtage de bedste historier fra Guardian Australien hver morgen

@Paul_Karp

Tue 29 Maj 2018 21.12 BST

Sidst opdateret den Ons 30 Maj 2018 02.05 BST

Woman's face

Etniske minoriteter kan være “uforholdsmæssigt” målrettede af regeringens facial matching system.
Foto: John Lund/Getty Images/Blend Images

Facial matching teknologi foreslået af regeringen risici racemæssige fordomme og ville have en negativ virkning på retten til forsamlingsfrihed uden yderligere sikkerhedsforanstaltninger, Human Rights Law Center har sagt.

Den advarsel, der er indeholdt i et indlæg til et parlamentarisk udvalg undersøgelse at undersøge Koalitionens forslag til den indre anliggender afdeling til at indsamle, bruge og videregive facial id-oplysninger.

Ansigts-matching system var enige om, at i princippet af stater i oktober, men har siden ført til overbelastning af advarsler fra Victoria, og Loven Råd i Australien.

De berørte parter, har advaret om, at Koalitionen identitet matchende tjenester bill giver adgang til facial verifikation af data fra den private sektor og lokale regeringer, og at det kunne bruges til at retsforfølge lavt niveau forbrydelser.

I en henvendelse til folketingets paritetiske udvalg for intelligence and security, der blev indleveret på tirsdag, den Menneskelige Rettigheder Law Center advaret regningen var “åbenbart og faretruende utilstrækkelig”, og systemet blev “høj risiko”, fordi regningen ikke i tilstrækkelig grad at identificere eller regulere brugen af facial matching teknologi.

• Tilmeld dig for at modtage de bedste historier fra Guardian Australien hver morgen


Centret oplyst, at både falsk positive og falsk negative resultater for facial anerkendelse “er sandsynligt, at der opstår uforholdsmæssigt meget i forhold til de mennesker, der tilhører etniske minoriteter i Australien”.

Det nævnte undersøgelser, der fandt facial anerkendelse havde “en bias i retning af den dominerende etniske gruppe i det område, hvor det er udviklet”.

Den HRLC bemærkes, NEC Neoface-teknologi, der anvendes af føderale agenturer og flere Australske stater, var blevet valideret som den bedste i branchen ved det AMERIKANSKE Nationale Institut for Standarder og Teknologi.

Men advarede teknologi”, er ikke blevet testet for nøjagtigheden baseret på demografi”, og derfor samlede nøjagtighed priser kan sløre uforholdsmæssigt høje priser for fejlidentifikation af etniske minoriteter.

Centrum advaret om, at falske positiver kunne omfattet af mistænkte til efterforskning, overvågning og afvisning af beskæftigelse, og fejlidentifikation ville undergrave tilliden til retshåndhævende og sikkerhed agenturer. Det anbefalede årlige nøjagtighed test, herunder den demografiske tests.

Brug af ansigtsgenkendelse teknologier, der også udgør “en væsentlig trussel mod ytrings -, forenings-og forsamlingsfrihed”, indsendelse sagde.

Det sagde facial anerkendelse “risici forvandle det offentlige rum i en sfære, hvor hver person kan følges og identificeres”, der er “særligt med hensyn til i forbindelse med civilt forsamlinger, demonstrationer og protester”.

Den HRLC sagde brug af ansigtsgenkendelse kunne afskrække folk fra at udøve deres ret til forsamling, fordi selv de borgere, der havde gjort noget galt, måske ikke ønsker politiet at vide, at de havde deltaget i politisk følsomme sammenkomster såsom protester mod politiets vold eller Aboriginal dødsfald i politiets varetægt.

Det sagde “politisk motiveret overvågning” kan ikke være et “sandsynligt kortsigtede konsekvens” af regningen, men det “skal være bevogtet mod i design af dette system”. Det sagde bill bør ikke passere uden sikkerhedsforanstaltninger for at beskytte ytringsfriheden.

Tidligere i denne måned den Victorianske regering truede med at trække sig ud af facial matching system, argumenterer for, at det var aftalt, at den private sektor bør ikke gives adgang til facial kontrol systemer, men lovforslaget ikke indeholder den pågældende begrænsning.

Loven Råd i Australien har advaret om, at facial anerkendelse kan føre til en fuld “social kredit” system af statslige overvågning, og opfordrede til, garantier for at forhindre, at “illegitime og uforholdsmæssigt bruger” af teknologien.

Facial anerkendelse er ikke blot ubrugelige. I politiets hænder, det er farligt | Martha Spurrier

Læs mere

Ved en høring den 3. Maj home affairs-afdeling, der kæmpede mod de foreslåede begrænsninger på systemet, afvisning af opkald for warrants og en tærskel for alvorlige lovovertrædelser, der berettiger til anvendelse af teknologien.

Maria Fernandez, department ‘ s vicegeneralsekretær for intelligens og evne, sagde facial anerkendelse ville være for brug af retshåndhævende myndigheder “, hvis eneste formål er at beskytte og holde borgerne sikkert”.

I sit eget skriftlige indlæg, institut har sagt, at de systemer, der kunne anvendes til “at forbedre trafiksikkerheden gennem afsløring og retsforfølgning af færdselsforseelser”.

Den HRLC anført, at dragnet facial anerkendelse bør kun anvendes til undersøgelse af “alvorlige forbrydelser”.

Nogen real-time overvågning af kapacitet vil blive beskrevet i den primære lovgivning, for at give mulighed for en “fuldstændig vurdering af, om det er berettiget og garantier er tilstrækkelige”.

Den indre anliggender afdelingen har anført, at love om privatlivets fred, og at de eksisterende begrænsninger på agenturernes informationsdeling, vil fortsat finde anvendelse.


Date:

by