Billede: Neurala
Ikke overraskende, den seneste AI avancement i kroppen kamera teknologi kommer ikke tættere på at øge politiets ansvarlighed eller officer gennemsigtighed. Som den offentlige presse på for kroppen kameraer har lagt sig, tech virksomheder er nu ved at gøre deres egen appel til kroppen kameraer til politiet, at købe dem: tilbyder skarpere, mere intelligent overvågning.
Mandag, Motorola Solutions (den juridiske efterfølger af den hedengangne Motorola, Inc.) annonceret et nyt partnerskab med machine learning start Neurala til at bruge objektet anerkendelse AI i sin Si500 kroppen kameraer. Neurala ‘ s tech introducerer avancerede anerkendelse kapaciteter, som de siger, kan hjælpe officerer finde forsvundne børn eller mistænkte på fri fod. Civil libertarianere blev straks bekymrede for, at dette ville blive brugt til ansigtsgenkendelse, som længe frygtede begivenhed horisont for privatlivets fred, hvor officerer umiddelbart kunne fastslå identiteten af enhver, de kommer på tværs, til enhver tid. Motorola og Neurala har afvist, at teknologien vil blive anvendt på denne måde, men der er stadig bekymringer.

De Nye Tech, Der Kunne Vende Politiet Krop Knaster Til Mareridt Overvågning Værktøjer
Gang på gang, politiet skyde, og undertiden dræber civile holde skadesløse, objekter, …
Læs mere
Som medstifter Antal Versace forklaret, Neurala vil træne sin software til at genkende objekter, båret af enten den mistænkte eller manglende person, ikke finde deres ansigt. Objekt anerkendelse og ansigt anerkendelse, både udgøre en alvorlig privatlivets fred, men det er ikke det samme.
“Er du på udkig efter et barn i en blå t-shirt, rød sko og hvide bukser og sort hår, [AI] kan lære [at] og derefter skubbe det til alle enheder,” Versace fortalte Gizmodo. “Eller hvis du har et bestemt billede af den person, der bærer disse elementer, kan du gøre det.”
Som Versace forestiller sig, at en forælder kan give officerer et billede af deres barn. AI er derefter uddannet til at genkende objekter i den foto, og en ny opdatering skubbet til alle CCTV og krop kameraer, til at anmelde disse objekter i realtid.
“Du kan have en tusind øjne på udkig efter et bestemt objekt,” Versace sagde.
Dette er ikke det samme som ansigtsgenkendelse, som er en tre-trins proces. For det første, AI har for at scanne og måle dit ansigt til at beregne sin unikke målinger (bredden af dine øjne, længden af din pande, osv.) at gøre op dit “faceprint.” Der faceprint er så i forhold til en database, der er gemt faceprints og “anerkendelse” opstår, hvis der er en match.
Politiet har adgang til millioner af faceprints, fordi de er indkøbt fra officielle dokumenter som kørekort, fotos og pas. Neurala siger det vil ikke scanne ansigter eller tilpasse dem til de databaser, og, endvidere, de fleste børn er ikke i nogen ID-database. Men det betyder ikke, at der ikke er bekymrende aspekter omkring virksomhedens forslag.
Som Versace forklaret, Neurala ville matche objekter i realtid, som kræver, at politiet for at have deres kameraer, der konstant er på og scanning. Der er tilbøjelige til at give personlige oplysninger eksperter pause, da de generelt er enig i, at politiet bør være forpligtet til at (a) informere folk, når de er ved at blive optaget, og (b) sluk for kameraer, når folk spørger. De fleste af de personer, der er registreret som altid-på kroppen-kameraer vil ikke blive mistænkt for nogen forbrydelse, og alligevel vil de blive filmet og analyseret—uden deres viden eller samtykke.
Derudover genstande politiet søger efter, er ikke nødvendigvis neutral. Forestil dig at politiet uddannelse software til flag nogen iført en hijab eller burka. Objekt anerkendelse kan automatisere målrettet profilering, hvilket gør det lettere for politiet at overvåge visse samfund. Versace er opmærksom på muligheden for AI til at blive misbrugt, men sagde, at det er ikke den teknologi, vi bør være på vagt over for.
“Mennesker er mere farlige end AI,” Versace sagde. “Vi skal bekymre os om os først og derefter bekymre sig om AI.”