Uber Løfter Sløret For De Nye Værktøj, Der Beskytter Enkelte Bruger Data

Foto: Getty

Du kan tænke på Uber som en ride-signalsystemet selskab eller en retssag-redet selvkørende bil, udvikler, men i sin kerne, Om der er en big data selskab. Det har hele tiden stykket koordinater, trafik-data, information om betaling, og skattesatser—og at lægge alle disse data i Uber hænder nogle gange gør, at brugere nervøs.

Men nu er Uber debuterede en differentieret fred værktøj, som den vil bruge til at analysere sine enorme data-butikker. Differential privatlivets fred giver mulighed for analyse af store datamængder uden at afsløre identiteten af enhver person inkluderet i data, og bruges af virksomheder som Apple og Google til at få indsigt fra brugernes data, uden at gå på kompromis med privatlivets fred. Uber ‘ s nye værktøj vil lade sine data analytikere kender sandsynligvis personlige konsekvenser af eventuelle spørgsmål, de gør på Uber data, før de foretager dem.

“Effektivt, det er en måde at tage et kig på forespørgsler og beslutte, hvor følsomme de data, der fremkommer fra denne forespørgsel uden at skulle til at køre forespørgslen,” Uber der er leder af privatlivets fred engineering Menotti Minutillo fortalte Gizmodo.

Her er, hvordan det vil virke: Forestil dig, Uber data analytikere ønsker at finde ud af, hvad den gennemsnitlige afstand er for en tur i San Francisco. De bliver nødt til at søge store dele af data om ture i byen, men at trække denne tråd kunne udsætte masser af information om de enkelte ryttere og bilister. Differential privatliv krypterer de data og tilfører støj, hvilket gør det umuligt at spore tur oplysninger tilbage til en bestemt bruger.

Men nogle forespørgsler, er mere følsomme end andre, og derfor kræver mere støj. “Den gennemsnitlige rejseafstand i en mindre by med langt færre ture er mere påvirket af en enkelt tur, og kan kræve mere støj for at give den samme grad af beskyttelse af privatlivets fred. Differential privatliv definerer den præcise mængde af støj, der kræves i betragtning af den følsomhed,” Katie Tezapsidis, en Uber software ingeniør på personlige holdet, forklarede i et blog-indlæg, der annoncerer ændre.

For at beregne denne følsomhed, Uber indgået et samarbejde med et team af sikkerhed forskere fra University of California, Berkeley. De forskere, der har arbejdet i over et år til at komme op med beregningen teknik, med tilnavnet Elastisk Følsomhed, som Uber frigiver i dag som et open source-værktøj.

Elastisk Følsomhed vil gøre det muligt for analytikere på Uber—og andre steder—til hurtigt at tilpasse differentieret privatliv standarder til en lang række forespørgsler. Tidligere, en analytiker ville have spurgt i en database og derefter forsøgt at luge ud i følsomme eller unødvendige data efter den kendsgerning. Nu, vil data komme ud ren.

“Vores team er meget, meget interesseret i at levere de værktøjer og platforme, så folk kan gøre deres arbejde i fred-passende måde,” Minutillo sagde. Værktøjet vil være i stand til at komme med forslag om, hvor meget støj der bør tilføjes for at bevare privatlivets fred, eller om forespørgslen bør køre på alle. “I de tilfælde, hvor du er berettiget til at bruge—du er nødt til at hente data til analyse—dette er et ekstra lag af beskyttelse,” Minutillo tilføjet. “Vi kan føle os godt tilpas, at analytikeren kan stadig få resultater, der er korrekte, og reducerer risikoen for udskillelse enhver person, som er i det pågældende sæt.”


Date:

by