Uber Onthult Nieuwe Privacy Tool Die Beschermt Persoonlijke Gegevens

Foto: Getty

Je zou denken van Uber als een ride-afkomstig zijn bedrijf of een rechtszaak geteisterde zelf-rijdende auto ontwikkelaar, maar in zijn kern, Uber is een big data-bedrijf. Het voortdurend crunch coördinaten van gegevens over het verkeer, de betaling informatie en tarieven—en brengen al die gegevens in Uber handen soms maakt het gebruikers nerveus.

Maar nu Uber lanceert een differential privacy tool die het zal gebruiken voor het analyseren van het overgrote opgeslagen gegevens. Differential privacy staat voor analyse van grote data sets zonder het openbaren van de identiteit van iedere individuele inbegrepen in de data, en wordt gebruikt door bedrijven als Apple en Google meer inzicht te verkrijgen van de gegevens van de gebruiker zonder afbreuk te doen aan privacy. Uber nieuwe tool laat de data-analisten weten het waarschijnlijk privacy implicaties van alle query ‘ s die ze maken op Uber gegevens voordat ze ze te maken.

“Werkelijk, het is een manier om een kijkje te nemen op query’ s en bepalen hoe gevoelig de resultaten van die query zonder de query uit te voeren,” Uber-manager van privacy engineering Menotti Minutillo vertelde Gizmodo.

Hier is hoe het werkt: Stel je Uber data analisten wilt om erachter te komen wat de gemiddelde afstand is voor een rit in San Francisco. Ze zullen nodig hebben om query grote delen van gegevens over ritten in de stad, maar het trekken van die draad zou kunnen blootstellen veel informatie over de individuele rijders en stuurprogramma ‘ s. Differential privacy versleutelt de gegevens en injecteert ruis, waardoor het onmogelijk om te traceren informatie over de reis terug naar een bepaalde gebruiker.

Maar sommige query ‘ s zijn gevoeliger dan anderen, en daarom meer ruis. “De gemiddelde reisafstand in een kleinere stad met veel minder trips is meer beïnvloed door een enkele reis en mogelijk meer ruis bieden dezelfde mate van privacy. Differential privacy bepaalt de precieze hoeveelheid geluid nodig gezien de gevoeligheid,” Katie Tezapsidis, een Uber software engineer op de privacy team, uitgelegd in een blog de aankondiging van de verandering.

Om tot de berekening van de gevoeligheid, Uber samen met een team van security-onderzoekers van de Universiteit van Californië, Berkeley. De onderzoekers werkten meer dan een jaar te komen met de berekening techniek, bijgenaamd Elastische Gevoeligheid, die Uber is het vrijgeven van vandaag als een open-source tool.

Elastische Gevoeligheid maakt het mogelijk voor de analisten van Uber—en elders—te snel aan te passen differential privacy normen om een verscheidenheid van query ‘ s. Eerder, een analist zou hebben gevraagd een database en vervolgens geprobeerd om onkruid uit gevoelige of overbodige gegevens na het feit. Nu zullen de gegevens komen schoon.

“Ons team is heel erg geïnteresseerd in het leveren van de tools en platforms, zodat de mensen hun werk kunnen doen in een privacy-passende manier,” Minutillo zei. Het instrument zal in staat zijn om suggesties te doen over hoeveel geluid moet worden toegevoegd voor het behoud van privacy, of de query moet worden uitgevoerd. “In gevallen waar je een legitieme gebruik—moet u gegevens ophalen analyses te maken—dit is een extra laag van bescherming,” Minutillo toegevoegd. “We kunnen het gevoel comfortabel dat kan de analist nog voor resultaten die zijn juist, en verminder het risico op single uit elke persoon die in die set.”


Date:

by