Tonic app bruger differentieret personlige oplysninger til at levere tilpassede læsning uden at udsætte dine data til tredjemand.Foto: Baldakin
Disse dage online privacy føles som en uopnåelig drøm. Alt, hvad du gør, bliver data for virksomheder, der sælger oplysningerne til partnere, der derefter sælger dine data tilbage til dig i form af målrettede annoncer og personlige anbefalinger. Det er bare, hvordan tingene er. Men hvad nu, hvis det ikke behøvede at være?
I sidste uge mødtes jeg med et team fra Baldakin, en tech startup, at der er skabt et software developer kit, som den håber vil gøre det muligt for virksomheder til at skabe personlige oplevelser uden at gå på kompromis med din privacy. Som et proof of concept, tidligere i denne uge, selskabet lancerede sin første app, Tonic.
Ideen bag Tonic er ikke ligefrem ny. Det er en af dem, der er kurateret læsning oplevelser—du får vist en masse af artikler, skal du vælge dem du kan lide, og næste dag får du nye materiale til at læse, baseret på dine præferencer. Den væsentligste forskel er, at du ikke er nødt til at tilmelde dig en konto eller indtaste dine personlige data, som alder, køn, e-mail, telefonnummer eller placering. I stedet trækker data på en måde, der er beregnet til ikke at forråde dine personlige oplysninger, mens det stadig tillader, at appen til at gøre intelligent forudsigelser om historier, du måske ønsker at læse.
Teoretisk set, hvis Baldakin var til licens sin software til at, sige, Spotify, ville det betyde, at du vil stadig få en temmelig præcis Opdage Ugentlige afspilningsliste, men hverken Baldakin eller Spotify vil vide præcis, hvad du lytter til, eller hvor der i henhold til selskab. At kunne have nogle væsentlige konsekvenser, hvis du var til at anvende denne form for privacy-beskyttelse tech til data, for eksempel.
Er Apples Nye Funktion Sikker?
I dag har Apple annonceret en række nye funktioner til iOS, herunder mere intelligent software som…
Læs mere Læs
Det centrale er noget, der hedder differentieret privatlivets fred, en ramme, som har sit grundlag i matematik. Det er en måde at dele oplysninger om en gruppe og dens adfærd, mens beskyttelse af privatlivets fred inden for denne gruppe ved at skjule data, der afslører din identitet.
“Differential privatlivets fred er en ramme, der giver dig mulighed for at lave kompromiser mellem privatliv og nøjagtighed,” Bennett Cypher, et personale-teknolog på Electronic Frontier Foundation, fortalte mig over telefonen. Mere specifikt, Cypher fortalte mig, det grundlæggende princip er, at du definerer en Epilson parameter (matematik!) der genererer støj og forvirring, for at skjule et datasæt. Det er ligesom at give et skud på skøn—du får en følelse af noget, men du ikke kender det nøjagtige oplysninger. Jo højere parameter, mindre støj og mere præcise dine oplysninger. En lavere parameter betyder mere støj og større privatlivets fred.
Før dine øjne kors, et real-life eksempel Newman har givet mig, er tællingen. Regeringen har en masse af de samlede data om borgerne—og det sandsynligvis ønsker at dele demografiske oplysninger fra det pågældende sæt uden at afsløre noget om nogen én bestemt person. Lad os sige, at du bor i en lille folketælling blok med kun én eller to personer. Det ville ikke tage et geni for at finde ud af, personlige oplysninger om dig, givet de rigtige parametre. Differential privatlivets fred ville være en måde at opsummere, at data, uden at nogen enkelte risiko.
Så, hvordan gør at oversætte til privat endnu personaliserede oplevelser online? Canopy er leder af produktet, Matthew Ogle, fortalte Gizmodo den hemmelige sauce er i telefonen. I stedet for at skabe en adfærd, model af den enkelte bruger på en server, som mange apps gøre, Baldakin, der gør, at der lokalt på din telefon. Når app ‘en gør en anmodning fra Canopy’ s server for indhold, hvad det sender en krypteret, differentielt egen version af din adfærd. Så i stedet for en model bygget på dine individuelle præferencer, du er en umulig at skelne en del af et aggregat af brugere, der kan lide de samme ting, som du gør.
For de fleste af os, aldrig at behøve at tilmelde dig for en anden tjeneste til at høste fordelene ved at gøre det lyde perfekt. Vi gør det nu, fordi de frynsegoder af en personligt kurateret erfaring synes at opveje omkostningerne ved at opgive din privacy. Det er meget lettere at føle fordelene ved en automatisk genereret afspilningsliste end vage krænkelser af privatlivets fred, som du måske ikke engang ved er der sker. Som sagt, det synes som en no-brainer at gøre dette for alt. Så hvorfor er det ikke mere af en ting?
En af grundene er differentieret privatliv har ikke eksisteret i så lang tid. “Det er en slags ny,” siger Newman. “Der er ikke en masse af enighed om, hvad en god parameter er—folk der sidder og gør det op, som de går. Det er vigtigt for virksomheder at være upfront med hvilke parametre, de bruger.”
Som for Canopy ‘ s Tonic app, indsatserne er lave. At læse anbefalinger, der ikke bærer den samme risiko som finansielle transaktioner-eller lokaliseringsdata, selvom Baldakin team gjorde tyder på, at anvende det til de typer af data, der var en mulig langsigtet mål, hvis tingene går godt. Stadig, der er begrænsninger for, hvor langt differentieret privatliv kan gå i øjeblikket.
“Et problem er, for at få at afvejningen mellem fortrolighed og præcision, til en masse applikationer, giver det ikke mening,” Newman siger. For at få en masse af privatlivets fred, er du nødt til at tilføje en masse støj, så det bliver en slags ubrugelig. Det virker kun i meget specifikke applikationer.”
For startere, differential privatlivets fred er ikke som kryptering, hvor man bare kan smække det på forskellige teknologier og kalde det en dag. Du kan ikke sende en varierende privat e-mail. Et differentielt privat foto ville se som statisk. Det virker i Tonic ‘ s tilfælde fordi tech er ved at blive anvendt til at handle på opdagelse.
“Privatlivets fred og nøjagtighed afvejningen er reel,” Canopy grundlægger og administrerende DIREKTØR Brian Andersen sagde, via e-mail. Han bemærkede, at mens differentieret privatlivets fred er ikke velegnet til generaliseret machine learning opgaver—tænk at forudsige noget om en unik persons adfærd—fordi nøjagtighed, ville det tage en betydelig hit. Det sagt, når det kommer til at opdage kan lide og præferencer, er der intet om, at der skal være nogenlunde den enkelte på backend.
“Pointen er, at vi ikke forsøger at pege på en enkelt ting, om en enkelt person,” White sagde. “Det er stadig svært med differentieret privatliv og federated læring. Vi er forståelse for større befolkningsgrupper og gør et stort stykke arbejde i det. Vi aldrig skulle have bygget recommenders, der forstod folk individuelt alligevel.”
Dybest set, noget som Tonic er en baby skridt i den rigtige retning. Differential privatlivets fred er blevet brugt andre steder—Apple, for eksempel, sagde, at det bruger det i at forbedre funktioner som QuickType og Emoji forslag, samt nogle Safari funktioner, og videregives Epsilon parametre, der anvendes. (Som sagt, der er noget uenighed om, hvor godt Apple har implementeret tech, der fører tilbage til behovet for, at virksomheder til at være åbne om deres parametre.) Stadig, selv med differentieret personlige begrænsninger, givet den truende mulighed for føderale lovgivning om privatlivets fred og kræsne brugere, det ville ikke være overraskende, hvis det begynder at dukke op oftere i apps og tjenester, vi alle bruger—og det er sikkert en god ting.
Dele Denne Historie