Die Tonic-app verwendet differentielle Privatheit zu liefern kundenspezifische Lesen ohne die Offenlegung Ihrer Daten an Dritte.Foto: Vordach
Diese Tage, die online-Privatsphäre fühlt sich an wie ein unerreichbarer Traum. Alles, was Sie tun, wird Daten für Unternehmen, die verkaufen diese Daten an Tochtergesellschaften, die dann verkauft Ihre Daten zurück zu Ihnen in form von gezielter Werbung und personalisierte Empfehlungen. Das ist nur, wie die Dinge sind. Aber was, wenn es nicht sein?
Letzte Woche traf ich mich mit einem team aus Baldachin, ein tech-startup, das erstellt ein software-developer-kit, das Sie sich erhofft, wird es den Unternehmen ermöglichen, um personalisierte Erfahrungen, ohne Ihre Privatsphäre. Als proof-of-concept, Anfang dieser Woche startete das Unternehmen die erste app, Tonic.
Die Idee hinter Tonic ist nicht gerade neu. Es ist einer dieser kuratiert Leseerfahrungen—Sie bekommen gezeigt, eine Reihe von Artikeln, nehmen Sie die, die Sie mögen, und Sie erhalten am nächsten Tag neues material zu Lesen, basierend auf Ihren Vorlieben. Der wesentliche Unterschied ist, dass Sie nicht haben, um sich für ein Konto oder geben Sie Ihre persönlichen Daten, wie Alter, Geschlecht, E-Mail, Telefonnummer oder Ort. Stattdessen zieht es die Daten in einer Weise, die bestimmt nicht verraten Ihre Privatsphäre, während immer noch so dass in der app intelligente Vorhersagen über Geschichten, die Sie Lesen möchten.
Theoretisch, wenn Kabinenhaube Lizenz seiner software um, sagen wir, Spotify, würde es bedeuten, dass Sie würde immer noch eine ziemlich genaue Entdecken Wöchentliche playlist, aber weder Vordach noch Spotify würde genau wissen, was Sie hören, oder wenn, nach Ansicht der Firma. Das könnte einige erhebliche Auswirkungen, wenn Sie anwenden, die Art von Privatsphäre-Schutz-tech-Standort-Daten, zum Beispiel.
Ist apples Neue Datenschutz-Funktion Sicher?
Heute von Apple angekündigt, eine Reihe von neuen Funktionen für iOS, einschließlich prädiktiver software wie…
Lesen Sie mehr Lesen
Der Schlüssel ist die so genannte differential privacy, ein Rahmen, der hat seine Grundlage in der Mathematik. Es ist ein Weg, zu teilen Informationen über eine Gruppe und deren Verhalten während der Schutz der Privatsphäre der Einzelpersonen innerhalb dieser Gruppe durch Verschleierung der Daten, die macht Ihrer Identität.
“Differential privacy ist ein framework, das Ihnen erlaubt, um Zielkonflikte zwischen Datenschutz und Genauigkeit,” Bennett Cypher, ein Mitarbeiter-technologist bei der Electronic Frontier Foundation, sagte mir über das Telefon. Genauer gesagt, Cypher hat mir gesagt, das Grundprinzip ist, definieren Sie eine Epilson parameter (Mathematik!) das erzeugt Lärm oder Verwirrung zu verdunkeln ein Daten-set. Es ist wie das geben eine grobe Schätzung—Sie erhalten einen Einblick in etwas, aber Sie wissen nicht, die genauen Angaben. Je höher der parameter, desto weniger Rauschen und genauer Ihre Informationen. Ein niedriger parameter bedeutet mehr Lärm und mehr Privatsphäre.
Vor Ihren Augen Kreuz, ein real-life Beispiel Cyphers gab mir ist die Volkszählung. Die Regierung hat eine Menge von aggregierten Daten über seine Bürgerinnen und Bürger—und es wohl auch teilen will demografische Informationen aus, die festlegen, ohne dass etwas über ein bestimmtes Individuum. Lassen Sie uns sagen, Sie Leben in einem kleinen Volkszählung-block mit nur einer oder zwei Personen. Wäre es nicht ein Genie, um herauszufinden, persönliche Informationen über Sie, mit den richtigen Parametern. Differential privacy wäre ein Weg, um zu resümieren, dass Daten ohne jeden einzelnen in Gefahr.
Also, wie wird das übersetzt zu privaten noch personalisierte Erlebnisse online? Canopy head of product, Matthew Ogle, sagte Gizmodo die geheime Zutat ist in Ihrem Handy. Statt der Erstellung einer Verhaltens-Modell von jedem Benutzer auf dem server, wie viele apps tun, Baldachin ist, dass lokal auf Ihrem Telefon. Wenn die app macht einen Antrag Kappe server für content, was es sendet, verschlüsselt ist, differentiell private version von Ihrem Verhalten. Anstatt also ein Modell gebaut, auf Ihre individuellen Präferenzen, Sie sind eine ununterscheidbare Teil der Gesamtheit der Benutzer, die die gleichen Dinge wie Sie tun.
Für die meisten von uns nie brauchen, um sich für einen anderen Dienst, um die Vorteile zu tun, so klingt ideal. Wir tun das jetzt, weil die Vorteile eines persönlich kuratiert Erfahrung scheinen zu überwiegen die Kosten für seine Privatsphäre aufzugeben. Es ist viel einfacher, zu fühlen, die Vorteile einer automatisch generierten playlist als vage Datenschutz-Verletzungen, die Sie vielleicht gar nicht wissen geschehen. Das heißt, es scheint wie ein Kinderspiel, dies zu tun für Sie alles. Also, warum ist dies nicht mehr ein, was?
Ein Grund HIERFÜR ist die differentielle Privatheit hat sich nicht schon so lange. “Es ist eine Art neues”, sagt Cyphers. “Es gibt nicht eine Menge Vereinbarung auf, was ein guter parameter ist—die Menschen sind irgendwie machen es wie Sie gehen. Es ist wichtig für die Unternehmen werden im Voraus mit, welche Parameter Sie benutzen.”
Als Baldachin wird das Tonika-app, die Einsätze niedrig sind. Lektüre-Empfehlungen tragen nicht dasselbe Risiko wie finanzielle Transaktionen oder die Standortdaten, obwohl Baldachin team habe zeigen, dass die Anwendung dieser Art von Daten wurde eine machbare langfristige Ziel, wenn Dinge gut gehen. Dennoch gibt es Grenzen, wie weit differential privacy gehen kann im moment.
“Ein problem ist, um zu bekommen, dass die Abwägung zwischen Privatsphäre und Genauigkeit, für eine Vielzahl von Anwendungen macht es keinen Sinn,” Cyphers sagt. Zu viel Privatsphäre, die Sie haben, um eine Menge Lärm, so wird es Art nutzlos. Es funktioniert nur in sehr spezifischen Anwendungen.”
Für den Anfang, differential privacy ist nicht wie Verschlüsselung, wo man nur Schlag es auf unterschiedlichen Technologien und nennen es einen Tag. Sie können nicht senden Sie eine differentiell private E-Mail. Eine differentiell private Foto Aussehen würde, wie statische. Es funktioniert in Tonic der Fall, weil die tech angewendet wird, um den Akt der Entdeckung.
“Die Privatsphäre und die Genauigkeit Kompromiss ist real”, Baldachin-Gründer und CEO Brian Whitman sagte, über E-Mail. Er erwähnte, dass differential privacy ist nicht gut geeignet, um generalisierte machine learning tasks—denke, die Vorhersage etwas über eine einzigartige person Verhalten—weil die Genauigkeit eine deutliche Treffer. Das heißt, wenn es darum geht zu entdecken, Vorlieben und Einstellungen, nichts hat über das individuelle auf das backend.
“Der Punkt ist, wir versuchen nicht zu lokalisieren eine einzige Sache, über die eine einzelne person”, sagte White. “Das ist immer noch schwer mit differential privacy und federated lernen. Wir verstehen die größeren Populationen und machen einen tollen job davon. Wir hätten nie gebaut Empfehler verstanden, dass Menschen individuell eh.”
Im Grunde, so etwas wie Tonic ist ein baby-Schritt in die richtige Richtung. Differential privacy wurde an anderer Stelle verwendet—Apple, zum Beispiel, sagte, dass es verwendet wird, verbessern Funktionen wie QuickType und Emoji-Vorschläge, sowie einige Safari-Funktionen, und offenbart die Epsilon-Parameter verwendet. (Das heißt, es gibt einige Unstimmigkeiten, wie gut Apple implementiert die Technik, führt wieder auf die Notwendigkeit für Unternehmen, die transparent über Ihre Parameter.) Noch, sogar mit differential-Schutz der Privatsphäre Einschränkungen, angesichts des sich abzeichnenden Möglichkeit der Datenschutz-Gesetzgebung und anspruchsvolle Benutzer, wäre es nicht überraschend, wenn es anfängt zu knallen häufiger in den apps und services, die wir alle benutzen Sie—und das ist wahrscheinlich eine gute Sache.
Teilen Sie Diese Geschichte