Foto: Getty
Zuerst bei Amazon, dann Google und jetzt Apple haben alle bestätigt, dass Ihre Geräte nicht nur Ihnen zuzuhören, sondern wildfremde Menschen kann die überprüfung der Aufnahmen. Dank Siri, Apple Auftragnehmer routinemäßig fangen, intime Ausschnitte von Benutzer ” privaten Leben wie Drogenhandel, Arzt Besuche, und die sexuellen Eskapaden als Bestandteil Ihrer Qualitätssicherungs-Aufgaben, die Guardian berichtet Freitag.
Als Teil seiner Bemühungen um eine Verbesserung der Sprach-Assistenten, “[einem] kleinen Teil von Siri-Anfragen werden analysiert, um zu verbessern, Siri und die Diktierfunktion,” Apple sagte dem Guardian. Das umfasst das senden dieser Aufnahmen sans Apple-IDs zu seinem internationalen team der Auftragnehmer für die Geschwindigkeit, in der diese Interaktionen basierend auf der Siri die Antwort, inmitten von anderen Faktoren. Das Unternehmen erklärte weiter, dass diese graded-Aufnahmen machen weniger als 1 Prozent der täglichen Siri Aktivierungen und, dass die meisten nur ein paar Sekunden dauern.
Das ist nicht der Fall, nach einem anonymen Apple-Auftragnehmer der Guardian Sprach mit. Der Auftragnehmer erklärt, dass, weil diese Qualitätskontrolle nicht herausfiltern von Fällen, in denen ein Benutzer versehentlich ausgelöst Siri, Auftragnehmer am Ende belauscht Gespräche, die der Benutzer möglicherweise nicht immer haben wollte, werden aufgenommen in den ersten Platz. Nicht nur, dass details, die potenziell zu identifizieren, die ein Benutzer angeblich begleiten die Aufnahme, sodass die Auftragnehmer können überprüfen, ob ein request wurde erfolgreich behandelt.
“Es wurden unzählige Instanzen von Aufnahmen mit privaten Gesprächen zwischen ärzten und Patienten, Geschäfte, scheinbar kriminellen Machenschaften, sexuellen Begegnungen, und so weiter. Diese Aufnahmen werden begleitet von user-Daten, die zeigen, Standort, Kontaktdaten und app-Daten,” der Informant sagte dem Guardian.
Und es ist erschreckend einfach zu aktivieren, Siri durch einen Unfall. Die meisten alles, was klingt aus der Ferne wie “Hey Siri” ist wahrscheinlich den trick tun, wie britische Verteidigungsminister Gavin Williamson fand im vergangenen Jahr, als der Assistent geleitet, als er Sprach dem Parlament über Syrien. Der sound des Reißverschlusses, vielleicht sogar genug, um es zu aktivieren, nach der Auftragnehmer. Sie sagte, dass Sie von Apple-Geräten, die Apple Watch und HomePod smart speaker am häufigsten abholen zufälligen Siri löst, und die Aufnahmen können so lange dauern, als 30 Sekunden.
Während Apple sagte dem Guardian die Daten von Siri ist nicht verbunden mit anderen Daten, die Apple möglicherweise auf einen Benutzer, der Auftragnehmer erzählte eine andere Geschichte:
“Es gibt nicht viel geprüft, wer dort arbeitet, und die Menge der Daten, die wir sind frei, um durch zu suchen scheint ziemlich breit. Es wäre nicht schwierig, die person zu identifizieren, die Sie sind zu hören, vor allem mit der zufälligen Trigger—Adressen, Namen und so weiter.”
Mitarbeiter, die erzählt wurden, berichten diese zufälligen Aktivierungen technische Probleme, der Arbeiter sagte zu dem Papier, aber es war keine Anleitung, was zu tun ist, wenn diese Aufnahmen erfasst vertrauliche Informationen.
All dies macht Siri cutesy Antworten auf Nutzer-Fragen scheinen weit weniger unschuldig, besonders Ihre Antwort, wenn Sie Fragen, ob es immer hört: “ich höre nur, wenn Sie mit mir reden.”
Fellow tech-Giganten Amazon und Google haben vor ähnlichen Datenschutz-Skandale vor kurzem über Aufnahmen von Ihren Geräten. Doch während diese Unternehmen haben auch Mitarbeiter, die überwachung jedes der jeweiligen voice assistant können Benutzer revoke-Berechtigungen für einige Verwendungsmöglichkeiten für diese Aufnahmen. Apple bietet keine solche option in seinen Produkten.
[The Guardian]
Teilen Sie Diese Geschichte