Apple Appaltatori Pare di Sentirle Informazioni Sensibili e Sexy Volte Grazie a Siri

Illustration for article titled Apple Contractors Reportedly Overhear Sensitive Information and Sexy Times Thanks to Siri Foto: Getty

Prima di Amazon, Google, e ora Apple hanno tutti confermato che i loro dispositivi non sono solo di ascolto, ma del tutto estranei possono essere rivedere le registrazioni. Grazie a Siri, Apple appaltatori rilevare regolarmente intimo frammenti delle vite private come la droga offerte, visite dal medico, e scappatelle sessuali come parte del loro controllo di qualità dei doveri, il Guardian ha riferito venerdì.

Come parte del suo sforzo per migliorare l’assistente vocale, “[a] piccola porzione di Siri richieste vengono analizzate per migliorare Siri e la dettatura,” Apple ha detto al Guardian. Che prevede l’invio di queste registrazioni sans Id Apple per il suo team internazionale di imprenditori al tasso di queste interazioni basate su Siri risposta, tra altri fattori. La società ha inoltre spiegato che queste classificati delle registrazioni, fino a meno di 1 per cento del quotidiano Siri attivazioni e che la maggior parte durano solo pochi secondi.

Che non è il caso, secondo un anonimo Apple contraente il Guardian ha parlato con. L’imprenditore ha spiegato che a causa di queste procedure di controllo di qualità non escludere i casi in cui un utente ha involontariamente innescato Siri, appaltatori finire conversazioni utenti potrebbero non avere mai voluto essere registrati, in primo luogo. Non solo, i dettagli che potrebbero potenzialmente identificare un utente presumibilmente accompagnare la registrazione in modo che gli imprenditori possano verificare se una richiesta è stata gestita con successo.

“Ci sono stati innumerevoli casi di registrazioni con discussioni private tra medici e pazienti, affari, apparentemente penale, rapporti, incontri sessuali e così via. Queste registrazioni sono accompagnati da dati utente mostrando posizione, informazioni di contatto, e i dati delle app”, il denunciante ha detto al Guardian.

Ed è incredibilmente facile da attivare Siri di incidente. La maggior parte qualsiasi cosa che suoni in remoto come “Hey Siri” è probabile che a fare il trucco, come regno UNITO, il Segretario alla Difesa Gavin Williamson scoperto l’anno scorso, quando l’assistente di sottofondo come ha parlato al Parlamento europeo sulla Siria. Il suono di una cerniera può anche essere sufficiente per attivare, secondo l’appaltatore. Hanno detto che di dispositivi Apple, l’Apple Watch e HomePod smart speaker più frequentemente pick up accidentale Siri trigger, e le registrazioni possono durare fino a 30 secondi.

Mentre Apple ha detto al Guardian le informazioni raccolte da Siri non è collegato ad altri dati di Apple di un utente, il contraente ha raccontato una storia diversa:

“Non c’è molto di accertamento di chi vi lavora, e la quantità di dati che siamo liberi di guardare attraverso sembra abbastanza ampio. Non sarebbe difficile identificare la persona che si sta ascoltando, soprattutto accidentale trigger—indirizzi, nomi e così via.”

Il personale è stato detto di riferire queste attivazioni accidentali, come problemi tecnici, il lavoratore ha detto al giornale, ma non c’era una guida su cosa fare se queste registrazioni catturate informazioni riservate.

Tutto questo rende Siri cutesy risposte a domande agli utenti sembrano molto meno innocente, in particolare la sua risposta quando si chiede se è sempre in ascolto: “io ascolto solo quando stai parlando con me.”

Compagni di giganti della tecnologia di Amazon e Google hanno affrontato simili privacy scandali di recente registrazioni dai loro dispositivi. Ma mentre queste aziende hanno dipendenti che controllano ogni rispettivi assistente vocale, gli utenti possono revocare le autorizzazioni per alcuni usi di queste registrazioni. Apple prevede tale opzione nei suoi prodotti.

[The Guardian]

Condividi Questa Storia


Date:

by