Pourquoi Facebook les Algorithmes de Garder la Complicité de Racisme?

24

Mark Zuckerberg (Getty)

Appeler algorithmique de l’ignorance. Ou peut-être, algorithmique de l’idiotie. Jeudi, Pro Publica découvert que Facebook annonce du système de ciblage, les groupes d’utilisateurs ainsi basées sur des données de profil, offert à vendre annonces de ciblage démographique de Facebook les utilisateurs que l’auto-évaluation en tant que “Juif Haineux.”

“Juif Haters” commencé une tendance sur Twitter quand la pièce est allé virale, et le vendredi Facebook a annoncé qu’il avait retiré de “Juif Rageux” et d’autres de même rang des groupes à partir de son service de publicité, offrant un prévisible antalgique des excuses et des explications.

Comme Facebook, explique, les catégories sont algorithmiquement déterminée sur la base de ce que les utilisateurs eux-mêmes mis en de l’Employé et de l’Éducation des fentes. Assez de gens avaient inscrit sur leur activité racistes de la bile comme “Juif Haineux,” leur employeur comme “Juif Tuer Magazine Hebdomadaire,” ou leur domaine d’étude comme “Trio Viol” que Facebook de l’algorithme, édenté de par leur conception, les a rassemblées dans le ciblage des catégories.

Facebook la réponse est répétitif, en soulignant que les utilisateurs eux-mêmes auto-rapporté les données et Facebook supprimé les catégories dès qu’il a connaissance. Mais prétendre l’ignorance de ses propres algorithmes permet à Facebook tergiverser plus évident questions: Que veut-il nous dire sur Facebook que les Nazis avaient peut être fier de s’auto-identifier sur leur plate-forme? Pourquoi ne peut-Facebook, les algorithmes de déterminer que des mots comme “viol”, “chienne” ou “tuer” ne sont pas valides professionnelle? Facebook affirme que son IA peut détecter les discours de haine auprès des utilisateurs—pourquoi donc, apparemment, n’Facebook choisir de ne pas pointer son IA à l’annonce de l’utilitaire?

Malgré un utilisateur de la base de deux milliards de personnes, Facebook comme une entreprise a très peu de visages humains. Il y a COO Sandberg, chef de la direction Zuckerberg, et quelques autres. Alors, quand une entreprise de cette taille—un cela dépend de l’automatisation fait comme une erreur, comme l’incorporation de l’antisémitisme au sein de son chiffre d’affaires régimes, il n’y a personne à blâmer. Même l’excuse est non-crédité, sans contact humain, de la liste, enregistrer pour le nameless press@fb.com passe-partout.

Zuckerberg et ses cohortes fait algorithmique de prise de décision au cœur de son annonce de ciblage système de revenus, puis enseveli ces systèmes dans une boîte noire. Et comme Facebook de l’utilisateur de base a grandi, ses points mort.

L’année dernière, les avocats ont déposé un recours collectif contre Facebook sur les préoccupations que ses ad-ciblage régime violé la Loi sur les Droits civiques. En plus d’auto-évaluation, le ciblage publicitaire, Facebook a également compilé les données de placer les utilisateurs dans des catégories qu’ils peuvent même ne pas être conscients de. En octobre, Pro Publica a révélé que, sur la base de données comme un ami des groupes, de l’emplacement, aime, etc., Facebook mettre les utilisateurs dans des catégories analogues de la race, appelée une “affinité ethnique.”

Les annonceurs pourraient ensuite l’une des cibles ou d’exclure des utilisateurs en fonction de leur affinité, un grave sujet de préoccupation dans un pays hors-la-loi qui empêchait les personnes de logement et d’emploi fondée sur la race. Facebook a terminé son “affinité ethnique” ciblage après le retour de bâton. À la différence avec le “Juif Haineux de” débâcle, où Facebook a dit qu’il ne savait pas ce que ses algorithmes ont été faites, ici Facebook affirmé qu’il ne pouvait pas prévoir l’impact disproportionné de ses algorithmes. Appel algorithmique de l’idiotie.

Pourquoi Facebook les algorithmes de garder la complicité de racisme? Le plus spécifique de la réponse est cachée à l’intérieur de Facebook de la boîte noire, mais l’ensemble de la réponse peut-être: Il est rentable. Chaque Facebook de l’utilisateur est une source potentielle de revenus pour l’entreprise. Et plus ils utilisent le site, les annonces elles engagent le plus de contenu partageable qu’ils produisent, et les plus de l’utilisateur des renseignements qu’ils peuvent générer pour Facebook. Lorsque les utilisateurs se révéler comme raciste, anti-sémite, et ainsi de suite, quelle obligation n’Facebook retirer ou de contrecarrer sa propre structure de revenus? N’retrait ou de censure des utilisateurs qui violent leurs droits du premier amendement?

Dans l’original de Pro Publica rapport et le suivi de l’Ardoise, les chercheurs ont appelé à une base de données publique de Facebook annonce-ciblage de catégories et plus largement, de l’automatisation de pousser l’ensemble de la société. À ce stade, Facebook ne peut plus nier le mal besoin d’une éthique et moraliste de la boussole quelque part à l’intérieur de ses affaires de la publicité; la société d’algorithmes et de son caractère raciste et anti-sémite, les controverses sont liés. Il est temps pour un énorme changement de paradigme vers la responsabilisation, à l’air libre, et pas un autre tiède demi-étape à partir de Facebook dans le confort de sa boîte noire.