Foto: Getty
Seit Jahren ein team auf Amazon berichten zufolge arbeitete an software, die zunächst die Lebensläufe der Bewerber in eine Anstrengung, um die Oberfläche, die am ehesten anstellt. Es wurde allmählich klar, dass, egal wie hart die Ingenieure versucht, es zu beheben, die die Einstellung Motor einen Weg gefunden, die Frauen diskriminieren, berichtet die Nachrichtenagentur Reuters.
Am Mittwoch, dem outlet zitiert fünf Quellen vertraut mit der automatisierten Lebenslauf abgeben-Programm, das begann im Jahr 2014. Nach diesen Quellen, ein team, bestehend aus rund ein Dutzend Ingenieure wurde beauftragt, mit der Erstellung eines Programms, das nutzen würden maschinellen Lernens zu überprüfen, den Wert eines Jahrzehnts der eingereichten Zusammenfassungen zu Amazon und dessen anschließende Vermietung Praktiken. Das Ziel war es, zu lehren, eine KI, wie zu identifizieren, die am ehesten Neueinstellungen zu straffen, die Liste der potenziellen Rekruten, die müssten nachträglich geprüft durch menschliche Recruiter. Von Reuters:
Im Effekt, Amazons system lehrte selbst, dass männliche Kandidaten waren vorzuziehen. Es bestraft Lebensläufe, die enthalten das Wort “Frauen”, wie in “women’ s chess club captain.” Und es herabgestuft Absolventen der beiden Frauen-colleges, nach Menschen vertraut mit der Materie. Sie nicht angeben, den Namen der Schulen.
Amazon bearbeitet die Programme, um Sie neutral zu diesen besonderen Bedingungen. Aber das war keine Garantie dafür, dass die Maschinen würden nicht ersinnen andere Möglichkeiten der Sortierung der Kandidaten, die beweisen konnten, diskriminierend, die Leute sagten.
Gizmodo erreicht Amazon für einen Kommentar auf den Bericht und Fragen, ob das tool jemals in seiner eigenen Einstellung, aber wir haben nicht erhalten eine sofortige Antwort. Reuters’ Quellen behauptet, dass die Arbeitsagenturen bei Amazon haben sich Empfehlungen gekennzeichnet, die durch das system aber nicht verlassen sich auf Ihre Platzierungen.
Der Algorithmus gender-Diskriminierung zeigte sich nach etwa einem Jahr der Projekt-Lebenszyklus, und es wurde schließlich aufgegeben, im vergangenen Jahr, so der Bericht. Es scheint einer der Hauptgründe für die Probleme war das dataset, die Amazon hatte, mit zu arbeiten. Die meisten Bewerbungen eingereicht, die das Unternehmen in den letzten zehn Jahren kamen von Männern, und der tech-Sektor wurde von Männern kontrolliert, die aus seinen frühesten Tagen.
Ein weiteres Problem, zitiert in dem Bericht wurde der Algorithmus bevorzugt für die Sprache, die oft durch männliche Bewerber. Häufige Wörter und Sätze, die wie eine Kompetenz in einem bestimmten Programmiersprache würde ignoriert werden und Verben wie “hinrichten” und “eingefangen” wurden, mehr Gewicht verliehen.
Nach 500 Iterationen, die jeweils ausgebildet, um zu verstehen, 50,000 eindeutige Begriffe, die Mannschaft konnte einfach nicht bekommen, das Werkzeug zu beenden zurücksetzen auf die diskriminierenden Praktiken, berichtet Reuters. Wie die Zeit ging auf, die Modelle oft schraubte in der Empfehlung unqualifizierten Bewerbern nach dem Zufallsprinzip.
Das team der Aufwand unterstreicht die Einschränkungen von algorithmen sowie die Schwierigkeit der Automatisierung der Praktiken in einer sich wandelnden Welt. Mehr Frauen schließen sich dem tech-Sektor und alle großen tech-Giganten haben diversity-Initiativen in der einen oder anderen form. Aber Veränderung ist schmerzhaft langsam. Maschinen, die einfach das tun, was wir Ihnen sagen, zu tun. Wenn eine Maschine, lernt aus dem Beispiel und wir können nur ein sexistisches Beispiel, wir bekommen sexistische Ergebnisse.
Laut Reuters, ein neues team wurde zusammengestellt, bei Amazon ist Edinburgh engineering hub, einen weiteren Riss an den “Heiligen Gral” der Einstellung.
[Reuters]
Teilen Sie Diese Geschichte