Foto: Getty
Im Laufe der Jahre, tech-Unternehmen gefunden haben, ein bequemer Sündenbock für einige Ihrer auffälligsten Fehler in stimmlosen Teil Ihrer operations—Ihre algorithmen. Aber ein Gesetzentwurf eingebracht am Mittwoch versucht, um effektiv zu verhindern, dass diese automatisierten Systeme eine akzeptable Entschuldigung für bias, unbeabsichtigten oder nicht.
Die Algorithmische Accountability Act, eingeführt von Senator Ron Wyden und Cory Booker sowie Vertreter Yvette D. Clarke, erfordern würde, die Unternehmen zu beurteilen, die Risiken Ihrer algorithmen auf die Verbraucher und sorgen dafür, dass Sie eingesetzt werden, in einer Weise, die nicht führen “ungenau, unfair, voreingenommen oder diskriminierend Entscheidungen mit Auswirkungen auf die Amerikaner”, so eine Pressemitteilung, veröffentlicht von Senator Wyden Büro am Mittwoch.
Die Anforderungen, die detailliert in das Gesetz würde durchgesetzt werden, die von der Federal Trade Commission (FTC) und würde gelten für Unternehmen, die bereits geregelt, die von dieser Agentur und über $50 Millionen pro Jahr, laut Rechnung. Es wäre auch durchsetzbar sein für Unternehmen, die Daten von über 1 million Verbrauchern oder Verbraucher-Geräte, auch wenn Sie nicht über $50 Millionen pro Jahr. Verletzungen behandelt würden, unter der FTC unlautere oder irreführende Handlungen oder Praktiken.
Der Gesetzentwurf definiert eine “automatisierte Entscheidung system” als “ein Computer-Prozess, einschließlich einer, abgeleitet aus dem maschinellen lernen, Statistik oder anderen Daten-Verarbeitung oder-Techniken der künstlichen Intelligenz, macht, dass eine Entscheidung oder erleichtert der menschlichen Entscheidungsfindung, die Auswirkungen der Verbraucher.” Viele massive—tech-Unternehmen-darunter Facebook, Google und Amazon—haben gefördert, Ihre Forschungs-und Förderorganisationen in machine-learning-Systeme, ob es sich dabei um moderate Ihre Plattformen oder entwickeln leistungsfähige überwachungs-tools.
Die Algorithmische Accountability Act zwingen würde, wohlhabenden Unternehmen oder Unternehmen mit einer fülle von consumer-Daten (oder beides)—zu beurteilen, ob die Daten der Fütterung werden diese automatisierten Systeme und die nachfolgenden Entscheidungen, mit diesen Daten dazu neigen bias. Datum, machine-learning-Systeme erwiesen haben, konsequent zu sein fehlerhaft, voreingenommen oder falsche Entscheidungen Schaden oftmals der am stärksten gefährdeten Bevölkerungsgruppen der Verbraucher, wie Frauen und Menschen der Farbe.
Unter dieser Gesetzgebung, Unternehmen, die erforderlich wäre, um das erstellen von Bewertungen auf deren Algorithmische Systeme, die “eine detaillierte Beschreibung des automatisierten Entscheidung system, seine Konstruktion, seine Ausbildung, Daten, und deren Zweck,” nach der Rechnung. Diese Bewertungen umfassen würde, die das system nutzen und Kosten, die mit details auf datenminimierung Praktiken, wie lange Daten und Entscheidungen gespeichert sind, welche Art von Informationen ist für die Verbraucher, wenn Sie in der Lage sind, zu beheben oder Rechtsmittel der Entscheidungen, und wer letztlich diese Entscheidungen sind geschickt zu werden. Sie würden auch die potentiellen Gefahren, die das system, und wie Sie planen, um Sie zu minimieren.
Algorithmen haben Neigungen zum großen Teil, weil die Menschen Sie erschaffen haben Vorurteile. Diese Vorurteile sind auch abhängig von den Datensätzen sind diese Maschinen ausgebildet, auf (die, erneut, gewählt durch den Menschen). Ethik in der Maschine lernen ist immer noch eine relativ neue Kreuzung des Denkens, und diese Rechnung scheint abzielt, zwingt Unternehmen zu denken über die Art, wie Ihre algorithmen funktionieren, die Sie beschädigen könnten oder zu entrechten, und wie sind Sie aktiv in Richtung auf mehr fair, korrekt und einfach Systeme. Was die Rechnung nicht angeben, ist die checks and balances ” für die Ansprüche, die in diesen berichten.
Die Algorithmische Raum, vor allem einige beunruhigende Aspekte, wie die Gesichtserkennung, bleibt weitgehend gesetzlosen in seinem aktuellen Zustand, so Recht wie diesem nur dient der Schaffung von mehr Rechenschaftspflicht und Transparenz. Aber es ist immer noch eine ziemlich Breite Gesetzentwurf für ein Problem, das hat eine Menge Nuancen, und es ist alles, aber sicher sein, dass die Unternehmen dann immer noch herauszufinden, Möglichkeiten, sich zu entziehen Rechenschaftspflicht, indem Sie weiterhin die Schuld der Maschinen.
Einfach zwingen die Unternehmen zu zeigen, mehr Transparenz, ohne einen sehr klaren plan, wie Aufsichtsbehörden Flagge und befassen sich mit roten Fahnen nicht vollständig lösen das Problem der diskriminierenden systems. Und wir wahrscheinlich sollte nicht erwarten, dass ein Stück der Gesetzgebung zu tun, dass an diesem Punkt. Die Rechnung hat erstellen Sie ein paper trail auf den angegebenen Zweck und die Gestaltung dieser Systeme, sondern darüber hinaus, es ist immer noch ziemlich vage, wie die Agentur werden insbesondere die Probleme zu identifizieren.
[Senator Ron Wyden]
Teilen Sie Diese Geschichte