Selbstfahrende Autos Können nicht Entscheiden, Wer zu Töten, Aber die Menschen Haben Schon sehr Viel Meinungen

Bild: Seth Wenig (AP)

Die Menschen würden im Allgemeinen lieber zu minimieren, Opfer eines hypothetischen autonome Auto crash wurde gefunden, um wahr zu sein in der Vergangenheit die Forschung, aber was passiert, wenn Menschen vorgestellt werden, die mit komplexen Szenarien? Und was passiert, wenn sich autonome Fahrzeuge muss zwischen zwei Szenarien wählen, in denen mindestens eine Person sterben könnte? Wer könnte bei diesen Fahrzeugen zu speichern, und auf welcher Grundlage stellen Sie diese ethischen Entscheidungen?

Es klingt wie ein Alptraum spin auf “möchten Sie lieber,” aber die Forscher sagen, dass solche Gedanken-Experimente sind notwendig, um die Programmierung Autonomer Fahrzeuge und der Politik, die Regulierung. Was mehr ist, werden die Antworten um diesen schwierigen Ultimaten variieren in den verschiedenen Kulturen, offenbart es gibt keine Universalität, was die Leute glauben, dass Sie moralisch überlegene option.

In einer der größten Studien Ihrer Art, die Forscher des MIT Media Lab und anderen Institutionen vorgestellt Variationen dieses ethische Problem für Millionen von Menschen in zehn Sprachen und in 233 Ländern und Gebieten in einem experiment aufgerufen, die Moral-Maschine, die Ergebnisse wurden in der Fachzeitschrift Nature veröffentlicht diese Woche.

In einer neu gestalteten version des trolley-Problems—ein ethisches Gedankenexperiment, die fragt, ob Sie würde sich für den Tod eines Menschen zu retten, sind mehrere andere—die Forscher bat die Teilnehmer, auf Ihr viral-game-wie Plattform entscheiden zwischen zwei Szenarien, bei denen ein Autonomes Fahrzeug mit einem plötzlichen Bremsversagen. In einem Fall, das Auto wird sich entscheiden, traf Fußgänger vor, es zu vermeiden, zu töten diejenigen, die in dem Fahrzeug; in der anderen, und das Auto Ausweichen in eine Beton-Barriere, töten diejenigen, die in dem Fahrzeug aber verschonen diejenigen, die die Straße überqueren.

Moralische MachineImage: MIT Media Lab

Szenarien enthalten Wahl der einen oder der anderen Gruppe basiert auf Avatare verschiedenen Geschlechts, sozioökonomischen Status (z.B. eine Führungskraft im Vergleich zu einem Obdachlosen), fitness-Level, Alter und anderen Faktoren. Als ein Beispiel wurden die Teilnehmer gefragt, ob Sie würden entscheiden zu ersparen, eine Gruppe von fünf kriminellen oder vier Männer. In einem anderen Beispiel, die beide Gruppen waren vertreten durch einen Mann, der eine Frau und ein junge. Jedoch ein weiteres detail in dem Fall der Fußgänger-Gruppe war, dass Sie “die gesetzestreue, indem man auf das grüne signal,” durchklingen lassen, dass der Fahrer von Auto-Gruppe wurden möglicherweise das Gesetz brechen.

Die Forscher fanden, dass, als ganzes genommen, Ihre Daten zeigten, dass Menschen tendenziell lieber sparsam Leben, junge Menschen und Menschen über die Tiere. Aber die Präferenzen der Teilnehmer abgewichen werden, wenn Ihre Länder und Kulturen berücksichtigt wurden. Zum Beispiel die Befragten in China und Japan waren weniger wahrscheinlich, zu schonen die Jungen über die alten, die, wie die MIT Technology Review erwähnt, kann sein “, weil es eine größere Betonung auf die Achtung der älteren” in Ihren Kulturen. Ein anderes Beispiel hervorgehoben, von dem Magazin war, dass die Befragten in Ländern oder Gebieten “mit einem hohen Maß an wirtschaftlicher Ungleichheit zeigen, größere Lücken zwischen der Behandlung von Personen mit hohen und niedrigen sozialen status.”

Moralische MachineImage: MIT Media Lab

“Leute, die denken über die Maschine Ethik es klingt wie Sie können eine perfekte Regeln für Roboter, und was wir hier zeigen mit den Daten ist, dass es keine universellen Regeln,” Iyad Rahwan, ein Informatiker am Massachusetts Institute of Technology in Cambridge und co-Autor der Studie, sagte in einer Erklärung.

Kritiker haben darauf hingewiesen, dass es wahrscheinlich Entscheidungen, die vor jeder ethischen ultimatum so extrem, wie diejenigen vorgestellt, die in dieser Forschung. Aber wenn alles, was diese Daten auch zeigt, ist, dass es viel zu berücksichtigen, die über die Entscheidungs-Prozesse der künstlichen Intelligenz. Und die Forscher der Studie sagten, Sie hoffen, dass Ihre Ergebnisse ein Sprungbrett für eine differenziertere Diskussion um universal-Maschine Ethik.

“Früher haben wir das trolley-problem, weil es eine sehr gute Möglichkeit, um diese Daten zu sammeln, aber wir hoffen, dass die Diskussion über Ethik bleiben nicht in dieses Thema,” Edmond Awad, ein postdoctoral associate am MIT Media Lab Skalierbare Zusammenarbeit der Gruppe und ein co-Autor der Studie, sagte gegenüber der MIT Technology Review. “Die Diskussion bewegen sollte, um das Risiko-Analyse—darum, wer auf mehr Risiko oder weniger Risiko—anstatt zu sagen, wer sterben wird oder nicht, und auch darüber, wie bias ist passiert.”

[MIT Technology Review, Nature]

Teilen Sie Diese Geschichte


Date:

by