Zelf-rijdende Auto ‘ s Kan niet Kiezen Wie te Doden, Maar de Mensen Hebben Al heel Veel Meningen

Afbeelding: Seth Wenig (AP)

Dat mensen over het algemeen de voorkeur om het minimaliseren van slachtoffers in een hypothetische autonome auto-ongeluk heeft gevonden om waar te zijn in het onderzoek uit het verleden, maar wat er gebeurt als de mensen worden gepresenteerd met meer complexe scenario ‘ s? En wat gebeurt er als autonome voertuigen moeten kiezen tussen twee scenario ‘ s waarin minstens één persoon kon sterven? Wie zou deze voertuigen opslaan, en op welke basis maken ze deze ethische oordelen?

Het klinkt als een nachtmerrie-achtige draai aan “zou je liever,” maar de onderzoekers zeggen dat deze gedachte-experimenten zijn nodig om de programmering voor autonome voertuigen en het beleid dat regelen. Wat meer is, de reacties rond deze moeilijke ultimatums kan verschillen in verschillende culturen, onthullende er is geen universaliteit in wat mensen geloven dat een moreel superieure optie.

In één van de grootste studie van zijn soort, onderzoekers van MIT ‘ s Media Lab en andere instellingen gepresenteerd variaties van dit ethische probleem voor miljoenen mensen in tien talen over 233 landen en gebieden in een experiment genaamd de Morele Machine, waarvan de resultaten werden gepubliceerd in het tijdschrift Nature van deze week.

In een vernieuwde versie van het trolley problem—een ethische gedachte-experiment waarin u wordt gevraagd of u zou kiezen voor de dood van een persoon op te slaan een aantal anderen—de onderzoekers vroegen de deelnemers op de viral game-achtig platform kiezen tussen twee scenario ‘ s waarbij sprake is van een autonoom voertuig met een plotselinge rem mislukking. In één exemplaar, de auto zal kiezen te raken voetgangers aan de voorzijde van het voorkomen van het doden van die in het voertuig; in de andere, de auto zal uitwijken naar een betonnen barrière, het doden van mensen in de auto, maar sparen die het oversteken van de straat.

Morele MachineImage: MIT Media Lab

Scenario ‘ s opgenomen te kiezen voor een groep of een andere gebaseerd op avatars van verschillend geslacht, sociaal-economische status (bijv. een executive ten opzichte van een dakloze persoon), fitness niveaus, leeftijden en andere factoren. Als voorbeeld werden de deelnemers gevraagd of zij zou kiezen om te sparen op een groep van vijf criminelen of vier mannen. In een ander voorbeeld, beide groepen waren vertegenwoordigd door een man, een vrouw en een jongen. Echter, een extra detail in het geval van de voetgangerszone van de groep was, dat ze “het naleven van de wet door het oversteken op het groene signaal,” om daarmee aan te geven dat de bestuurder van de auto groep kan zijn het breken van de wet.

De onderzoekers vonden dat over het geheel genomen hun gegevens bleek dat mensen hebben de neiging om liever sparen meer mensen, jonge mensen, en de mens over de dieren. Maar de voorkeuren van de deelnemers afgeweken wanneer hun landen en culturen werden beschouwd. Bijvoorbeeld, de respondenten in China en Japan werden minder kans op het ontzien van de jonge over de oude, die als de MIT Technology Review opgemerkt, kan worden “door een grotere nadruk op respect voor de ouderen” in hun culturen. Een ander voorbeeld is gemarkeerd door het tijdschrift was dat de respondenten in landen of regio ‘ s met een hoge mate van economische ongelijkheid vertonen een grotere kloof tussen de behandeling van personen met een hoge en een lage sociale status.”

Morele MachineImage: MIT Media Lab

“Mensen die denken over de machine van de ethiek het geluid zoals je kunt komen met een perfecte set van regels voor robots, en wat we hier te zien met data is dat er geen universele regels,” Iyad Rahwan, een computer wetenschapper aan het Massachusetts Institute of Technology in Cambridge en co-auteur van de studie, zei in een verklaring.

Critici hebben erop gewezen dat er waarschijnlijk beslissingen die voorafgaan aan een ethische ultimatum zo extreem is als degenen die in dit onderzoek. Maar als er iets is wat dit toont is dat er veel te overwegen over de besluitvorming van de kunstmatige intelligentie. En de onderzoekers van de studie zei ze hopen dat de bevindingen zal een springplank voor een meer genuanceerde discussie rond universele machine ethiek.

“We hebben de trolley probleem want het is een heel goede manier voor het verzamelen van deze gegevens, maar we hopen dat de discussie van ethiek niet binnen dit thema,” Edmond Awad, een postdoctoraal medewerker aan het MIT Media Lab Schaalbare Samenwerking group en co-auteur van het onderzoek, vertelde de MIT Technology Review. “De discussie moet gaan om risico analyse—over wie lopen meer risico of minder risico’ s—in plaats van te zeggen wie er gaat sterven of niet, en ook over hoe bias is gebeurt.”

[MIT Technology Review, Natuur]

Deel Dit Verhaal


Date:

by