Selvkjørende Biler Kan ikke Velge Hvem de skal Drepe Ennå, Men Folk som Allerede Har Mange Meninger

Bilde: Seth Wenig (AP)

At folk ville vanligvis foretrekker å minimere tap i en hypotetisk autonome bilulykke har blitt funnet til å være sant i tidligere forskning, men hva skjer når folk er presentert med mer komplekse scenarier? Og hva skjer når autonome kjøretøy må velge mellom to scenarier der minst en person kan dø? Som kanskje de kjøretøy spare, og på hvilket grunnlag gjør de de etiske vurderinger?

Det kan høres ut som en marerittaktig spinn på “ville du heller,” men forskere sier at en slik tanke-eksperimenter er nødvendig for å programmering for autonome kjøretøy og retningslinjer som regulerer dem. Hva er mer, tiltak rundt disse vanskelige ultimatums kan variere på tvers av kulturer, å avsløre det er ingen universalitet i hva folk mener er moralsk overlegen alternativ.

I en av de største studier av sitt slag, forskere med MIT ‘ s Media Lab og andre institusjoner presentert varianter av denne etiske conundrum til millioner av mennesker i ti språk på tvers av 233 land og territorier i et eksperiment kalt Moralske Maskin, de funn som ble publisert i tidsskriftet Nature denne uken.

I en spesialtilpasset versjon av vogn problem—en etisk tanke eksperiment som spør om du vil melde deg på døden av en person til å lagre flere andre—forskerne ba deltakerne på sin viral spillet-som plattform velge mellom to scenarier som involverer et autonomt kjøretøy med en brå brems feil. I ett tilfelle, bilen vil velge å treffe fotgjengere foran den for å unngå å drepe dem i bilen; i den andre bilen skal svinge til en konkret barriere, er å drepe de som er i bilen, men sparsom de krysser gaten.

Moralsk MachineImage: MIT Media Lab

Scenarier, inkludert å velge en gruppe eller en annen basert på avatarer av forskjellige kjønn, sosioøkonomisk status (f.eks. en executive versus en hjemløs person), egnethet nivåer, alder og andre faktorer. Som et eksempel, ble deltakerne spurt om de vil velge å spare til en gruppe på fem kriminelle eller fire menn. I et annet eksempel, begge grupper var representert av en mann, en kvinne og en gutt. Imidlertid, en ekstra detalj i tilfelle av fotgjenger-gruppen var at de var “å følge loven ved å krysse på grønt signal,” insinuerer at føreren av bil gruppe kan ha vært å bryte loven.

Forskerne fant at det tas som en helhet, sine data viste at folk hadde en tendens til å foretrekke å avse mer liv, unge mennesker, og mennesker over dyr. Men valg av deltakere på avveier når sine land og kulturer ble vurdert. For eksempel, er svarte i Kina og Japan hadde mindre sannsynlighet for å spare unge over den gamle, som MIT Technology Review nevnt, kan være “på grunn av en større vekt på å respektere de eldre” i sine kulturer. Et annet eksempel fremhevet av magasinet var at respondentene i land eller territorier “med et høyt nivå av økonomisk ulikhet vis større gap mellom behandling av personer med høy og lav sosial status.”

Moralsk MachineImage: MIT Media Lab

“Folk som tenke på maskinen etikk gjøre det høres ut som du kan komme opp med et perfekt sett av regler for roboter, og hva vi viser her med data, er at det er ingen universelle regler,” Iyad Rahwan, en forsker ved Massachusetts Institute of Technology i Cambridge og medforfatter av studien, sa i en uttalelse.

Kritikere har påpekt at det er sannsynlig at avgjørelser som er forut for eventuelle etiske ultimatum så ekstreme som de som er presentert i denne forskningen. Men hvis noe, er hva disse dataene viser at det er mye å vurdere om beslutningsprosesser av kunstig intelligens. Og forskerne i studien sa de håper funnene vil være et springbrett for en mer nyansert diskusjon rundt universelle maskin etikk.

“Vi brukt vogn problem fordi det er en veldig god måte å samle inn disse dataene, men vi håper diskusjonen om etikk ikke holde seg innenfor det temaet,” Edmond Awad, en postdoctoral førsteamanuensis ved MIT Media Lab er Skalerbar Samarbeid gruppe og medforfatter av studien, fortalte MIT Technology Review. “Diskusjonen bør flytte til risikoanalyse—om hvem som er på mer risiko eller mindre risiko—i stedet for å si hvem som kommer til å dø eller ikke, og også om hvordan bias som skjer.”

[MIT Technology Review, Natur]

Deler Denne Historien


Date:

by