Selvkørende Biler Kan ikke Vælge, Hvem til at Dræbe Endnu, Men Folk, der Allerede Har Masser af Meninger

Billede: Seth Wenig (AP)

At folk ville generelt foretrækker at minimere tab i et hypotetisk autonome bil crash er blevet fundet til at være sandt i tidligere forskning, men hvad sker der, når mennesker er præsenteret med mere komplekse scenarier? Og hvad sker der, når autonome køretøjer skal vælge mellem to scenarier, hvor mindst én person kan dø? Hvem kan disse køretøjer spare, og på hvilket grundlag gør de de etiske domme?

Det kan lyde som en mareridtsagtig spin på “vil du hellere,” men forskerne siger, at en sådan tanke eksperimenter er nødvendige for at programmeringen af autonome køretøjer, og de politikker, der regulerer dem. Hvad mere er, de svar omkring disse vanskelige ultimatums kan variere på tværs af kulturer, afslører der er ingen universalitet i, hvad folk tror på, at være en moralsk overlegen løsning.

I en af de største undersøgelser af sin slags, forskere med MIT ‘ s Media Lab og andre institutioner, der præsenteres variationer af dette etiske gåde, at millioner af mennesker i ti sprog på tværs af 233 lande og territorier, i et eksperiment kaldes Moralske Maskine, hvis resultater blev offentliggjort i tidsskriftet Nature i denne uge.

I en genskabt version af vognen problem—et etisk tanke eksperiment, der spørger, om du vil vælge den død af en person til at spare flere andre—forskerne bad deltagerne om sin virale spil-lignende platform vælge mellem to scenarier, der indebærer et autonomt køretøj med et pludseligt bremsesvigt. I ét tilfælde, bilen vil vælge at ramme fodgængere foran det for at undgå at dræbe dem, i bilen, i den anden bil, vil sno sig i en konkret barriere, dræbe dem med i bilen, men at skåne dem, der krydser gaden.

Moralske MachineImage: MIT Media Lab

Scenarier at vælge den ene eller den anden gruppe, der er baseret på avatarer af forskellige køn, socio-økonomisk status (fx en administrerende versus en hjemløs person), fitness niveauer, aldre, og andre faktorer. Som et eksempel, blev deltagerne spurgt, om de ville vælge at spare en gruppe af fem kriminelle eller fire mænd. I et andet eksempel, begge grupper var repræsenteret ved en mand, en kvinde og en dreng. Men en ekstra detalje i tilfælde af gågaden i gruppen var, at de var “at overholde loven, ved at krydse på den grønne signal,” insinuating, at føreren af bilen, gruppen har været at bryde loven.

Forskerne fandt, at taget som en helhed, er deres data viste, at folk havde en tendens til at foretrække besparende mere liv, unge mennesker, og mennesker i løbet af dyr. Men de præferencer af deltagerne afveg når deres lande og kulturer. For eksempel, at respondenterne i Kina og Japan var mindre tilbøjelige til at skåne de unge i løbet af de gamle, der som MIT Technology Review har bemærket, kan være “på grund af en større vægt på respekt for de ældre” i deres kulturer. Et andet eksempel er fremhævet af bladet var, at respondenterne i de lande eller områder “med en høj grad af økonomisk ulighed viser større forskelle mellem behandlingen af personer med høj og lav social status.”

Moralske MachineImage: MIT Media Lab

“Folk, der tænker på maskine etik gøre det til at lyde som om du kan komme op med et perfekt sæt af regler for robotter, og hvad vi viser her med data er, at der er ingen universelle regler,” Iyad Rahwan, en computer, forsker ved Massachusetts Institute of Technology i Cambridge og en co-forfatter af undersøgelsen, sagde i en erklæring.

Kritikere har påpeget, at der er sandsynlighed for beslutninger, der går forud for enhver etisk ultimatum, som er så ekstreme som dem, der præsenteres i denne forskning. Men hvis der er noget, hvad disse data viser, at der er meget at overveje, om de beslutningsprocesser, der foregår i kunstig intelligens. Og de forskere i undersøgelsen, sagde, at de håber, at resultaterne vil være et springbræt for en mere nuanceret diskussion omkring universelle maskine etik.

“Vi har brugt vognen problem, fordi det er en meget god måde at indsamle disse data, men vi håber, at diskussion af etik ikke kan holde sig inden for dette tema,” Edmond Awad, en postdoc lektor ved MIT Media Lab, er Skalerbar Samarbejde i gruppen og en co-forfatter af undersøgelsen, fortalte MIT Technology Review. “Diskussionen skal bevæge sig til risiko analyse—om, hvem der er på mere risiko eller mindre er risikoen for,—i stedet for at sige hvem der kommer til at dø eller ikke, og også om, hvordan bias er, der sker.”

[MIT Technology Review, Natur]

Dele Denne Historie


Date:

by