Bygge moralske maskiner: hvem vil være ansvarlig for etik af selvkørende biler?

Du bevæger dig langs motorvejen, da der pludselig på en trafikeret vej kører. Omkring dig til at flytte biler, og du har et split sekund til at træffe en beslutning: prøv at undgå, at den person, og skaber risiko for en ulykke? For at fortsætte i håb om, at han vil have tid? Langsom? Hvordan vil du vurdere chancerne, hvis du er i bagsædet er fastspændt i et barn? På mange måder, dette er en klassisk “moralsk dilemma,” vognen problem. Hun har en million forskellige muligheder, som kan registrere et menneske fordomme, men essensen er den samme.

Du er i en situation, hvor det er et spørgsmål om liv og død, simpelt valg og din beslutning, i virkeligheden, vil afgøre, hvem der lever og hvem der dør.

Det dilemma, for vogn og kunstig intelligens

Det nye MIT arbejde blev offentliggjort i sidste uge i tidsskriftet Nature, forsøger at komme op med en fungerende løsning til vognen problem, der involverer millioner af frivillige. Forsøget begyndte i 2014 og var ganske vellykket, der modtager mere end 40 millioner svar fra 233 lande, hvilket gør det til et af de største udført etiske forskning.

Folk kan træffe disse beslutninger ubevidst. Det er svært at afveje etiske og moralske baggrunden, når din bil racing ned af vejen. Men i vores verden, beslutninger har en tendens til at være lavet af algoritmer, og computere kan reagere hurtigere, end vi er.

Hypotetisk situation med selvkørende biler er ikke kun moralsk afgørelse, som træffes af de algoritmer. Medicinsk algoritmer vil vælge en person til at modtage behandling med begrænsede ressourcer. Automatiseret droner, vil være at vælge, hvor meget “collateral damage” acceptabelt i nogle militær konflikt.

Ikke alle moralske principper er lige

At “løse” problemet med bagagevogne er så forskellige som problemer i sig selv. Hvordan maskiner vil træffe moralske beslutninger, når grundlaget for moral er ikke universelt accepteret og kan ikke have løsninger? Der er at afgøre, rigtigt eller forkert algoritme?

Den crowdsourcing tilgang af forskere af den Moralske Maskine, ganske pragmatisk. I sidste ende, at få offentligheden til at acceptere selvkørende biler, skal acceptere den moralske Fundament bag deres beslutninger. Ville det ikke være meget godt, hvis etikere eller advokater, der vil komme til den beslutning, som ikke ville være acceptabelt eller uacceptabelt for almindelige bilister.

Resultaterne føre til besynderlige konklusion, at den moralske prioriteter (og derfor algoritmisk beslutninger, der kan træffes af mennesker) afhænger af, hvilken del af verden du er.

Først og fremmest, forskere erkender, at det er umuligt at vide, frekvens eller arten af disse situationer i det virkelige liv. Ulykken folk ofte ikke kan fortælle, hvad der præcist skete, og den vifte af mulige situationer til hinder for let klassificering. Derfor, for at problemet blev muligt at spore, er det nødt til at blive brudt i forenklede scenarier, for at søge efter universelle moralske regler og principper.

Når du passerer den undersøgelse, du bliver bedt om tretten spørgsmål, der kræver et simpelt valg: Ja eller nej, der forsøger at indkredse svar til ni faktorer.

Skal bilen rulle ind i den anden vognbane eller til at fortsætte? Har du spare unge mennesker, ikke for gammel? Kvinder eller mænd? Dyr eller mennesker? Bør du forsøge at redde så mange liv, eller et barn der er “værd” to af de ældre? For at redde passagererne i bilen og ikke fodgængere? Dem, der er at krydse vejen, ved ikke at følge reglerne, eller at disse regler? Hvis du har brug for til at redde de mennesker, der er mere fysisk stærk? Hvad med folk med en højere social status, såsom læger eller forretningsmænd?

I denne barske hypotetisk verden, nogen skal dø, og du vil besvare hvert af disse spørgsmål — med varierende grader af entusiasme. Men vedtagelsen af disse løsninger viser også, at de dybt forankrede kulturelle normer og fordomme.

Forarbejdning et enormt datasæt fås ved at forskere i undersøgelsen, giver universelle regler, og også en nysgerrig undtagelse. De tre mest fremherskende faktor, i gennemsnit over hele befolkningen, blev udtrykt i det faktum, at alle foretrak at redde flere liv, snarere end færre mennesker, ikke dyr, og ung, ikke for gammel.

Regionale forskelle

Du kan blive enige med disse punkter, men jo mere du tænker på dem, jo mere foruroligende er den moralske indsigt. Flere af de adspurgte valgte kriminelle i stedet for en kat, men i Almindelighed har valgt at gemme den hund, ikke de kriminelle. Det globale gennemsnit er anslået til at være gammel højere end det at være hjemløs, men de hjemløse var at spare mindre end fedt.

Og disse regler blev ikke universel: respondenter fra Frankrig, ENGLAND og USA gav fortrinsret til de unge, der henviser til, at respondenterne fra Kina og Taiwan flere reddet ældre. Respondenterne fra Japan foretrukne for at gemme fodgængere, ikke passagerer, og i Kina foretrækker passagerer til fodgængere.

Forskerne fandt ud af, at du kan gruppere svarene fra land til land i tre kategorier: “Vest”, primært i Nordamerika og Europa, hvor moral er primært baseret på den Kristne doktrin; “Øst” — Japan, Taiwan, mellemøsten, domineret af Konfucianismen og Islam; “Sydlige” lande, herunder i Central-og Sydamerika, sammen med stærk fransk kulturelle indflydelse. I den sydlige segment en stærkere præference for at donere til kvinder end noget andet sted. I den Østlige del af større tendens til frelse for de unge.

Filtrering på forskellige attributter for Respondenten giver dig en endeløs række interessante muligheder. “Meget religiøse” respondenter med meget lidt tilbøjelige til at foretrække den frelse af dyret, men både religiøse og ikke-religiøse respondenterne gav udtryk for en nogenlunde lige stor præference til frelse for mænd med høj social status (selvom man kan sige, at det er i strid med visse religiøse doktriner). Mænd og kvinder foretrækker at gemme kvinder, men mænd er stadig mindre tilbøjelige til dette.

Ubesvarede spørgsmål

Ingen hævder, at denne undersøgelse på en eller anden måde, “løser” alle disse tungtvejende etiske spørgsmål. Undersøgelsen forfatterne bemærkede, at crowdsourcing online-alle data er partiske. Men selv med en stor stikprøve antallet af spørgsmål var begrænset. Hvad ville der ske, hvis de risici, vil variere afhængigt af din beslutning? Hvad hvis den algoritme, der kan beregne, at du kun havde en 50% chance for at dræbe fodgængere, i betragtning af den hastighed, som du skulle flytte?

Edmond Awad, en af undersøgelsens forfattere udtryk for forsigtighed mod over-fortolkning af resultaterne. Den debat, efter hans mening, bør strømmen gennem en risikoanalyse — der er mere eller mindre udsat for risiko — i stedet for at skulle beslutte, hvem der dør og hvem der ikke gør.

Men det vigtigste resultat af undersøgelsen var, at den diskussion, der er rasende på sin jord. Som algoritmer begynder at tage flere vigtige beslutninger, der berører menneskers liv, er det vigtigt at have en konstant diskussion af etik i AI. Design af “kunstig samvittighed” bør omfatte alles mening. Selv om svarene er ikke altid let at finde, det er bedre at forsøge at danne en moralsk ramme for algoritmer, så de algoritmer til selvstændigt at skabe en verden uden for menneskelig kontrol.

Enig? Fortæl os i vores chat i Telegrammet.


Date:

by