Auto-Guida di Auto non Possono Scegliere Chi Uccidere Ancora, Ma Persone che Già Hanno un Sacco di Opinioni

Immagine: Seth Wenig (AP)

Vorrei che la gente si preferisce, in genere, per ridurre al minimo le vittime in un ipotetico autonoma incidente d’auto è stato trovato per essere vero in passato la ricerca, ma cosa succede quando le persone vengono presentati con scenari più complessi? E cosa succede quando, veicoli autonomi deve scegliere tra due scenari in cui almeno un individuo potrebbe morire? Che potrebbe veicoli salvare, e sulla base di cosa fanno quei giudizi etici?

Può sembrare un incubo, spin “piuttosto”, ma i ricercatori dicono che il pensiero esperimenti sono necessari per la programmazione di veicoli autonomi e le norme che li regolano. Cosa c’è di più, le risposte intorno a questi difficili ultimatum possono variare tra culture, rivelando non c’è universalità in quello che la gente crede di essere moralmente superiore opzione.

In uno dei più grandi studi del suo genere, i ricercatori del MIT Media Lab e altre istituzioni hanno presentato le varianti di questo dilemma etico per milioni di persone in dieci lingue in tutta 233 paesi e territori in un esperimento chiamato la Morale della Macchina, i cui risultati sono stati pubblicati sulla rivista Nature di questa settimana.

In un rivisitate in versione trolley problema etico esperimento di pensiero che chiede se si opta per la morte di una persona per salvare altri—i ricercatori hanno chiesto ai partecipanti sul suo virale gioco-come piattaforma di decidere tra due scenari che coinvolgono un veicolo autonomo con un improvviso guasto ai freni. In un caso, l’auto potrà optare per colpire i pedoni davanti per evitare di uccidere quelli del veicolo; in altri, la macchina devierà in una barriera di cemento, uccidendo quelli del veicolo, ma risparmiando quelli che attraversano la strada.

Morale MachineImage: MIT Media Lab

Scenari inclusi la scelta di uno o l’altro gruppo, basato sull’avatar di sesso diverso, socioeconomico stati (ad esempio, un dirigente rispetto ad una persona senza fissa dimora), i livelli di fitness, età e altri fattori. Come un esempio, ai partecipanti è stato chiesto se avevano optare per risparmiare un gruppo di cinque criminali o quattro uomini. In un altro esempio, entrambi i gruppi erano rappresentati da un uomo, una donna e un ragazzo. Tuttavia, un dettaglio aggiuntivo nel caso del pedone gruppo era che essi erano “la legalità attraversando il segnale verde,” stai insinuando che il conducente dell’auto gruppo hanno violato la legge.

I ricercatori hanno scoperto che, presi nel loro complesso, i loro dati hanno mostrato che la gente tende a preferire risparmiando vite in più, i giovani, gli esseri umani e negli animali. Ma le preferenze dei partecipanti deviato quando i loro paesi e le culture sono stati considerati. Per esempio, gli intervistati in Cina e in Giappone sono stati meno probabilità di ricambio, il giovane più vecchio, che come il MIT Technology Review notato, può essere causa di una maggiore enfasi sul rispetto per gli anziani” nelle loro culture. Un altro esempio evidenziato dalla rivista era che gli intervistati in paesi o territori“, con un alto livello di disuguaglianza economica mostrare un maggiore divario tra il trattamento di persone con alta e bassa condizione sociale.”

Morale MachineImage: MIT Media Lab

“Le persone che pensano di macchina etica rendere il suono come si può venire con un perfetto insieme di regole per i robot, e quello che vi mostriamo qui con i dati è che non esistono regole universali,” Iyad Rahwan, un computer scientist presso il Massachusetts Institute of Technology di Cambridge e un co-autore dello studio, ha detto in una dichiarazione.

I critici hanno sottolineato che ci sono probabilmente le decisioni che precedono qualsiasi etica ultimatum così estreme come quelle presentate in questo lavoro di ricerca. Ma se non altro, ciò che questi dati mostrano che c’è molto da prendere in considerazione circa i processi decisionali dell’intelligenza artificiale. E i ricercatori dello studio hanno detto di sperare che i suoi risultati saranno un trampolino di lancio per più sfumata la discussione intorno a una macchina universale etica.

“Abbiamo utilizzato il carrello problema perché è un buon modo per raccogliere questi dati, ma ci auguriamo che la discussione di etica non rimanere all’interno di quel tema,” Edmond Awad, un ricercatore associato presso il MIT Media Lab Scalabile gruppo di Cooperazione e co-autore dello studio, ha detto il MIT Technology Review. “La discussione dovrebbe spostarsi all’analisi del rischio—su chi è più a rischio o meno di rischio invece di dire che sta per morire o meno, e anche su come bias sta accadendo.”

[MIT Technology Review, la Natura]

Condividi Questa Storia


Date:

by