Forskaren Alan Winfield, Professor i robotice av University of the West of England, Bristol, och Mariana Jirotka, Professor i human-centered programmering, University of Oxford, tror att robotar ska vara utrustade med så kallad “etisk svarta lådor.” Det skulle vara detsamma som att de anordningar som används för luftfart för att bestämma alla konsekventa orsaken, tvingar piloterna att vidta vissa åtgärder i händelse av nödsituation, så att utredarna att följa dessa åtgärder och ta reda på orsakerna till katastrofen.
Som robotar alltmer lämnar fabriker och laboratorier och är alltmer börjar interagera med människor, och vikten av ökad säkerhet för åtgärder i detta fall kan motiveras.
Wingfield och Jirotka tror att företag som tillverkar robotar, måste ta till exempel föreslagits av flygindustrin, som fått sin säkerhet inte bara teknik och tillförlitlig Montering, men också strikt följsamhet till säkerhet protokoll, samt allvarliga nivåer för utredning av olyckor. Detta särskilt industrin föreslog svarta lådor och cockpit, utrustad med inspelningsutrustning, som i händelse av tillbud tillåter människor som studie plan kraschar, för att hitta den verkliga orsaken till dessa händelser och tillämpa viktiga lärdomar för att förbättra säkerheten och förhindra liknande händelser i framtiden.
“Allvarliga fall som kräver seriös undersökning. Men vad kommer du göra om utredaren finner att det vid tiden för incidenten med roboten är ingen intern dokumentation av händelser var inte genomförs? I detta fall, att säga vad som egentligen hade hänt, skulle vara praktiskt taget omöjligt,” kommenterade Winfield till the Guardian.
Används i samband med robotteknik, etiska svarta lådor kommer att registrera alla beslut, den kedja av orsakssamband av dessa beslut, i alla rörelser och sensor data ditt fordon. Förekomsten av en svart låda med inspelad information kommer också att hjälpa roboten i förklaringen av sina insatser till det språket av användare-personer kommer att kunna förstå att de bara är starkare kommer att stärka graden av interaktion mellan människa och maskin och kommer att förbättra användarupplevelsen.
Wingfield och Jirotka inte den enda experten i fråga om etiska frågor kring artificiell intelligens (AI). Missy Cummings, en specialist i obemannade fordon och Chef för Laboratoriet för undersökning av mänsklig interaktion och automationssystem vid Duke University i North Carolina (USA), sade i Mars en intervju med BBC att tillsyn AI är en av de viktigaste problem som hittills har inga lösningar hittas.
“Hittills har vi härstammar tydliga instruktioner. Och utan införandet av standarder i branschen för utveckling och tester av sådana system kommer att bli svårt att få dessa tekniker på en bred nivå”, säger Cummings.
I September 2016, företag som Amazon, Facebook, Google, IBM och Microsoft, bildat en Allians “Partnerskap för artificiell intelligens till gagn för människor och samhälle” (Partnerskap på Artificiell Intelligens till Nytta för Människor och Samhälle). De viktigaste uppgifterna för denna organisation är att styra utvecklingen av AI genomfördes ärligt, öppet och med beaktande av etiska normer. I januari i år gick organisationen av Apple. Efter att, som många andra it-företag har också uttryckt en sådan önskan och anslöt sig till Unionen.
Samtidigt uppsökande en välgörenhetsorganisation att Framtiden för Life Institute (FLI) skapat Asilomar AI Principer – den grundläggande uppsättning av lagar och etiska principer för robotics som utvecklat för att vara säker på att trovärdigheten AI till framtiden för mänskligheten. Grundarna av FLI har gjorts av dessa företag, organisationer och institutioner, som DeepMind och MIT (Massachusetts Institute of technology), och dess vetenskapliga råd ingår siffror som Stephen Hawking, Frank Wilczek, Elon Musk, Nick Bostrom och även Morgan Freeman, känd Amerikansk skådespelare.
I Allmänhet, om du håller med om att förebyggande idéer i kombination med hårt arbete skarpaste hjärnorna i branschen är det bästa skydd mot alla potentiella problem i samband med AI i framtiden, vi kan säga att mänskligheten redan är skyddad.
Experter föreslår att förse robotar “etiska” svarta lådor”
Nikolai Khizhnyak