Tusindvis af Top AI Eksperter Sværger Aldrig at Bygge Dødelige Autonome Våben

En KZO reconaissance drone i Bundeswehr, de tyske væbnede styrker, lancerer med hjælp af en raket booster under Thunder Storm 2018 multinationale NATO ‘ s militære øvelser på juni 7, 2018 i nærheden af Pabrade, Litauen.Foto: Getty

Hundredvis af virksomheder og tusindvis af individer, er mange af dem, forskere og ingeniører fremtrædende inden for robotteknologi og kunstig intelligens, svor onsdag lovede aldrig at anvende deres kompetencer i retning af skabelsen af autonome dræbermaskiner.

Ledet af den Fremtidige Life Institute, en Boston-baseret, non-profit, så mange som 160 AI-relaterede virksomheder i 36 lande, og 2.400 personer i 90 lande, der har underskrevet løfte om, at autonome våben udgjorde en “klar og nærværende fare for borgere i hvert land i verden”, og at de ikke ville deltage i deres udvikling.

“Kunstig intelligens (AI) er klar til at spille en stigende rolle i militære systemer,” det løfte stater. “Der er et presserende mulighed og nødvendighed for borgere, beslutningstagere og ledere til at skelne mellem acceptabel og uacceptabel brug af AI.”

Underskriverne, der slutte sig til 26 Fn-lande, der har udtrykkeligt opfordret til et forbud mod dødelige autonome våben, omfatter DeepMind, Google ‘ s top AI forskning team, den Europæiske Forening for AI; ClearPath Robotics/OTTO-Motorer; XPRIZE Foundation, den svenske AI Samfundet; og University College London, blandt andre. Førende AI forskere Demis Hassabis, Stuart og Russell navn som egentlig betyder yoshua Bengio, Anca Dragan, Toby Walsh, og Tesla og SpaceX grundlæggeren Elon Musk er blandt de personer, der også har underskrevet erklæringen.

“Vi kan ikke hånd over den afgørelse, hvem der lever og hvem der dør til maskiner,” sagde Walsh, scientia professor i kunstig intelligens på University of New South Wales i Sydney, og tilføjer, at dødelige autonome våben systemer, eller LOVE, “ikke har etik at gøre det.”

Næsten et år siden, 116 eksperter, blandt dem, Moskus og Google AI ekspert Mustafa Suleyman, bad Fn om at forbyde autonome dræbermaskiner, at kalde dem “weapons of terror.” “Vi har ikke lang tid til at handle,” eksperter advaret. “Når denne Pandoras æske er åbnet, vil det være svært at lukke.”

Ingeniører og forskere, der i kølvandet på den AMERIKANSKE regerings optrapning af militær drone kan bruges i hele verden, har advaret om, at autonome maskiner vil være sårbare over for hackere, kan blive kapret, og vendte sig på uskyldige befolkninger, og at de vil uundgåeligt være nemt for ondsindede aktører til at indhente og bygge på deres egne.

Søger at illustrere livet under trussel af autonome killer droner, Fremtiden for Life Institute hjulpet med at producere “Slaughterbots” video ” (nedenfor), som på et tidspunkt viser mordet på tusinder af studerende. De studerende, der er identificeret ved hjælp af ansigtsgenkendelse, blev ramt af en ukendt skuespiller efter at have delt en video på sociale medier “afsløre korruption.” Den video blev skabt af Kampagnen for at Stoppe Killer Robotter, en international koalition, der arbejder på at forbyde autonome våben, som omfatter Fremtidige Life Institute (FLI).

Slaughterbots

“Ingen nation er sikker, uanset hvor magtfulde,” sagde Clearpath Robotteknologi CEO Ryan Gariepy i en erklæring.

Skype-er medstifter og FLI medlem Jaan Tallinn fortalte Gizmodo, at våben, der ikke kræver menneskelige operatører er den “perfekte værktøj” for terrorister og slyngelstater. “Per definition,” sagde han, “at de ikke kræver megen arbejdskraft og deres brug vil sandsynligvis være svært at tilskrive (ligesom cyberangreb er svært at tillægge i dag).”

“Ironisk nok, ved at støtte udviklingen af autonome våben,” tilføjede Tallinn, “den eksisterende militære beføjelser kan ende med at udlevere deres magt, for at ikke-statslige aktører og ydergrupper.”

Underskriverne af den Dødelige Autonome Våben Løfte om yderligere opfordrede FN, som vil mødes på spørgsmålet om autonome våben i August, for at udvikle en forpligtelse mellem lande, der vil føre til deres forbud.

Den fulde tekst af det løfte, er nedenfor:

Kunstig intelligens (AI) er klar til at spille en stigende rolle i militære systemer. Der er et presserende mulighed og nødvendighed for borgere, beslutningstagere og ledere til at skelne mellem acceptabel og uacceptabel brug af AI.

I dette lys, vi undertegnede er enig i, at beslutningen om at tage et menneskeliv bør aldrig være uddelegeret til en maskine. Der er en moralsk element til denne position, at vi ikke bør tillade maskiner til at gøre livet-at tage beslutninger, som andre – eller ingen – vil være culpøs. Der er også en stærk pragmatisk argument: dødelig autonome våben, udvælgelse og inddragelse af mål uden menneskelig indgriben, vil være en farlig destabiliserende for hvert land og individuelle. Tusindvis af AI-forskere er enige om, at ved at fjerne risikoen, tilregnelse, og vanskeligheden ved at tage menneskers liv, dødelige autonome våben kunne blive magtfulde instrumenter, vold og undertrykkelse, især når det er forbundet med overvågning og data systemer. Desuden dødelige autonome våben har egenskaber, helt forskellig fra den nukleare, kemiske og biologiske våben, og at den ensidige handlinger fra en enkelt gruppe kan alt for let udløse et våbenkapløb, at det internationale samfund ikke de tekniske værktøjer og global styring-systemer til at styre. Stigmatiserende og forebyggelse af sådan et våbenkapløb bør være et højt prioriteret område for den nationale og den globale sikkerhed.

Vi, de undertegnede, opfordrer regeringer og offentlige ledere til at skabe en fremtid, med stærke internationale normer, regler og love mod dødelig autonome våben. Der er for øjeblikket at være fraværende, vi vælger at holde os til en høj standard: vi vil hverken deltage i eller støtte udvikling, fremstilling, handel, eller brug af dødbringende autonome våben. Vi beder om, at teknologi, virksomheder og organisationer, såvel som ledere, politikere, og andre personer, slutte sig til os i dette løfte.

Yderligere rapportering af George Dvorsky.


Date:

by