Weaponised AI er på vej. Er algoritmisk for evigt wars vores fremtid? | Ben Tarnoff

5

Det AMERIKANSKE militær er at skabe en mere automatiseret form for krigsførelse – en, der i høj grad vil øge sin kapacitet til at føre krig overalt for evigt.

Kontakt forfatter

@bentarnoff

Tor 11 Okt 2018 10.00 BST

Sidst opdateret Tor 11 Okt 2018 10.36 BST

The US has been in Afghanistan for so long that someone born after the attacks is now old enough to go fight there.

USA har været i Afghanistan, så længe, at en person, der er født efter angreb er nu gamle nok til at tage kampen der.
Foto: Getty Images

I sidste måned markerede 17 årsdagen for 9/11. Med det kom en ny milepæl: vi har været i Afghanistan, så længe, at en person, der er født efter angreb er nu gamle nok til at tage kampen der. De kan også fungere i de seks andre steder, hvor vi er officielt i krig, for ikke at nævne 133 lande, hvor special operations styrker har udført opgaver i bare den første halvdel af 2018.

Krigene i 9/11 fortsætte, med ingen ende i syne. Nu, Pentagon er investere i teknologier, der vil styrke dem. Ved at omfavne de nyeste værktøjer, at tech-branchen har at tilbyde, og det AMERIKANSKE militær er at skabe en mere automatiseret form for krigsførelse – en, der i høj grad vil øge sin kapacitet til at føre krig overalt for evigt.

På fredag, forsvarsministeriet lukker bud periode for en af de største teknologi kontrakter, der i sin historie: den Fælles Virksomhed Forsvar Infrastruktur (Jedi). Jedi er et ambitiøst projekt med at bygge en cloud computing-system, der tjener OS kræfter i hele verden, fra analytikere bag et skrivebord i Virginia til soldater på patrulje i Niger. Kontrakten er værd så meget som $10 mia over 10 år, hvilket er grunden til at store tech firmaer kæmper hårdt for at vinde den. (Ikke Google, men hvor der er et pres kampagne af arbejdere tvunget ledelsen til at droppe ud af drift.)

Ved første øjekast, Jedi kan se ud som blot en anden IT-modernisering projektet. Regering, DET har en tendens til at køre i en rimelig afstand bag Silicon Valley, selv på et sted, som overdådigt finansieret som Pentagon. Med nogle 3,4 millioner brugere og 4 millioner enheder, forsvarsministeriet digitale fodspor er enorm. Flytter selv en del af sine arbejdsopgaver til en cloud-udbyder, såsom Amazon vil uden tvivl forbedre effektiviteten.

Men den virkelige drivkraft Jedi, er ønsket om at weaponize AI – hvad forsvarsministeriet har begyndt at kalde “algoritmisk krigsførelse”. Ved at samle den militære data i en moderne cloud-platform, og ved hjælp af machine-learning-tjenester, at disse platforme giver til at analysere data, Jedi vil hjælpe Pentagon realisere sin AI ambitioner.

Hvorfor undervise i drone-piloter om etik, når det er robotter, der vil dræbe os? | Andrew Brown

Læs mere

Omfanget af disse ambitioner er vokset mere og mere klart i de seneste måneder. I juni, Pentagon, der er etableret Fælles Artificial Intelligence Center (JAIC), som vil føre tilsyn med de omkring 600 AI projekter, der i øjeblikket er på vej i hele afdelingen på en planlagt omkostninger på 1,7 mia. Og i September, the Defense Advanced Research Projects Agency (Darpa), Pentagon sagnomspundne R&D-fløjen, meddelte, at det ville være at investere op til $2bn i løbet af de næste fem år i AI, våben forskning.

Så langt, rapportering af Pentagon ‘ s AI udgifter amok har i vid udstrækning fokuseret på udsigten af autonome våben – Terminator-stil killer robotter at slå folk ned uden input fra en menneskelig operatør. Dette er faktisk en skræmmende nær-fremtids-scenarie, og et globalt forbud mod autonome våben af den slags, der søges af Kampagnen for at Stoppe Killer Robotter er helt afgørende.

Men AI er allerede begyndt at omprogrammere krigsførelse, selv hvis det ikke er (endnu) ikke har taget form af bogstavelig Terminators. Der er mindre filmisk, men lige så skræmmende måder at weaponize AI. Du behøver ikke algoritmer, der trækkes i aftrækkeren for algoritmer til at spille en yderst farlig rolle.

At forstå den rolle, det hjælper til at forstå de særlige vanskeligheder i forbindelse med den evigt krig. Den dræber sig selv er ikke særlig svært. Med en militær budget større end i Kina, Rusland, Saudi-Arabien, Indien, Frankrig, Storbritannien og Japan tilsammen, og nogle 800 baser rundt om i verden, USA, har en overflod af ildkraft og en enestående evne til at deployere, at ildkraft overalt på kloden.

Det AMERIKANSKE militær ved, hvordan at dræbe. Den hårdere del er at finde ud af, hvem til at dræbe. I en mere traditionel krig, blot du dræbe fjenden. Men hvem er den fjende i en konflikt med nogen nationale grænser, ingen fast slagmarker, og ingen konventionelle modstandere?

Dette er det evige spørgsmål om, the forever war. Det er også et centralt element i sit design. Uklarheden af fjenden er, hvad der har aktiveret konflikten til at fortsætte i næsten to årtier, og at udvide til mere end 70 lande – en velsignelse for de entreprenører, embedsmænd og politikere, der lever af OS militarisme. Hvis krig er en ketcher, i ord af marine legende Smedley Butler, the forever war er en af de længste ulemper endnu.

Men de vage fjenden skaber også visse udfordringer. Det er én ting at se på et kort over det Nordlige Vietnam og vælge steder at bombe. Det er noget helt andet at finkæmme gennem enorme mængder af information fra hele verden med henblik på at identificere en god kandidat til en drone strejke. Når fjenden er overalt, mål identifikation bliver langt mere arbejdskrævende. Dette er, hvor AI – eller, mere præcist, machine learning – kommer i. Machine learning kan hjælpe med at automatisere en af de mere kedelige og tidskrævende aspekter af the forever war: at finde folk til at dræbe.

Vi holder mennesker med magt til konto. Hvorfor ikke? | Hannah Unger

Læs mere

Pentagon ‘ s Projekt Maven er allerede ved at sætte denne idé i praksis. Maven, også kendt som den Algoritmiske Krigsførelse tværfagligt Team, lavede overskrifter for nylig for gnister en medarbejder oprør på Google i løbet af virksomhedens engagement. Maven er den militære “pathfinder” AI-projekt. I sin indledende fase indebærer anvendelse af machine learning til at scanne drone video-optagelser til at hjælpe med at identificere personer, køretøjer og bygninger, der kunne være værd at bombningen.

“Vi har analytikere ser på full-motion video, stirre på skærme 6, 7, 8, 9, 10, 11 timer ad gangen,” siger direktøren for projektet, Lt Gen Jack Shanahan. Maven ‘ s software automatiserer at arbejde, så relæer sine opdagelser til et menneske. Så langt, det har været en stor succes: softwaren er blevet installeret for at så mange som seks bekæmpe steder i Mellemøsten og Afrika. Målet er til sidst at indlæse software på at droner selv, så de kan finde mål i real tid.

Ikke denne teknologi til at forbedre præcision, således at mindske civile tab? Dette er et udbredt argument højere-ups i både Pentagon og Silicon Valley for at forsvare deres samarbejde om projekter som Maven. Code for America ‘ s Jen Pahlka sætter det i form af “skarpe knive” versus “sløve knive”: skarpere knive kan hjælpe med den militære redde liv.

I tilfælde af weaponized AI, men knive i spørgsmål er ikke særlig skarpe. Der er ingen mangel på skrækhistorier om, hvad der sker, når menneskelige kontrol er udliciteret til defekt eller skadet algoritmer algoritmer, der ikke kan genkende sorte ansigter, eller at styrke race bias i politi-og strafferetlige strafudmåling. Ønsker vi virkelig, at Pentagon bruger den samme teknologi til at hjælpe med at afgøre, hvem der får en bombe faldt på hovedet?

Men den dybere problem med den humanitære argument for algoritmisk krigsførelse er den antagelse, at det AMERIKANSKE militær er en i bund og grund godgørende kraft. Mange millioner af mennesker rundt omkring i verden ville være uenig. I 2017 alene, den AMERIKANSKE og allierede strejker i Irak og Syrien, der blev dræbt 6.000 civile. Tal som disse, ikke kan foreslå et par ærlige fejl her og der, men en systemisk ligegyldighed over for “collateral damage”. Ja, den AMERIKANSKE regering har flere gange bombet civile sammenkomster såsom bryllupper i håb om at dræbe en høj-værdi mål.

Yderligere, linje mellem civile og kombattanter er meget porøs i den æra af the forever war. En rapport fra skæring tyder på, at det AMERIKANSKE militær etiketter nogen dræber i “målrettet” strejker som “fjenden dræbt i kamp”, selv hvis de ikke var et af målene. De såkaldte “signature strikes”, som er foretaget af det AMERIKANSKE militær og CIA spille samme tricks med begrebet kombattant. Disse er drone angreb på personer, hvis identitet er ukendt, men der er mistænkt for at være militante, der er baseret på at vise visse “signaturer” – der kan være så vage som værende en militær-årige mandlige i et bestemt område.

Problemet er ikke kvaliteten af de redskaber, med andre ord, men den institution, der bruger dem. Og jeg vil kun gøre, at institutionen mere brutal. Forever war kræver, at USA ser fjender overalt. AI lover at finde dem fjender hurtigere – selv hvis alle det tager for at blive betragtet som en fjende, der udviser et adfærdsmønster, at en (klassificeret) machine-learning model associerede virksomheder med fjendtlig aktivitet. Kalder det død ved big data.

AI har også potentiale til at gøre det for evigt krig mere permanent, ved at give nogle af landets største virksomheder, en interesse i at fastholde det. Silicon Valley har altid haft tætte forbindelser til det AMERIKANSKE militær. Men algoritmisk krigsførelse vil bringe store tech dybere ind i det militær-industrielle kompleks, og give milliardærer som Jeff Bezos et stærkt incitament til at sikre, at krigen varer for evigt for evigt. Fjender vil blive fundet. Penge vil blive foretaget.