Vækst af AI kunne øge it-kriminalitet og sikkerhed trusler, rapport advarer om,

Eksperter siger, at handling skal træffes foranstaltninger til kontrol af kunstig intelligens tech

@alexhern

Ons 21 Februar 2018 06.01 GMT

Sidst opdateret den Ons 21 Februar 2018 07.52 GMT

A ‘ Mikado’ German forces drone in Munster. It is feared ‘drone swarms’ fitted them with small explosives and self-driving technology will be used to carry out untraceable assassinations in the future.

En ‘Mikado’ tyske styrker drone i Munster. Det frygtes, ‘drone sværme’ monteret med små sprængstoffer og selvkørende teknologi vil blive brugt til at udføre spores attentater i fremtiden.
Foto: Patrik Stollarz/AFP/Getty Images

Hensynsløse spredning af kunstig intelligens teknologier kan muliggøre nye former for it-kriminalitet, politiske forstyrrelser og fysiske angreb inden for fem år, en gruppe på 26 eksperter fra hele verden har advaret om.

I en ny rapport, den akademiske verden, industrien og velgørenhed eksperter, beskrive AI som en “dual use” teknologi ” med potentielle militære og civile anvendelser, beslægtet med atomkraft, sprængstoffer og hacking værktøjer.

“Som AI kapaciteter bliver mere kraftfulde og mere udbredt, og vi forventer, at den stigende brug af AI-systemer til at føre til en udvidelse af de eksisterende trusler, indførelse af nye trusler, og et skifte til den typiske karakter af trusler,” siger rapporten.

De hævder, at forskere har brug for at overveje potentielle misbrug af AI langt tidligere i løbet af deres uddannelse, end de gør på nuværende tidspunkt, og arbejde for at skabe de rette lovgivningsmæssige rammer for at forhindre ondsindede bruger af AI.

Hvis rådene ikke følges, rapporten advarer om, AI er tilbøjelige til at revolutionere den strøm af dårlige skuespillere til at true hverdagen. I den digitale sfære, de siger, AI kan bruges til at sænke adgangsbarriere for at udføre skadelige hacking angreb. Den teknologi, der kunne automatisere opdagelsen af kritiske software bugs, eller som hurtigt kan vælge potentielle ofre for økonomisk kriminalitet. Det kan endda bruges til at misbruge Facebook-stil algoritmisk profilering for at skabe “social engineering” angreb designet til at maksimere sandsynligheden for, at en bruger vil klikke på et skadeligt link eller ved at downloade en inficeret vedhæftet fil.

Den stigende indflydelse af AI på den fysiske verden betyder, at det også er sårbar over for AI misbrug. Den mest diskuterede eksempel indebærer weaponising “drone sværme”, montering dem med små sprængstoffer og selvkørende teknologi, og derefter sætte dem løs for at udføre spores attentater som såkaldte “slaughterbots”.

ransomware

Facebook

Twitter

Pinterest

“AI kommer til at være særdeles gavnlig, og at der allerede er, til området cybersecurity,” siger Dmitri Alperovitch, medstifter af informationssikkerhed firma CrowdStrike. Foto: Rob Engelaar/EPA

Politiske forstyrrelser er lige så plausibel, fremfører rapporten. Nationalstater kan beslutte at bruge automatiserede overvågning platforme til at undertrykke uenighed – således som det allerede er tilfældet i Kina, især for Uighur-folket i landets nordvestlige del. Andre kan skabe “automatiseret, hyper-personlig misinformationskampagner”, der er målrettet hver enkelte vælgere med et specifikt sæt af løgne designet til at påvirke deres adfærd. Eller AI kan bare køre “denial-of-information angreb”, at generere så mange overbevisende falske nyhedshistorier, at legitime oplysninger bliver næsten umulig at skelne fra støj.

Seán Ó hÉigeartaigh af University of Cambridge ‘ s center for studiet af eksistentiel risiko, en af rapportens forfattere, siger: “Vi lever i en verden, der kunne blive fyldt med dag-til-dag farer fra misbrug af AI, og vi er nødt til at tage ejerskab af problemerne – fordi risikoen er reel. Der er valg på, at vi er nødt til at gøre nu, og vores rapport er en call-to-action til regeringer, institutioner og enkeltpersoner i hele verden.

“I mange årtier hype overgik virkeligheden i form af AI og machine learning. Ikke længere. Denne rapport … tyder på, fremgangsmåder, der kan hjælpe: for eksempel, hvordan man kan designe software og hardware for at gøre det mindre hackable – og hvad type af lovgivning og internationale bestemmelser, der kan arbejde sammen med denne.”

Ikke alle er overbevist om, at AI udgør en sådan risiko, dog. Dmitri Alperovitch, medstifter af informationssikkerhed firma CrowdStrike, sagde: “jeg er ikke af den opfattelse, at himlen kommer ned og jorden åbne op.

“Der vil være forbedringer på begge sider; det er en løbende våbenkapløb. AI vil være yderst gavnligt, og der allerede er, til området cybersecurity. Det kommer også til at være til gavn for de kriminelle. Det er endnu uvist, hvilken side der kommer til at nyde godt af det mere.

“Min forudsigelse er, at det vil være mere gavnligt, at den defensive side, fordi hvor AI skinner er i massiv indsamling af data, som anvender mere til forsvar end forbrydelsen.”

Rapporten medgiver, at AI er det bedste forsvar mod AI, men hævder, at “AI-baseret forsvar er ikke et universalmiddel, især når vi ser ud over det digitale domæne”.

“Mere arbejde bør også ske i forståelse med den rette balance af åbenhed i AI, udvikling af forbedrede tekniske foranstaltninger for formelt at kontrollere robustheden af systemer, og sikre, at de politiske rammer, der er udviklet i et mindre AI-tilført verden tilpasse sig til den nye verden, vi er ved at skabe,” forfattere skrev.

  • Elon Musk fører 116 eksperter opfordrer til direkte forbud af killer robotter

Date:

by