Vekst av AI kunne øke datakriminalitet og sikkerhetstrusler, rapport advarer

Eksperter sier at tiltak må tas for å kontrollere kunstig intelligens tech

@alexhern

Ons 21 Februar 2018 06.01 GMT

Sist endret på Ons 21 Februar 2018 07.52 GMT

A ‘ Mikado’ German forces drone in Munster. It is feared ‘drone swarms’ fitted them with small explosives and self-driving technology will be used to carry out untraceable assassinations in the future.

En “Mikado” tyske styrker drone i Munster. Det er fryktet ‘drone svermer’ utstyrt med små eksplosiver og selv-kjører teknologien vil bli brukt til å gjennomføre untraceable drap i fremtiden.
Foto: Patrik Stollarz/AFP/Getty Images

Vilter spredning av kunstig intelligens teknologi kan muliggjøre nye former for datakriminalitet, politiske forstyrrelser og til og med fysiske angrep i løpet av fem år, en gruppe av 26 eksperter fra hele verden har advart.

I en ny rapport, akademisk, industri og veldedige sektor eksperter, beskrive AI som en “dual use technology” med potensielle militære og sivile bruksområder, knyttet til kjernekraft, eksplosiver og hacking verktøy.

“Som AI evner og bli sterkere og mer utbredt, forventer vi økende bruk av AI-systemer for å føre til utvidelse av eksisterende trusler, innføring av nye trusler og en endring til det typiske tegnet av trusler,” sier rapporten.

De argumenterer for at forskere trenger å vurdere eventuelle misbruk av AI langt tidligere i løpet av sine studier enn de gjør i dag, og arbeide for å skape hensiktsmessig regelverk for å hindre skadelig bruk av AI.

Hvis rådene ikke følges, kan rapporten advarer, AI er sannsynlig å revolusjonere strøm av dårlige skuespillere til å true hverdagen. I den digitale sfæren, sier de, AI kunne brukes til å senke etableringshindring for å utføre skadelige hacking angrep. Teknologien kunne automatisere oppdagelsen av kritisk programvare feil eller raskt velge potensielle ofre for økonomisk kriminalitet. Det kan også brukes til å misbruke Facebook-stil algoritmisk profilering for å skape “social engineering” – angrep designet for å maksimere sannsynligheten for at en bruker klikker på en skadelig link eller laste ned et vedlegg.

Den økende innflytelsen av AI på den fysiske verden betyr at det er også sårbare for AI misbruk. Den mest diskutert eksempel innebærer weaponising “drone svermer”, feste dem med små eksplosiver og self-driving-teknologi, og deretter sette dem løs for å gjennomføre untraceable drap som såkalte “slaughterbots”.

ransomware

Facebook

Twitter

Pinterest

‘AI kommer til å være svært gunstig, og allerede er, til feltet av cybersecurity, sier Dmitri Alperovitch, co-grunnlegger av informasjon sikkerhetsselskap CrowdStrike. Foto: Rob Engelaar/EPA

Politisk avbrudd er like troverdige, rapporten argumenterer for. Nasjonalstatene kan velge å bruke automatisert overvåking plattformer for å undertrykke dissens – som allerede er tilfelle i Kina, spesielt for Uighur folk i landets nordvest. Andre kan opprette “automatisert, hyper-personlig desinformasjon kampanjer”, rettet mot hver enkelt velgernes med et spesifikt sett av løgner utformet for å påvirke deres atferd. Eller AI kunne bare kjøre “denial-of-informasjon angrep”, generere så mange overbevisende falske nyheter som legitim informasjon blir nesten umulig å skille fra støy.

Seán Ó hÉigeartaigh av University of Cambridge senter for studier av eksistensiell risiko, en av rapportens forfattere, sa: “Vi lever i en verden som kan bli fylt med dag-til-dag farer fra misbruk av AI og vi trenger å ta eierskap til problemer – fordi risikoen er reell. Det er valg som vi trenger å gjøre nå, og vår rapport er en call-to-action for myndigheter, institusjoner og enkeltpersoner over hele verden.

“For mange tiår hype enn faktum i form av AI og maskinlæring. Ikke lenger. Denne rapporten … antyder brede tilnærminger som kan være til hjelp: for eksempel, hvordan å designe programvare og maskinvare for å gjøre det mindre hackable – og hva slags lover og internasjonale regler kan fungere i tandem med dette.”

Ikke alle er overbevist om at AI utgjør en slik risiko, men. Dmitri Alperovitch, co-grunnlegger av informasjon sikkerhetsselskap CrowdStrike, sa: “jeg er ikke av den oppfatning at himmelen kommer til å komme ned og jorden åpne seg opp.

“Det kommer til å være forbedringer på begge sider, og dette er en pågående våpenkappløp. AI er kommer til å være svært gunstig, og allerede er, til feltet av cybersecurity. Det er også kommer til å være gunstig for kriminelle. Det gjenstår å se hvilken side som kommer til å dra nytte av det mer.

“Min spådom er at det kommer til å være mer gunstig for det defensive, fordi der AI skinner er i massiv innsamling av data, som bruker mer på forsvar enn angrep.”

Rapporten erkjenner at AI er det beste forsvar mot AI, men anfører at “AI-basert forsvar er ikke et universalmiddel, spesielt når vi ser utover det digitale domene”.

“Mer arbeid bør også gjøres i forståelse riktig balanse av åpenhet i AI, å utvikle bedre tekniske tiltak for formelt å verifisere robuste systemer, og sørge for at det politiske rammeverk som er utviklet i en mindre AI-fylte verden tilpasse seg til den nye verden vi skaper,” forfatterne skrev.

  • Elon Musk fører 116 eksperter kaller for regelrett forbud mot killer roboter

Date:

by