MIT forskere formået at forvirre kunstig intelligens til at klassificere et krybdyr, som et skydevåben, stille spørgsmål om fremtiden for AI sikkerhed
Er det en skildpadde? Sikker – medmindre du er Google ‘ s AI.
Foto: Labsix/MIT
Kunstig intelligens (AI)
Shotgun shell: Google ‘ s AI mener, at denne skildpadde er en riffel
MIT forskere formået at forvirre kunstig intelligens til at klassificere et krybdyr, som et skydevåben, stille spørgsmål om fremtiden for AI sikkerhed
@alexhern
Fredag den 3 November 2017 12.15 GMT
Sidst opdateret fredag den 3 November 2017 12.17 GMT
Hvis det er i form af en skildpadde, størrelsen af en skildpadde, og har mønstret af en skildpadde, er det nok en skildpadde. Så når kunstig intelligens trygt erklærer, at det er en kanon i stedet, at noget er gået galt.
Men det er hvad forskere fra MIT ‘s Labsix lykkedes at narre Google’ s formål anerkendelse AI til at tro, at de viste i en artikel offentliggjort i denne uge.
Holdet er bygget på et koncept, der er kendt som en “kontradiktorisk billede”. Det er et billede, der er oprettet fra jorden op til at narre en AI i at udlægge det som noget helt forskelligt fra, hvad det viser for eksempel, et billede af en tabby kat er indregnet med 99% sikkerhed som en skål guacamole.
Sådanne tricks arbejde ved nøje at tilføje visuelle støj til billedet, således at det bundt af betegnere en AI bruger til at anerkende dens indhold blive forvirret, mens et menneske ikke mærke nogen forskel.
Men selvom der er en masse teoretisk arbejde, der demonstrerer den angreb er muligt, fysiske demonstrationer af den samme teknik, som er tynd på jorden. Ofte, skal du blot dreje billedet, rode med den farve balance, eller beskæring af det lidt, kan være nok til at ødelægge det trick.
MIT forskere har skubbet tanken videre end nogensinde før, ved at manipulere ikke en simpel 2D-billede, men den flade struktur af et 3D-printet skildpadde. Den resulterende shell mønster ser trippy, men stadig helt genkendes som en skildpadde – medmindre du er Google ‘ s public object detection AI, i hvilket tilfælde du er 90% sikker på det er en riffel.
Forskerne også 3D printet en baseball med pattering til at gøre det ud til, at AI som en espresso, med lidt mindre succes – AI var i stand til at fortælle, at det var en baseball lejlighedsvis, men stadig fejlagtigt foreslået espresso det meste af tiden.
“Vores arbejde viser, at kontradiktorisk eksempler er et væsentligt større problem i den virkelige verden systemer end hidtil antaget,” de forskere, der skrev. Som maskinen vision er rullet ud mere almindeligt, at sådanne angreb kan være farligt.
Allerede forskere er ved at undersøge muligheden for automatisk detektering af våben fra CCTV-billeder. En skildpadde, der ligner en riffel, for at et sådant system kan kun forårsage et falsk alarm, en riffel, der ligner en skildpadde, men ville være betydeligt mere farlige.
Der er stadig problemer for forskerne at stryge ud. Vigtigst er det, at den nuværende tilgang til at snyde maskinen vision virker kun på ét system på et tidspunkt, og kræver adgang til systemet for at udvikle det trick mønstre. Skildpadden, der fjolser Google ‘ s AI kan ikke trække ud, det samme angreb mod Facebook eller Amazon, for eksempel. Men nogle forskere har allerede formået at udvikle enklere angreb, der arbejder mod ukendte AIs, ved hjælp af teknikker, som har generel anvendelse.
AI virksomheder kæmper sig tilbage. Både Facebook og Google har offentliggjort forskning, der tyder på, at de er på udkig i de teknikker selv, at finde måder til at sikre deres egne systemer.
- Der bor min angst drøm: at tage en tur i Googles selvkørende bil