Tausende von Gründen, Dass Wir nicht Vertrauen, ein Neuronales Netzwerk zu Analysieren, Bilder

Illustration for article titled Thousands of Reasons That We Shouldn't Trust a Neural Network to Analyze Images Foto: Natur-Wettkampf-Beispiele

Wenn es um image recognition tech, es ist immer noch bemerkenswert leicht zu täuschen die Maschinen. Und während es einige gute Komödie, bei der ein neuronales Netzwerk Fehler ein Schmetterling für eine Waschmaschine, die Konsequenzen dieser Idiotie sind ziemlich beklemmend, wenn man über die Rollen, die diese fehlerhaften Systeme in die Reale Welt.

Forscher von der University of California, Berkeley, der University of Washington und der University of Chicago veröffentlichte ein Papier in diesem Monat wirklich nach Hause fahren den Schwächen von neuronalen Netzwerken, wenn es darum geht, richtig zu identifizieren ein Bild. Sie sind speziell erforschten natürlichen kontradiktorische Beispiele oder natürlich vorkommenden Beispiele in der wildnis, der Narr ein machine-learning-Modell in misclassifying ein Objekt.

Illustration for article titled Thousands of Reasons That We Shouldn't Trust a Neural Network to Analyze Images

Die Forscher kuratiert von 7.500 natürlichen kontradiktorische Beispiele in einer Datenbank genannt IMAGENET-A. Die ausgewählten Bilder für das dataset gezogen wurden, von Millionen von Benutzer-markierten Tier Bilder von der website iNaturalist sowie Objekte getaggt, die von Nutzern auf Flickr, so das Papier. Die Forscher zunächst die heruntergeladenen Bilder sind eine Klasse von der Datenbank gelöscht, diejenigen, die wurden korrekt klassifiziert durch eine separate machine-learning-Modell, und dann von Hand ausgewählte, qualitativ hochwertige Bilder aus dem restlichen Stapel.

Die Forscher Gaben ein Beispiel für diesen Prozess in der das Papier durch die Veranschaulichung, wie es brach, Bilder speziell von einer Libelle. Sie heruntergeladen 81,413 Libelle Bilder von iNaturalist und gefiltert, dass bis auf 8,925. Eine “algorithmisch vorgeschlagen shortlist” ausspucken 1,452 Bilder, und von da aus manuell ausgewählten 80.

Illustration for article titled Thousands of Reasons That We Shouldn't Trust a Neural Network to Analyze Images Screenshot: Natürliche Kontradiktorische Beispiele

Die Tausende von Bildern, die letztlich in der Datenbank enthalten sind alle nicht richtig klassifizieren ein Objekt in einem Bild für eine Reihe von Gründen, keiner als eine absichtliche böswillige Angriffe sind. Die neuronalen Netze fucked up wegen des Wetters, Variationen in der Gestaltung der ein Foto, ein Gegenstand wird teilweise abgedeckt, stützte sich zu viel auf die textur oder die Farbe in einem Foto, unter anderen Gründen. Die Forscher fanden auch, dass die Klassifikatoren können overgeneralize, über-extrapoliert, und fälschlicherweise tangential Kategorien.

Das ist, warum das neuronale Netz klassifiziert eine Kerze, die wie ein jack-o-Laterne mit 99.94 Prozent Vertrauen, auch wenn es keine geschnitzten Kürbisse im Bild. Es ist der Grund, warum es eingestuft, eine Libelle wie eine Banane, in welcher die Forscher die Vermutung, da war eine Schaufel in der Nähe, die war gelb. Es ist auch, warum, wenn die Festlegung ein alligator schwimmen war leicht verändert, das neuronale Netz klassifiziert es als eine Klippe, Luchs und einen Fuchs Eichhörnchen. Und das ist auch der Grund, weshalb der Klassifizierer overgeneralized Dreiräder, Fahrräder und Kreise, – und digital-Uhren, keyboards und Taschenrechner.

Illustration for article titled Thousands of Reasons That We Shouldn't Trust a Neural Network to Analyze Images

Diese Erkenntnisse sind nicht offenbart, aber die Robustheit der Datenbank verschafft einen hilfreichen Einblick in den Umfang aller Möglichkeiten, die bilderkennungs-Systeme können ausfallen. Wie die Forscher in der Studie “ein wichtiges Forschungsziel als computer-vision-Systeme werden in zunehmend prekären Umgebungen.” Vor allem, diese Systeme sind ausgerollt, die in selbstfahrenden Autos und im zunehmend automatisierten lagern. In der Tat, früher in diesem Jahr, Forscher einfach gedreht, Fotos von 3D-Objekten zu täuschen einen tiefen neuronalen Netzes, speziell aufzeigen, wie sich dieser Mangel ist beunruhigend gefährlich, wenn es um autonome Fahrzeuge, die sich auf Bild-Erkennung tech.

“Sie können sich vorstellen, die Roboter im Lager oder der mobile home-Roboter, schauen Sie sich um und versuchen, Holen die Sachen, oder finden die Schlüssel für Sie,” Anh Nguyen, assistant professor of computer science an der Auburn University und ein Forscher auf der Studie von März sagte Gizmodo in einem Telefonat. “Und diese Objekte herumliegen können in jeder pose, in jeder Ausrichtung. Sie können überall sein. Sie nicht erwarten, dass Sie im kanonischen Posen und so werden Sie getäuscht durch die gegnerische Posen.”

Nguyen wies auch darauf hin, wie leicht die Anpassung der Winkel eines Objekts auswirken könnte Bilderkennung für die TSA an den Flughäfen und andere Sicherheits-checkpoints, oder für die automatische Zielerfassung in Schlachtfeldern. “Es gibt viele Anwendungen, bei denen diese Sicherheitsanfälligkeit wird ein größeres problem”, sagte er, und das lediglich für eine kontradiktorische Beispiel. Wie die Forscher in der Juli-Papier angegeben, das ist nur ein Tropfen auf den heißen Stein.

Illustration for article titled Thousands of Reasons That We Shouldn't Trust a Neural Network to Analyze Images Screenshot: Natürliche Kontradiktorische Beispiele

Teilen Sie Diese Geschichte


Date:

by