Photo: Naturel Contradictoire Exemples
Quand il s’agit de la reconnaissance d’image technologie, il est toujours très facile de tromper les machines. Et alors que c’est une bonne comédie lorsqu’un réseau de neurones erreurs un papillon pour une machine à laver, les conséquences de cette idiotie sont assez cauchemardesque quand vous pensez à propos de rouler ces imparfait systèmes dans le monde réel.
Des chercheurs de l’Université de Californie, à Berkeley, à l’Université de Washington et de l’Université de Chicago a publié un article ce mois-ci pour conduire à la maison les faiblesses des réseaux de neurones quand il s’agit d’identifier correctement une image. Ils ont spécifiquement exploré naturel contradictoire exemples d’origine naturelle ou des exemples dans la nature que tromper une machine modèle d’apprentissage en misclassifying un objet.
Les chercheurs ont organisé de 7 500 naturelles contradictoire des exemples dans une base de données appelée IMAGENET-A. Les images sélectionnées pour le jeu de données ont été extraites à partir des millions d’utilisateurs marqués, les images d’animaux à partir du site web iNaturalist ainsi que des objets marqués par les utilisateurs de Flickr, selon le journal. Les chercheurs ont d’abord téléchargé les images liées à une classe de la base de données, supprimé ceux qui ont été classés correctement par une machine séparée modèle d’apprentissage, puis sélectionnés manuellement des images de haute qualité de la part du reste du lot.
Les chercheurs ont donné un exemple de ce processus dans l’étude en illustrant la façon dont il a brisé les images spécifiquement d’une libellule. Qu’ils ont téléchargé 81,413 libellule images de iNaturalist et filtrée à 8,925. Un “algorithmiquement suggéré de la liste de présélection” cracher 1,452 images, et à partir de là, ils sélectionnés manuellement 80.

Les milliers d’images finalement inclus dans la base de données pas de classer correctement un objet dans une image pour un certain nombre de raisons, aucun n’étant intentionnellement une attaque malveillante. Les réseaux de neurones foutu en raison de la météo, des variations dans le cadrage d’une photo, un objet d’être partiellement couvert, se penchant trop sur la texture ou de la couleur dans une photo, parmi d’autres raisons. Les chercheurs ont également constaté que les classificateurs peuvent overgeneralize, trop extrapoler, et à tort inclure tangentielle catégories.
C’est pourquoi le réseau de neurones classé une bougie comme un jack-o-lantern avec 99.94% de confiance, même si il n’y avait pas de citrouilles sculptées dans l’image. C’est pourquoi elle a classé une libellule comme une banane, dans ce que les chercheurs devine que c’est parce qu’il y avait une pelle à proximité qui était jaune. C’est aussi pourquoi, lors de la mise au point d’un alligator de natation a été légèrement modifié, le réseau de neurones classée comme une falaise, le lynx et le renard écureuil. Et c’est aussi pourquoi le classificateur overgeneralized tricycles pour les vélos et les cercles, et les horloges numériques pour les claviers et les calculatrices.
Ces résultats ne sont pas une révélation, mais la robustesse de la base de données donne un sens utile à la portée de toutes les façons dans lequel l’image des systèmes de reconnaissance peut échouer. Les chercheurs soulignent dans l’étude, c’est “un objectif important de la recherche que de la vision par ordinateur systèmes sont déployés dans de plus en plus des environnements précaires.” Plus particulièrement, ces systèmes sont en cours de déploiement dans l’auto-conduite de voitures et de plus en plus les entrepôts automatisés. En fait, plus tôt cette année, les chercheurs ont tout simplement tourné les photos des objets 3D pour tromper un réseau de neurones profonds, plus précisément de souligner comment cette faille est inquiétant dangereux quand il s’agit de véhicules autonomes s’appuyant sur la reconnaissance d’image de la technologie.
“Vous pouvez imaginer les robots dans l’entrepôt ou de la maison mobile de robots que de regarder autour et essayer de ramasser les trucs ou trouver les clés pour vous,” Anh Nguyen, maître de conférences en informatique à l’Université d’Auburn et de chercheur sur l’étude de Mars dit Gizmodo dans un appel téléphonique. “Et ces objets se trouvant autour de peut être, en tout poser dans n’importe quelle orientation. Ils peuvent être n’importe où. Vous ne vous attendez pas à être dans canonique de pose et donc ils vont se laisser berner par la phase contradictoire de la pose.”
Nguyen a également souligné que légèrement en ajustant l’angle d’un objet peut avoir un impact sur l’image de la reconnaissance de la TSA dans les aéroports et autres points de contrôle de sécurité, ou pour automatiser la reconnaissance de la cible dans les champs de bataille. “Il existe de nombreuses applications où cette vulnérabilité va être un gros problème”, dit-il, et cela ne s’applique à une confrontation exemple. En tant que chercheurs en juillet de papier indiqué, c’est juste une goutte dans le seau.
Capture D’Écran: Naturel Contradictoire Exemples
Partager Cette Histoire