Le Mortel à l’Insouciance de l’Auto-Conduite Automobile et de l’Industrie

L’Intelligence Artificielle

Le Mortel à l’Insouciance de l’Auto-Conduite Automobile et de l’Industrie

Photo: Tempe Département de la Police de Brian Merchant29 minutes agoFiled: AutomatonFiled: Automate

  • Automate
  • les véhicules autonomes

8Save

  • Modifier
  • Embiggen
  • Envoyer à des Éditeurs
  • Promouvoir
  • Part de Kinja
  • Déplacer des espaces publicitaires
  • Changement dans l’article de la vidéo

Les véhicules autonomes étaient censés rendre la conduite plus sûre, et ils peuvent encore certains de la plus optimiste de la recherche indique que l’auto-conduite des voitures pourrait sauver des dizaines de milliers de vies chaque année dans les seuls états-UNIS. Mais jusqu’à présent, une imprudence a défini la culture des plus grandes entreprises de la poursuite de la technologie de l’—Uber, Google, et sans doute même de Tesla et a conduit directement à des accidents inutiles, des blessures, voire la mort.

Soyons clairs à ce sujet, car il me semble que ces entreprises ont eu un peu d’un pass pour une entreprise difficile, voire “révolutionnaire” de la technologie, et parce que le blâme peut paraître nébuleux dans les accidents de voiture, ou dans ces cas peuvent être orientés vers les humains qui étaient censés être de regarder la route. Ces sociétés actions (ou, parfois, le manque d’action) ont conduit à la perte de la vie et l’intégrité physique. Dans le processus, ils ont assombri les perspectives pour l’ensemble de la profession, de saper la confiance du public dans l’auto-conduite de voitures et de retarder le déploiement de ce que beaucoup l’espère, sera un vie la technologie d’économie.

La litanie des échecs de la partie la plus visible des sociétés de la poursuite de l’auto-conduite des technologies souligne le fait que la sécurité des systèmes autonomes sont seulement aussi bon que les personnes et les organisations de leur construction.

  • Selon un courriel récemment obtenu par l’Information, Uber est l’auto-conduite de voiture de la division ne peut pas seulement être téméraire, mais carrément négligent. La direction de la compagnie le personnel aurait ignoré détaillé des appels à partir de sa propre équipe pour la sécurité et la poursuite des pratiques à risque et un piéton est mort. Avant cela, une foule d’accidents et quasi-accidents avait pas été entendus.
  • Au moins un des grands exécutif de Google la voiture autonome de la division seraient exemptés lui-même à partir de programme de test de protocole, directement causé un grave accident, le blessé de son passager, et n’a jamais informé la police qu’il a été causé par une voiture sans chauffeur. Waymo, maintenant une filiale de Google, a été impliqué, selon mes calculs, dans 21 des incidents signalés cette année, selon la Californie DMV enregistrements, même si elle a commis une faute en seulement une petite fraction.
  • À deux reprises, pilote automatique, Tesla semi-autonome du système de conduite, a été engagée lorsque les pilotes ont souffert fatal accidents de voiture. En octobre, la Floride Tesla propriétaire a poursuivi la compagnie après que sa voiture était dans un grave accident alors que sur le pilote automatique, revendiquant la société “a trompé les consommateurs … en leur faisant croire que le système de pilotage automatique, il offre avec les véhicules Tesla à un coût supplémentaire peut transporter en toute sécurité des passagers à grande vitesse avec un minimum d’intrants et de surveillance de ces passagers.” (Tesla, bien sûr, nie cette caractérisation.) Ces cas sont boueux parce que Tesla met en garde explicitement de ne pas laisser le système de conduire la voiture entièrement et dispose des mesures de protection installé à dissuader les mauvais comportement des conducteurs. Encore Tesla continue à faire de la publicité qu’il offre “Full Auto-Conduite de Matériel sur Toutes les Voitures” sur son site, et de ses propres ingénieurs dit que les organismes de réglementation qu’ils s’attendaient à certains pilotes serait reposent entièrement sur le système. Encore publiquement, Tesla continue de nier que leur système pourrait engendrer chez les conducteurs dangereux de la confiance sur sa semi-autonome.

Pas étonnant que le public le public se méfie de l’auto-conduite des voitures.

“Pour le moment, les essais aux états-UNIS est assez téméraire”, explique le Dr Jack Stilgoe, maître de conférences en science et technologie ministère de l’University College de Londres, et le chercheur principal dans le prochain sans pilote à Terme du projet. “Il est la gauche aux entreprises de décider quels sont les risques acceptables”. Souvent, ces entreprises ont manifestement décidé de hauts risques sont acceptables.

Le plus récent et le plus flagrant exemple de la façon imprudente sociétés dans le véhicule autonome de l’espace implique la tristement célèbre accident mortel à Tempe, en Arizona, où l’un des Uber voitures a frappé et tué un de 49 ans piétonne. Les Informations obtenues à un e-mail aurait envoyé par Robbie Miller, un ancien directeur dans l’ensemble de test du groupe des opérations, à sept Uber cadres supérieurs, y compris le chef de la société de véhicules autonomes de l’unité, d’avertissement que le logiciel de mise sous tension de l’taxis était défectueux et que la sauvegarde des pilotes n’étaient pas suffisamment formés.

“Les voitures sont régulièrement dans des accidents entraînant des dommages,” Miller a écrit. “Cela est généralement le résultat d’un mauvais comportement de l’opérateur ou de l’AV de la technologie. Une voiture a été endommagée près tous les autres jours de février. Nous ne devrions pas nous frapper des choses tous les 15 000 km. Des infractions répétées pour mauvaise conduite, rarement des résultats de la résiliation. Plusieurs facteurs semblent ne pas avoir été correctement contrôlés ou une formation”.

Que c’est des noix. Des centaines d’auto-conduite des voitures ont été sur la route à l’époque, à San Francisco, Pittsburgh, Santa Fe, et ailleurs. L’AV de la technologie a été manifestement défectueux, la sauvegarde des pilotes n’étaient pas de rester vigilant, et en dépit d’incidents répétés—certains clairement dangereux—rien n’a été abordé. Cinq jours après la date de Miller, e-mail, une Volvo à l’aide de Uber du self-driving logiciel frappé Elaine Herzberg, alors qu’elle était tranquillement en traversant la rue avec son vélo et l’a tuée. Le pilote était apparemment la diffusion de La Voix sur Hulu au moment de l’accident.

Cette tragédie n’était pas un monstre de dysfonctionnement de certaines technologies de pointe—c’est tout à fait prévisible sous-produit de méfait.

Si Uber est le pire acteur dans ce cas, il n’est pas le seul mauvais—et il a été la construction d’une culture établie ans avant, d’où un besoin d’être les premiers à la technologie de l’éclipsé des problèmes de sécurité.

Anthony Levandowski, ancien leader de Google self-driving projet de voiture de, a été notoirement sarrasins, insouciante, et grossièrement irresponsable. Il est probablement juste de dire que nous ne savons même pas combien d’accidents de l’auto-conduite des voitures, il a supervisé étaient impliqués. Voici un exemple clé, tel que rapporté par Charles Duhigg dans le New Yorker:

“Un jour, en 2011, Google exécutif nommé Isaac Taylor a appris que, alors qu’il était sur le congé de paternité, Levandowski avait modifié les voitures, les logiciels de sorte qu’il pourrait prendre sur les autrement interdit routes. Google exécutif rappelle témoin de Taylor et Levandowski crier les uns sur les autres. Levandowski dit à Taylor que la seule façon de lui montrer pourquoi son approche était nécessaire était de faire un tour ensemble. Les hommes, toujours furieux, a sauté dans une auto-conduite de la Prius et s’est dirigée.

“La voiture est allée sur une autoroute, où il a voyagé passé une rampe. Selon les personnes ayant une connaissance des événements de la journée, la Prius accidentellement en boîte dans un autre véhicule, une Camry. Un pilote pourrait facilement avoir géré la situation en ralentissant et en laissant la Camry de fusion dans la circulation, mais au logiciel de Google n’était pas du tout préparé à ce scénario. Les voitures ont continué excès de vitesse sur l’autoroute de l’autre côté. La Camry pilote tira sa voiture sur l’épaule droite. Puis, apparemment en essayant d’éviter un garde-fou, il a obliqué vers la gauche; la Camry pinwheeled autre côté de l’autoroute et à la médiane. Levandowski, qui a été agissant en tant que la sécurité du pilote, a fait une embardée dur pour éviter la collision avec la Camry, causant de Taylor de blesser sa colonne vertébrale, si gravement qu’il a finalement fallu de multiples interventions chirurgicales.

“La Prius a repris le contrôle et se tourna un coin, sur l’autoroute, laissant la Camry derrière. Levandowski et Taylor ne savais pas comment gravement endommagé la Camry a été. Ils n’ont pas revenir en arrière pour vérifier que l’autre conducteur ou pour voir si quelqu’un d’autre avait été blessé. Ni eux ni les autres de Google cadres pris des renseignements avec les autorités. La police n’ont pas été informés qu’une auto-conduite algorithme avait contribué à l’accident.”

Levandowski son penchant pour le mettre AV test avant la sécurité—qui est maintenant très bien documenté—et le fait que la police n’ont pas été informés sont les éléments clé ici. Google pour un long moment semblait être franc au sujet de son véhicule autonome programme; si bien que Wired a rapporté qu’une Google car a causé son “premier crash” en 2016, cinq ans après la Levandowski incident.

Ceci, combiné avec l’Uber révélations, devrait nous faire réfléchir profondément à ce que le niveau de confiance et de transparence, nous devrions exiger de la part des entreprises faisant autonome des essais de véhicules sur nos routes partagées.

En décembre 2016, cependant, Google partage de sa voiture autonome division en Waymo, où aucun de même grave accident événements ont été signalés. “Anthony Levandowki du mépris pour la sécurité de ne pas refléter la mission et les valeurs que nous avons à Waymo où des centaines d’ingénieurs au sein de notre équipe de travail chaque jour pour apporter cette technologie en toute sécurité à notre route,” un porte-parole m’a dit dans un e-mail. “Notre société a été créée pour améliorer la sécurité routière, et donc, nous tenons nous-mêmes à un haut niveau de sécurité.” Selon la Californie du véhicule autonome de crash, Waymo a été impliqué dans ces 21 accidents mineurs cette année, et a été seulement à la faute dans un couple. C’est une assez bonne réputation, en supposant que tous les accidents ont été rapporté de façon précise, et Waymo l’accent sur la sécurité s’affiche pour indiquer la route à suivre pour l’industrie, si elle espère reconquérir la confiance du public.

De son côté, Uber a pris ses véhicules autonomes sur les routes et dit qu’il a revu son auto-conduite de voiture de procédures d’essai. Mais quand j’ai demandé à un Uber porte-parole de la façon dont il a changé ses politiques d’entreprise depuis l’accident, elle m’a envoyé exactement la même réponse standard qui a été envoyé à l’Information (et mon collègue Jennings Brun): “aujourd’hui, l’ensemble de l’équipe se concentre sur la façon sécuritaire et responsable de revenir à la route en auto-mode de conduite. Nous avons toute confiance dans le travail que l’équipe est en train de faire pour y arriver. Notre équipe reste attachée à la mise en œuvre des améliorations de la sécurité, et nous avons l’intention de reprendre sur-le-route de l’auto-conduite de tests uniquement lorsque ces améliorations ont été mises en place et nous avons reçu l’autorisation de la Pennsylvanie Ministère des Transports.”

Uber a refusé de répondre à des questions quant à savoir si des changements ont été apportés à la culture de l’entreprise, si quelqu’un à la société a été tenue pour responsable, ou quoi que ce soit, vraiment, au-delà de cette déclaration et affiché publiquement matériaux. Uber n’a pas nié qu’il était responsable de l’accident.

Dans la première semaine de décembre 2018, la police a réussi à arrêter une Tesla Model S dont le conducteur s’était endormi au volant alors qu’il était dévaler la route à 70 km / h. Il avait le pilote automatique est activé et a voyagé à 17 km avant d’être tiré dessus. D’octobre dans le procès contre Tesla mentionné plus tôt, Shawn Hudson, la Floride, l’homme dont la Tesla s’est écrasé alors que sur le pilote automatique, a affirmé qu’il avait été induit en erreur en leur faisant croire que la voiture peut fonctionner de manière autonome. Il a dit qu’il a acheté la Tesla en partie à cause de sa fonction de pilote automatique, dont il pense qu’elle lui permettrait de se détendre sur son long trajet, et donc régulièrement écrit des e-mails et vérifié son téléphone sur la route—y compris lorsque l’incident a eu lieu.

Tesla est dans une position unique. Comme indiqué précédemment, il a longtemps livré de ses voitures avec ce qu’il décrit comme “plein d’auto-conduite de matériel” tout en émettant des avis à ne pas compter entièrement sur le pilote automatique, semi-autonome le système de conduite que les coûts supplémentaires de 5 000$. Il est en permanence à l’amélioration de son logiciel, bordure de pilotes sont déjà sur la route la plus proche de l’auto-conduite de l’actualité.

“Tesla,” Stilgoe me dit, “est en train de tourner un oeil aveugle à leurs pilotes propres expériences avec le pilote automatique. Les gens sont à l’aide du pilote automatique, de manière irresponsable, et Tesla sont surplombant parce qu’ils sont la collecte de données. Et Tesla est aussi tromper les gens en disant qu’ils sont la vente de voitures sans chauffeur. Ils utilisent l’expression ” plein d’auto-conduite du matériel.’”

Capture D’Écran: Tesla.com

En effet, Elon Musk lui-même était essentiellement de la publicité Tesla auto-conduite du potentiel dans une sans les mains peu de prouesses sur rien de moins que 60 Minutes apparence. Tesla souligne que lors du processus d’achat, une équipe de ventes qui démontre la bonne utilisation du pilote automatique, disabusing les acheteurs de la notion qu’il fonctionne quelque chose comme une voiture sans chauffeur. Il a ajouté des caractéristiques de désactiver le pilote automatique si les utilisateurs passent de mains-libre trop longtemps. Encore, du marketing et de la puissance de la suggestion—pour ne pas mentionner la longue-tenue geek rêve de monter dans l’auto-conduite des voitures sont de puissants forces, et les accidents et les incidents dans lesquels le pilote automatique est utilisé comme un système de conduite sont néanmoins poursuivies à un rythme soutenu.

À ouvertement le marché de son produit de cette manière est une décision consciente, et il est probable aide à inculquer la foi en Tesla conducteurs qu’ils peuvent utiliser la fonctionnalité de la manière que le langage marketing semble décrire. Le problème, c’est “ce qui se passe lorsque le conducteur est trop dépendante du système”, comme Thatcham de la Recherche, qui a enquêté sur les juste à quel point le logiciel est vraiment dans un segment pour la BBC, a expliqué. (Spoiler alert: Il y a un certain nombre de scénarios dans lesquels “plein d’auto-conduite” Teslas crash dans les objets en face d’eux). Mais cela n’empêche pas les humains à l’intérieur de se bercer d’un faux sentiment de sécurité.

Ici se trouve la deuxième question en ce qui concerne Tesla responsabilité de ses pilotes—avec ses propres ingénieurs savait que c’était une distinct de problème de sécurité. (C’est aussi pourquoi je pense que c’est un peu injuste tas tout le blâme sur la “sécurité ” pilote” qui était censée être regarder la route, dans la fatale Uber crash; pour une chose, Uber apparemment coupé la sécurité des pilotes vers le bas à partir de deux—Miller a appelé au rétablissement de deux pilotes et d’une autre, c’est la nature humaine de se laisser bercer dans un sentiment de sécurité à titre de preuve s’accumule que nous sommes en sécurité après des heures de non-événements, et après, sans doute, nous obtenons de très, très ennuyé.) En fait, l’un des Waymo récents accidents survenus après son seul de sécurité conducteur s’est endormi au volant et a accidentellement transformé le système hors tension.

Dans le rapport qu’il a publié après le premier accident mortel, la National Highway Traffic Safety Administration—qui a effacé Tesla d’actes répréhensibles—néanmoins constaté que:

“[P]lus le cours de recherche et de développement de pilote automatique, Tesla a envisagé la possibilité que les conducteurs pourraient abuser du système dans une variété de façons, y compris ceux identifiés ci-dessus – à savoir, à travers la mode de la confusion, de la distraction au volant, et l’utilisation du système en dehors préféré environnements et de conditions. Inclus dans les types de la distraction des conducteurs de Tesla ingénieurs considéré comme un pilote pourrait ne prête pas attention, s’endormir, ou devenir incapactitated [sic] tout en utilisant le pilote automatique. Le potentiel pour le pilote de l’abus a été évaluée dans le cadre de Tesla processus de conception et des solutions ont été testées, validées et intégrées dans la diffusion à grande échelle du produit. Il semble que Tesla évaluation de pilote d’abus et de ses actions qui en découlent, adressée le risque déraisonnable pour la sécurité qui peut être présenté par un tel abus.”

En d’autres termes, Tesla équipe sait que certains pilotes vont utiliser le pilote automatique comme une réelle auto-mode de conduite ou autrement finissent en s’appuyant entièrement sur le système. Et alors que l’agence américaine a trouvé que les ingénieurs de Tesla avait compté pour ces éléments, le système a toujours été en usage pendant deux accidents mortels, et beaucoup plus d’accidents. (Pendant ce temps, le National Transportation Safety Board a constaté que la responsabilité n’en fait mentir avec Tesla, pour ne pas en faire assez pour dissuader les conducteurs d’abuser de pilote automatique).

Après des heures de coups de téléphone avec Tesla porte-parole, au cours de laquelle l’entreprise a refusé de parler à propos de la tension entre la promotion de ses véhicules avec langue comme “plein d’auto-conduite de matériel sur toutes les voitures”, puis en insistant pilotes qui achètent Teslas pas les traiter comme des auto-conduite des voitures (et au cours de laquelle l’un des porte-parole m’a gentiment dit qu’il sonne comme j’ai besoin de penser au sujet de mon histoire un peu plus), la compagnie a offert uniquement la déclaration publiée après le procès en Floride en octobre. Cette déclaration est la suivante: “Tesla a toujours été clair que le pilote automatique n’est pas faire de la voiture imperméable à l’ensemble des accidents, et Tesla va de grands efforts pour fournir des instructions claires sur ce que le pilote automatique est et ne l’est pas, y compris en offrant pilote instructions lorsque les propriétaires de tester et de prendre livraison de leur voiture, avant de pilotes activer le pilote automatique et à chaque fois qu’ils utilisent le pilote automatique, ainsi que par le Manuel du Propriétaire et les Notes de mise à jour du logiciel.”

Look, la conduite est déjà sale, dangereuse entreprise. Haut-fonctionnement auto-conduite des voitures pourrait être une aubaine en termes de santé humaine gains, et de les tester dans la circulation est toujours va être une épineuse question du point de vue logistique et de l’éthique. Dans le cas de Tesla, nous n’avons aucun moyen de savoir si certains le pilote automatique d’utilisateurs auraient été conduite afin distractedly qu’ils auraient causé des accidents, quelle que soit. Mais le fait est que, ceux d’entre nous déjà sur la route dans notre pas-si-voitures autonomes ont peu ou pas de mot à dire sur la façon dont nous vivons avec l’auto-conduite. Quant à savoir si ou non nous sommes en train de partager la rue avec AVs en cours d’exécution sur de pacotille logiciel ou supervisés par des moins-que-alerte conducteurs humains parce que leurs dirigeants ne veulent pas de retard dans leur quête pour aspirer les données de routes ou de manquer une opportunité de vente.

Jusqu’à présent, les géants de la technologie dans une course dont ils ont besoin pour gagner”, comme Levandowski, ont pris ces décisions pour nous. Avant de pousser pour une législation pour réglementer les essais de véhicules autonomes de manière plus rigoureuse, exigeante, les entreprises qui font de nuisible et mortelle transgressions être correctement tenu pour responsable semble un recours raisonnable. À moins que ces entreprises d’améliorer considérablement leurs efforts afin de prioriser la sécurité et l’ouverture par rapport à la vitesse de développement et la vente, ils risquent à la fois infliger plus de dommages et de s’aliéner un public déjà méfier de la perspective de l’auto-conduite des voitures.

“Nous avons encore peu d’idée de ce que la plupart des gens considèrent comme un risque acceptable, mais j’imagine que les membres du public ne seraient pas satisfaits, même si nous savions que l’auto-conduite des voitures ont été un peu plus sûr que l’homme drivers,” Stilgoe dit. “Un accident, un incident, est une catastrophe. L’auto-conduite automobile et de l’industrie a eu à travailler beaucoup plus difficile de gagner le débat sur la sécurité.”

Partager Cette Histoire


Date:

by