Die Tödliche Rücksichtslosigkeit der Self-Driving-Car-Branche

Künstliche Intelligenz

Die Tödliche Rücksichtslosigkeit der Self-Driving-Car-Branche

Foto: Tempe Polizei-Abteilung, Brian MerchantToday 12:52pmFiled: AutomatonFiled: Automat

  • Automat
  • autonome Fahrzeuge

105Save

  • Bearbeiten
  • Embiggen
  • Senden Sie an die Redaktion
  • Fördern
  • Teilen auf Kinja
  • Verschieben von ad-slots
  • -Änderung im Artikel video

Autonome Fahrzeuge sollen das fahren sicherer macht, und Sie kann noch einige mehr optimistisch Forschung an selbstfahrenden Autos retten könnte Zehntausende von Menschenleben pro Jahr allein in den USA. Aber so weit, eine Rücksichtslosigkeit definiert hat, die Kultur der größten Unternehmen verfolgt das Technologie—Uber, Google, und wohl auch Tesla—und hat direkt dazu geführt, dass unnötige Abstürze, Verletzungen, sogar zum Tod führen.

Lassen Sie uns klar sein darüber, denn es scheint mir, dass diese Unternehmen bekommen haben ein wenig von einem pass für die Durchführung einer schwierigen, möglicherweise ‘revolutionären’ Technologie, und weil Sie Schuld sind, kann erscheinen nebulös bei Autounfällen, oder in diesen Fällen können richtet sich an den Menschen sein soll, beobachtete die Straße. Diese Unternehmen Aktionen (oder manchmal auch das fehlen von Maßnahmen) geführt haben, zum Verlust von Leben, Körper und Gesundheit. In dem Prozess, Sie haben verdunkelt die Aussichten für den Bereich des Allgemeinen, untergräbt das öffentliche Vertrauen in selbstfahrende Autos und verzögern den rollout von dem, was viele hoffen, wird eine life-saving Technologie.

Die Litanei der Versäumnisse der sichtbarste Unternehmen verfolgt self-driving-Technologien unterstreicht die Tatsache, dass die Sicherheit der autonomen Systeme sind nur so gut, wie die Menschen und Organisationen aufzubauen.

  • Nach einer E-Mail vor kurzem erhielt von den Informationen Uber ‘ s self-driving car division kann nicht nur leichtsinnig, sondern geradezu fahrlässig. Das Unternehmen executive-Mitarbeiter angeblich ignoriert detaillierten Anrufe von seinen eigenen safety team und weiterhin unsichere Praktiken und ein Fußgänger starb. Vor, dass eine Vielzahl von Unfällen und beinahe-findet gegangen war, unbeachtet.
  • Mindestens eine wichtige Führungskraft in Googles Autonomes Auto-Sparte angeblich befreit sich selbst aus dem test-Programm-Protokoll, direkt verursacht einen schweren Sturz verletzt, sein Beifahrer, und nie die Polizei informiert, dass es verursacht wurde durch eine self-driving car. Waymo, jetzt eine Tochtergesellschaft von Google, beteiligt war, nach meiner Zählung, 21 berichteten Abstürze in diesem Jahr, nach Kalifornien DMV Aufzeichnungen, aber es war Schuld an dem nur ein kleiner Bruchteil.
  • Auf zwei verschiedenen Gelegenheiten, Autopilot, Tesla-s semi-autonomous driving system, war sehr engagiert, wenn der Fahrer erlitt tödliche Autounfälle. In Oktober, ein Florida-Tesla-Besitzer verklagte die Firma, nachdem sein Auto wurde in einen schweren Sturz während auf Autopilot, und behauptet, das Unternehmen “hat täuschen den Verbraucher … zu glauben, dass die autopilot-system bietet mit Tesla-Fahrzeugen, die zusätzliche Kosten verursachen können, sicher zu transportieren Passagiere auf der Autobahn Geschwindigkeiten mit minimalem input und Kontrolle von Passagieren.” (Tesla, natürlich, bestreitet diese Darstellung.) Diese Fälle sind muddier, weil Tesla weist ausdrücklich darauf hin, dass das system das Auto komplett und hat Schutzmechanismen eingebaut, um abzuschrecken, die schlechten Fahrer Verhalten. Doch Tesla weiterhin dafür werben, dass es bietet “Full Self-Driving-Hardware auf Allen Autos” auf seiner Webseite, seine eigenen Ingenieure sagten zu den Regulierungsbehörden, dass Sie erwartet einige Fahrer würden sich vollständig auf das system. Aber öffentlich, Tesla weiterhin zu leugnen, dass Ihr system könnte das angesprochene Treiber in eine gefährliche Abhängigkeit das semi-autonome system.

Kein Wunder, dass die öffentlichkeit die öffentlichkeit ist misstrauisch gegenüber selbstfahrenden Autos.

“In dem moment, Tests in den USA ist ganz schön leichtsinnig”, sagt Dr. Jack Stilgoe, senior lecturer in der science-und Technologie-Abteilung am University College in London, und leitender Prüfarzt in der kommenden Fahrerlosen Futures project. “Es ist Links zu Unternehmen, um zu entscheiden, welche Risiken akzeptabel sind.” Oft sind diese Unternehmen haben eindeutig entschieden, dass sehr hohe Risiken akzeptabel sind.

Das jüngste und eklatanteste Beispiel dafür, wie rücksichtslos Unternehmen in der autonomen Fahrzeug-Raum werden kann, beinhaltet der jetzt-berüchtigten tödlichen Absturz in Tempe, Arizona, wo ein Uber-Autos schlug und tötete einen 49-jährigen Fußgänger. Die Informationen erhalten eine E-Mail angeblich gesendet von Robbie Miller, ein ehemaliger manager in der Test-operations-Gruppe, zu Uber sieben Führungskräfte, darunter der Leiter des Unternehmens autonomen Fahrzeug, Gerät, Warnung, dass die software die Stromversorgung des taxis fehlerhaft war und dass die backup-Treiber waren nicht ausreichend geschult.

“Die Autos werden regelmäßig in Unfälle in Schaden,” Miller schrieb. “Dies ist in der Regel die Folge der schlechten Verhalten der Betreiber oder der AV-Technik. Ein Auto wurde beschädigt, fast jeden anderen Tag im Februar. Wir sollten nicht auf Dinge, die alle 15.000 Meilen. Wiederholt Straftaten für schlechte Fahrt führt selten zu einer Kündigung. Einige Treiber scheinen nicht richtig geprüft oder ausgebildet.”

Das ist verrückt. Hunderte von selbstfahrenden Autos waren auf der Straße an der Zeit, sich in San Francisco, Pittsburgh, Santa Fe, und anderswo. Der AV-Technik wurde nachweislich fehlerhaft, wird der backup-Treiber nicht bleiben wachsam, und trotz wiederholter Zwischenfälle—einige deutlich gefährlicher—nichts war angesprochen. Fünf Tage nach dem Datum der Miller-E-Mail, ein Volvo mit Uber ‘ s self-driving-software schlug Elaine Herzberg, während Sie langsam über die Straße mit Ihrem Fahrrad und tötete Sie. Der Fahrer war offenbar streaming Die Stimme auf Hulu zum Zeitpunkt des Unfalls.

Diese Tragödie war nicht ein freak Fehlfunktion einige cutting-edge-Technologie—es ist völlig vorhersehbar, Nebenprodukt von corporate Gesetzesübertretungen.

Wenn Uber ist der schlechteste Schauspieler in diesem Fall ist es nicht nur schlecht—und es wurde aufbauend auf eine Kultur etabliert Jahre vor, in denen ein Bedürfnis der erste zu sein, der Technologie überwiegen die Sicherheitsbedenken.

Anthony Levandowski, der ehemalige lead von Google self-driving car project, war notorisch frech, leichtsinnig, und ausgesprochen rücksichtslos. Es ist wahrscheinlich fair zu sagen, dass wir gar nicht wissen, wie viele Abstürze die selbst-fahrenden Autos, die er leitete beteiligt waren. Hier ist ein Paradebeispiel, wie berichtet, die von Charles Duhigg in der New Yorker:

“Eines Tages im Jahr 2011, ein Google-Exekutive namens Isaac Taylor gelernt, dass, während er war auf Vaterschaftsurlaub, Levandowski hatte sich geändert, die Autos” – software, und so konnte er Sie übernehmen, ansonsten Verbotenen Routen. Ein Google-executive, erinnert sich Zeuge Taylor und Levandowski schimpftiraden. Levandowski erzählt Taylor, dass der einzige Weg, ihm zu zeigen, warum sein Ansatz war, die notwendig war, um eine Fahrt zusammen. Die Männer, die beide noch wütend auf, sprang in einen selbstfahrenden Prius-und fuhren.

“Das Auto fuhr auf eine Autobahn, wo er reiste Vergangenheit eine Auffahrt. Nach Menschen mit Kenntnis der Ereignisse an diesem Tag, der Prius versehentlich boxed in ein anderes Fahrzeug, einen Camry. Ein menschlicher Fahrer könnte leicht gelöst haben, die situation durch Verlangsamung und lassen Sie den Camry Zusammenführen von in den Verkehr, aber der Google-software war nicht bereit für dieses Szenario. Die Autos weiterhin die Beschleunigung auf der Autobahn nebeneinander. Der Camry-Fahrer fuhr mit seinem Auto auf der rechten Schulter. Dann, offenbar versucht zu vermeiden, ein Geländer, er drehte nach Links; Camry pinwheeled über die Autobahn und in die Mediane. Levandowski, wer handelte wie die Sicherheit der Fahrer, bog hart, um zu vermeiden Kollision mit dem Camry, wodurch Taylor zu verletzen, die seine Wirbelsäule so schwer, dass er sich schließlich benötigt mehrere Operationen.

“Der Prius wieder die Kontrolle und bog um eine Ecke auf die Autobahn, verlassen der Camry hinter sich. Levandowski und Taylor wusste nicht, wie schwer beschädigt der Camry war. Sie wollte nicht zurück zu schauen auf die anderen Fahrer, oder zu sehen, ob jemand verletzt worden war. Weder Sie, noch andere Google-Führungskräfte gestellten Anfragen mit den Behörden. Die Polizei wurde nicht informiert, dass ein self-driving-Algorithmus beigetragen hatten zu dem Unfall.”

Levandowski Vorliebe für die Umsetzung von AV-Test, bevor die Sicherheit—das ist jetzt Recht gut dokumentiert—und die Tatsache, dass die Polizei nicht informiert sind die wichtigsten Teile hier. Google für eine lange Zeit zu sein schien, offen über seine autonomen Fahrzeug-Programm; so sehr, dass Wired berichtet, dass ein Google-Auto verursacht seinen “ersten Absturz” im Jahr 2016, fünf Jahre nach der Levandowski Vorfall.

Dies, kombiniert mit der Uber-Enthüllungen, sollte uns zu denken tief darüber nach, was Vertrauen und Transparenz, die wir, sollte die Nachfrage durch die Unternehmen, die den autonomen Fahrzeug-Tests auf unseren gemeinsam genutzten Fahrbahnen.

Im Dezember 2016, doch Google split seine autonome Auto division in Waymo, wo keine ähnlich ernsten crash-Ereignisse berichtet wurden. “Anthony Levandowki die Missachtung der Sicherheit bedeutet nicht unbedingt, die mission und Werte wir haben auf Waymo, wo Hunderte von Ingenieure in unserem team arbeiten jeden Tag, um diese Technologie sicher, unsere Straße”, so ein Sprecher erzählte mir in einer E-Mail. “Unsere Firma wurde gegründet, die Verkehrssicherheit zu verbessern, und wir halten uns an einen hohen Sicherheitsstandard.” Nach Kalifornien autonome Fahrzeuge crash-log, Waymo aktiv, hat in diesen 21 kleinere Unfälle in diesem Jahr, und es war nur auf Fehler in ein paar. Das ist eine ziemlich gute Spur-Aufzeichnung, vorausgesetzt, alle Unfälle wurden genau berichtet, und Waymo ist die Betonung der Sicherheit scheint den Weg zu weisen für die Industrie, wenn es Hoffnungen zurückgewinnen, die das Vertrauen der öffentlichkeit.

Für seinen Teil, Uber nahm seine autonomen Fahrzeuge von der Straße und sagt, es hat überholt sein self-driving car testing-Verfahren. Obwohl, wenn ich fragte ein Uber-Sprecher wie es sich verändert hat seine Unternehmenspolitik seit dem Unfall, Sie hat mir genau die gleiche Standardantwort, die geschickt wurde, um die Informationen (und mein Kollege Jennings Brown): “momentan konzentriert sich das gesamte team auf einem sicheren und verantwortungsbewussten wieder auf der Straße in self-driving-Modus. Wir haben jedes Vertrauen in die Arbeit, die das team tun wird, um uns dorthin zu gelangen. Unser team engagiert sich weiterhin für die Umsetzung der wesentlichen Verbesserungen der Sicherheit, und den wollen wir fortsetzen-auf-die-Straße-self-driving-Tests nur dann, wenn diese Verbesserungen wurden umgesetzt und wir haben die Ermächtigung von der Pennsylvania Department of Transportation.”

Uber weigerte sich, zu beantworten Fragen über, ob änderungen vorgenommen worden waren, um die Kultur des Unternehmens, ob jemand im Unternehmen war verantwortlich, oder irgendetwas, wirklich, über diese Aussage und veröffentlichten Materialien. Uber nicht leugnen, es war für den Absturz verantwortlich.

In der ersten Woche von Dezember 2018, Polizei erfolgreich hielt einen Tesla Model S, dessen Fahrer war am Steuer eingeschlafen, während es war fässerfüllen die Straße hinunter auf 70 km / h. Er hatte Autopilot aktiviert und reisten 17 Meilen, bevor Sie über gezogen. Im Oktober Klage gegen Tesla bereits erwähnt, Shawn Hudson, der Florida Mann, dessen Tesla stürzte auf Autopilot, behauptete, er hätte in die Irre geführt zu glauben, könnte das Auto autonom. Er sagte, er kaufte die Tesla in Teil wegen seiner Autopilot-Funktion, die er dachte, würde ihm erlauben, sich zu entspannen, auf seine lange pendeln, und so routinemäßig E-Mails geschrieben und überprüft sein Handy während auf der Straße—auch wenn der Absturz erfolgte.

Tesla ist in einer einzigartigen position. Wie bereits erwähnt, hat es lange versendet seine Autos mit dem, was er beschreibt als “full self-driving-hardware”, während auch die Ausstellung advisories nicht zu verlassen sich vollständig auf Autopilot, die halb-Autonomes fahren system, dass die Kosten eine zusätzliche $5,000. Es wird ständig aktualisieren Ihre software, Kanten-Treiber sind bereits auf dem Weg näher zu sich selbst-fahren Wirklichkeit.

“Tesla” Stilgoe sagt mir, “ist ein Auge zudrücken, um Ihre Treiber zu eigenen Experimenten mit Autopilot. Menschen sind mit Autopilot unverantwortlich, und Tesla sind mit Blick auf Sie, weil Sie Daten sammeln. Und Tesla ist auch irreführend Menschen, indem Sie sagen, dass Sie verkaufen selbst-fahrenden Autos. Sie verwenden den Begriff ” full self-driving-hardware.’”

Screenshot: Tesla.com

In der Tat, Elon Musk selbst war im wesentlichen Werbung für Tesla ‘ s self-driving potential in einer no-Hände etwas derring-do auf nichts weniger als eine 60-Minuten-Auftritt. Tesla betont, dass in den Kauf-Prozess, seine sales-team zeigt die ordnungsgemäße Verwendung des Autopiloten, disabusing Käufer von der Vorstellung, dass es Funktionen so etwas wie eine self-driving car. Es hat zusätzliche Funktionen, schalten Sie die Autopilot-wenn Anwender die Hände frei zu lange. Noch, das marketing und die macht der suggestion—nicht zu vergessen die lange gehegte geek-Traum vom Reiten in selbstfahrenden Autos—sind starke Kräfte, und die Abstürze und Vorfälle, in denen der Autopilot wird missbraucht als eine self-driving-system, sind allerdings weiterhin voran.

Zu offenkundig Markt, sein Produkt auf diese Weise ist eine bewusste Entscheidung, und es wahrscheinlich hilft, Mut einzuflößen in Tesla-Fahrer, dass Sie können verwenden Sie die Funktion in der Art und Weise der marketing-Sprache scheint zu beschreiben. Das problem ist, “was passiert, wenn der Fahrer über-angewiesen auf das system”, wie Thatcham Forschung, die untersucht, wie gut die software wirklich ist, in einem segment bei der BBC erklärte. (Spoiler alert: Es gibt eine Reihe von Szenarios, in denen “full self-driving” Teslas Absturz in Objekte, die vor Ihnen). Aber das bedeutet nicht aufhören, die Menschen in Ihnen immer eingelullt in ein Falsches Gefühl der Sicherheit.

Hierin liegt auch die zweite Frage mit Bezug auf teslas Verantwortung für seine Fahrer, seine eigenen Ingenieure wusste, dies war ein deutliches Sicherheitsrisiko dar. (Dies ist auch der Grund, warum ich denke, es ist ein wenig unfair, heap alle Schuld auf die “safety driver” der vermeintliche beobachtete die Straße, in der fatalen Uber crash; für eine Sache, Uber offenbar schneiden Sie die Sicherheit der Fahrer unten von zwei zu eins—Miller genannt, der für die Wiedereinführung der zwei-Treiber—und zum anderen ist es die menschliche Natur zu werden, eingelullt in ein Gefühl der Sicherheit als Beweismittel sammelt, dass wir sicher nach Stunden von nicht-Ereignissen, und nach, vermutlich, bekommen wir sehr, sehr gelangweilt.) In der Tat, einer von Waymo jüngsten Abstürze aufgetreten, nachdem seine lone Sicherheit der Fahrer schlief am Steuer und versehentlich aktiviert das system aus.

In dem Bericht veröffentlicht, nach dem ersten tödlichen Absturz, der National Highway Traffic Safety Administration—, die gelöscht Tesla von Fehlverhalten—es wird dennoch festgestellt, dass:

“[O]ver Laufe der Erforschung und Entwicklung von Autopilot, Tesla berücksichtigt die Möglichkeit, dass der Treiber missbrauchen könnte das system in eine Vielzahl von Möglichkeiten, einschließlich derjenigen, die oben gekennzeichnet – d.h., durch mode, Verwirrung, abgelenkt fahren, und verwenden des Systems außerhalb der am günstigsten gelegene Umgebungen und Bedingungen. Enthalten, in der Art von Ablenkung des Fahrers, dass die Tesla-Ingenieure berücksichtigt werden, dass ein Fahrer möglicherweise nicht achten, einzuschlafen, oder werden incapactitated [sic], während mit Autopilot. Das Potenzial für Missbrauch Treiber wurde ausgewertet, als Teil von teslas design-Prozess und-Lösungen getestet, validiert und integriert in die weite Version des Produkts. Es scheint, dass Tesla die Auswertung der Treiber Missbrauch und die sich daraus ergebenden Maßnahmen die unzumutbare Gefahr für die Sicherheit, die präsentiert werden können, die durch einen solchen Missbrauch.”

In anderen Worten, Tesla ‘ s team weiß, dass einige Fahrer zu verwenden, Autopilot als ein wirkliches self-driving-Modus, oder sonst am Ende verlässt sich voll und ganz auf das system. Und während die NHTSA festgestellt, dass die Tesla-Ingenieure hatten, machten Sie für diese Elemente, hat das system noch im Einsatz gewesen während zwei tödliche Abstürze und viele mehr Unfälle. (Inzwischen, das National Transportation Safety Board festgestellt, dass einige der Schuld, in der Tat liegen mit Tesla, für nicht genug tun, um abzubringen Treiber missbrauchen, Autopilot).

Nach Stunden telefonieren mit Tesla-Sprecher, bei denen das Unternehmen sich weigerte zu sprechen, die Aufzeichnung über die Spannung zwischen der Förderung seine Fahrzeuge mit Sprache wie “full self-driving-hardware auf allen Autos” und dann beharren Fahrer, die kaufen Teslas behandeln Sie nicht als selbst-fahrenden Autos (und bei denen man sich der Sprecher freundlicherweise hat mir gesagt, es klingt wie muss ich denke über meine Geschichte ein wenig mehr), bot das Unternehmen nur die Anweisung herausgegeben, nach der Florida Klage bereits im Oktober. Diese Aussage lautet wie folgt: “Tesla war schon immer klar, dass der Autopilot nicht machen das Fahrzeug unempfindlich gegen alle Unfälle und Tesla geht auf große Längen, um klare Anweisungen darüber, was mit Autopilot und ist nicht die, einschließlich durch das Angebot von Fahrer Anweisungen, wenn die Besitzer Probefahrt und Lieferung von Ihrem Auto, bevor die Treiber ermöglichen den Autopilot, und jedes einzelne mal, wenn Sie verwenden, Autopilot, sowie durch die Bedienungsanleitung und Release Notes für software-updates.”

Aussehen, fahren ist schon ein chaotisches, gefährliches Geschäft. High-functioning-selbstfahrenden Autos könnte ein Glücksfall in Bezug auf die menschliche Gesundheit Gewinne, und testen Sie Sie im Verkehr ist immer eine heikle Sache, sowohl logistisch und ethisch. In Tesla ‘ s Fall haben wir keine Möglichkeit zu wissen, ob einige der Autopilot Benutzer würde fahren schon so zerstreut, dass Sie würde haben verursacht Unfälle unabhängig. Aber die Tatsache ist, diejenigen von uns, die bereits auf der Straße, in unseren nicht-so-ganz-autonomen Autos haben wenig bis gar nichts zu sagen, wie wir koexistieren mit selbst-fahren lieben. Über die Frage, ob oder nicht, wir teilen die Straßen mit dem AVs laufen auf schlampige software oder unter der Aufsicht von weniger-als-alert menschlichen Fahrer, weil die Verantwortlichen nicht wollen, zu isolieren, in Ihrer Suche, um Vakuum bis Straße von Daten oder verpassen eine Verkaufschance.

So weit, tech-Riesen in einem “Rennen, die Sie benötigen, um zu gewinnen”, wie Levandowski einmal formulierte, haben die Entscheidungen für uns. Kurz drücken für die Gesetzgebung zur Regelung der Prüfung von autonomen Fahrzeugen mehr stringent, anspruchsvolle Unternehmen, die schädlich und tödlich übertretungen werden ordentlich zur Rechenschaft gezogen scheint eine vernünftige Wahl. Es sei denn, diese Unternehmen drastisch verbessern, Ihre Anstrengungen zu priorisieren, Sicherheit und Offenheit über die Geschwindigkeit der Entwicklung und Verkaufstechnik, riskieren Sie, die beiden weiteren Schaden zuzufügen, und besetzt einen öffentlichen, bereits vorsichtig von der Aussicht, self-driving cars.

“Wir haben noch immer wenig Vorstellung, was die meisten Menschen würden erwägen, um ein akzeptables Risiko ist, aber meine Vermutung wäre, dass Mitglieder der öffentlichkeit würden nicht zufrieden sein, auch wenn wir wussten, dass selbstfahrende Autos waren ein bisschen sicherer als menschliche Fahrer”, Stilgoe, sagt. “Ein Absturz, jeder Absturz ist eine Katastrophe. Das self-driving-car-Industrie hat viel härter arbeiten, um zu gewinnen das argument auf Sicherheit.”

Teilen Sie Diese Geschichte


Date:

by