Ein Tesla Model S, der stürzte in South Jordan, Utah, während im Autopilot-Modus beschleunigt in den Sekunden, bevor es landete auf der gestoppt Csepel, nach einem Polizeibericht, die durch Die Associated Press. Zwei Menschen wurden verletzt. Foto: South Jordan Police Department (AP)
Tesla hat lange lauerte in einer eigenen Kategorie in der self-driving-car-Rennen, wo Uber und Google Waymo sind Gebäude, komplett autonome Fahrzeuge im wesentlichen von Grund auf, Elon Musk: der Elektroauto-Firma ist slouching towards Autonomie durch eine Reihe von zunehmend anspruchsvollen updates zu den semi-autonomen Autopilot-system. Denn Teslas sind nicht völlig selbst fahren, und da sind Sie schon auf den Straßen, das bringt die Unternehmen in eine Art Grauzone—sogar grauer als die bereits Grauzone, in der standard-autonome Fahrzeuge zu wohnen—wenn es um die Regulierung und Aufsicht.
Das ist ein problem. Moschus ist ein nonstop-booster und schriftart Optimismus für Autopilot-das selbststeuernde Fähigkeiten, Moschus hat Millionen von eingefleischten Anhängern und Kunden, und der Autopilot hat so weit aktiviert, die während mindestens vier tödliche Tesla abstürzt. Es ist eine flüchtige und zunehmend gefährliche situation, zumal Moschus weiterhin bürgen für seine Sicherheit, und stellen Sie Forderungen wie den eine wie es eine Millionen autonome Teslas auf der Straße *im nächsten Jahr*.
Inzwischen, niemand hat wirklich jeder gute Daten darüber, wie und unter welchen Umständen stürzt, die Einbeziehung der Autopilot geschehen; Staaten erfordern nicht, dass die Art von Daten erfasst werden, weil Teslas sind nicht technisch autonomen Autos. So Ermittler haben Zugang zu nur kleine Splitter von Daten, und Tesla weigert sich zu teilen seiner eigenen Schatzkammer.
All das ist der Grund, warum Matt Drange Epos Untersuchung Autopilot die Sicherheit der Rekord für die Informationen, sollte unbedingt einen größeren Spritzer als ich habe zumindest persönlich gesehen es zu machen. Vielleicht ist es, weil es schwer zu bekommen ist alles andere heraus zu stehen in diesen Tagen, dass nicht Anstieg auf das Niveau von Intrigen unserer zunehmend Caligula-esque Präsident getäuscht, zu glauben, er war nicht zu Fuß vorbei an einem Flugzeugträger mit seiner späten politischen Rivalen, die Namen darauf. Vielleicht ist es, weil es buchstäblich Kosten Hunderte von Dollar zu abonnieren, um die Informationen und Geschichten Lesen, die dem öffentlichen Interesse dienen, wie dieser. Wer weiß.
Aber während das ganze Stück ist voll von guten Berichterstattung und interessante Einblicke über die vielen, vielen Herausforderungen, die Regulierungsbehörden und die Sicherheitsbeauftragten Gesicht in der Auseinandersetzung mit den Autopilot-situation, eine Sache in Erinnerung geblieben: Tesla Weigerung auch auf den Kommentar-Rekord in einer offiziellen Funktion über Autopilot die Sicherheit aufnehmen. Nicht nur, dass Tesla offenbar nicht öffentlich machen, der Autopilot Daten selbst, oder teilen Sie es mit Regulierungsbehörden, wäre es nicht einmal diskutieren, die zahlen mit Drange.
Moschus hat in der Vergangenheit schon gelobt für seine Transparenz—sehen: seinen Details sehr spezielle, aufwändige Pläne, um Tesla zu den mainstream -, oder open-sourcing geworfen-off Hyperloop specs—und wurde auch gezüchtigt werden, weil Sie allzu durchsichtig. Sehen: seine Twitter-feed, der ständig auf der Schwelle zu einer sehr öffentlichen und sehr teuer train wreck.
Also die Tatsache, dass er nicht Abhusten die Daten über Autopilot fühlt sich ziemlich erzählen. Wenn Sie put Tesla in einem positiven Licht, scheint es wenig Frage, Moschus verlieren würde es auf der Welt. Das ist, was er tut.
Stattdessen Tesla veröffentlicht seine eigene vierteljährliche Fahrzeugsicherheit Berichte, die behaupten, zu zeigen, wie fahren mit Autopilot ist viel sicherer als das fahren ohne. Als Drange stellt fest: “die Berichte zeigen nur eine Kollisionsrate pro-Meilen-driven-basis und nicht offenlegen, was den Absturz verursachte, ob die Tesla-Fahrer im Unrecht war.” Die Experten, die er zitiert, nicht es zu kaufen, entweder. “Es ist natürlich eine FALSCHDARSTELLUNG,” Johannes Bhargava, ein UC Davis professor für Technologie-management sagte Drange. “Du bist nur im autonomen Modus in der besten Szenarien, so dass die Anzahl der Abstürze wird niedriger sein.”
(Tesla wollte nicht teilen keine Daten mit mir, entweder—Sprecherin verwies mich an den gleichen Fahrzeug-Sicherheits-Bericht.)
Als solche, es gibt absolut keinen erkennbaren Grund, Vertrauen in den safety record der Tesla-Autopilot-system und die Anteile werden nur immer höher. Moschus weiterhin alle, aber die Benutzer dazu ermuntern, schalten auf Autopilot und lassen Sie die software in seine öffentlichen Auftritte. Er bleibt also full-bore bullish auf Autopilot, so tief überzeugt von seiner Sicherheit, dass es kann Aussehen, als ob seine eigenen Personal haben muss, zog eine Weiße Haus-Mitarbeiter-in-Japan-und irgendwie versteckt seine news-feeds, dass vier Menschen gestorben sind, während der Fahrt, die mit der software aktiviert. Denn an diesem Punkt, es kommt näher Ebenen der delusionality.
Bis vor kurzem, Tesla verkauft seine Autos mit dem Versprechen, dass Sie alle gekommen sind ausgestattet mit “full self-driving hardware”—ein Satz, der war verputzt auf Ihre website, wenn ich schrieb über die aufkommende Industrie Rücksichtslosigkeit vor ein paar Monaten. Nachdem ich argumentiert, dass die Förderung der Funktion sein könnte, die Schaffung einer Kultur der glaube an das system, Tesla-PR-team wütend bestritt die Anklage in die Länge; es war wohl eine der umstrittensten Gespräche, die ich habe, beantwortete in meiner gesamten Karriere. (Nun, es sieht aus wie Sie haben mindestens angepasst, die Sprache auf der website.)
Aber Fahrer haben bereits absorbiert Tesla und Musk ist techno-Optimismus in diese Systeme, die, wieder, wir haben wenig Grund, zu Vertrauen. Bevor wir das können, hat Tesla um wirklich über die Autopilot—Anteil seiner Kollision Daten mit Sicherheit Ermittler, oder noch besser der öffentlichkeit bekannt machen; mildern die aggressive und unrealistische Autonomie-Rhetorik; seien Sie ehrlich über den Zustand seines self-driving-Ambitionen—oder ein Fünftel Autopilot fatality ist alle, aber unvermeidlich.
Teilen Sie Diese Geschichte