Cruise ruft Robotaxis nach Crash zurück, aber der Rückruf ist der falsche Mechanismus

153
cruise-ruft-robotaxis-nach-crash-zurueck,-aber-der-rueckruf-ist-der-falsche-mechanismus

Ein Cruise-Robotaxi holt einen Passagier nachts ab, wenn es in Betrieb ist

KreuzfahrtIm Juni hat die „Cruise“-Einheit von General Motors, die unbemannte Robotaxis nachts in San Francisco betreibt und dabei ist, den Service zu erweitern, hatte im Juni einen Unfall mit leichten Verletzungen, als er mitten in einer Linkskurve stehen blieb und von einem zu schnell entgegenkommenden Auto seitlich erfasst wurde. Dies ist sowohl im Hinblick darauf interessant, was bei dem Unfall schief gelaufen ist, als auch in Bezug auf die Art und Weise, wie der Software-Fix auf Anfrage der National Highway Transportation Safety Agency als „Rückruf“ bezeichnet wurde.

Cruise gab diese Woche bekannt, dass sie ihren Service in San Francisco erweitern und bis Ende des

auch Phoenix und Austin anfliegen werden. .

Es ist wahrscheinlich, dass dies der erste Absturz ist kein Sicherheitsfahrer, ein Fehler im Fahrsystem und Verletzungen Dritter (sowohl Insassen als auch die im anderen Fahrzeug). Kürzlich wurden neue Details zu dem Ereignis bekannt gegeben. Über den Unfall Das Fahrzeug von Cruise hat einen Fehler gemacht, aber das andere Fahrzeug wurde laut Cruise als „am stärksten schuld“ befunden, weil es lief 30 in einem 25 Zone, und weil er auf der Rechtsabbiegespur entgegenkam, aber statt rechts abzubiegen auf die Durchgangsspur wechselte und mit hoher Geschwindigkeit über die Kreuzung fuhr. Einige Details sind im CA DMV-Bericht zu finden. Es wurden keine Vorladungen ausgestellt, aber der Vorfall wird möglicherweise noch untersucht.

Rekonstruktionen der Veranstaltung deuten darauf hin, dass das Cruise-Auto auf eine Linkskurve gehofft hatte – die berühmte „ungeschützte Linke“, die viele Teams als Herausforderung empfunden haben. Ein Prius näherte sich auf einer Spur, die eine Linksabbiegung erfordert, mit Ausnahme von Bussen und Taxis, und das Cruise-Auto ging davon aus, dass das Auto tatsächlich rechts abbiegen würde und dass es zuerst abbiegen könnte, bevor der Prius dort ankam. Der Prius war kein Taxi, aber es ist nicht bekannt, ob Cruise sich dessen sicher war oder Entscheidungen darauf stützte. Es scheint wahrscheinlich, dass der Cruise vorhergesagt hat, dass das Auto langsamer werden würde, ihm Zeit ließ, um abzubiegen, und begann mit der Kurve.

Der Prius wurde nicht langsamer, so Cruises Vorhersage Motor urteilte, dass, wenn das Cruise-Auto seine Kurve fortsetzte und der schnelle Prius sich ebenfalls drehte, der Prius in den Cruise rennen würde. Also tat der Cruise das, was er für das konservativ Richtige hielt, nämlich an der Kreuzung hart anzuhalten, was es dem Prius ermöglichen würde, nach rechts zu kommen.

Das Prius hat das nicht getan. Tatsächlich bewegte es sich zurück auf die Durchgangsspur und fuhr weiter in die Kreuzung. Man könnte annehmen, dass es immer geradeaus fahren wollte und jetzt versucht hat, dem an der Kreuzung angehaltenen Auto auszuweichen. Es tat dies nicht und traf das Heck des Cruise-Fahrzeugs, was zu leichten Verletzungen in beiden Autos führte.

Cruise gab jedoch in einer Einreichung bei der NHTSA zu, dass ihre Software falsch gehandelt hat Schuld an dem Unfall ist der Prius für seine hohe Geschwindigkeit und auf der falschen Spur. Der Cruise Bolt hätte den Unfall verhindern können, indem er entweder nicht angehalten und seine Wende beendet hätte oder indem er seine Wende gar nicht erst versucht hätte. Die meisten Robocars sind konservativ und nicht ganz bereit, Unfälle durch Beschleunigung zu vermeiden, da dies zu anderen Problemen führen kann.

Cruise lehnte es ab, die meisten Fragen zu diesem Ereignis darüber hinaus zu beantworten was in ihren Akten steht. Wie die Akte besagt, befand sich das Auto im „fahrerlosen autonomen Modus“, und Cruise bestätigt, dass dies bedeutet, dass kein Sicherheitsfahrer an Bord war. Polizeiberichten zufolge befanden sich drei Passagiere (die kostenlos fuhren) auf der Rückseite des Bolt, und einer wurde mit leichten Verletzungen kurzzeitig ins Krankenhaus gebracht. Es gab zwei im Prius, die am Tatort behandelt wurden. Da sich dieser Passagier nicht gegenüber der Presse gemeldet hat, könnte es sein, dass Cruise dieser Person Anreize geboten hat, dies nicht zu tun. Cruise verlangt keine Geheimhaltungsvereinbarungen von Fahrern.

Cruise gab an, dass dieses Problem sehr selten vorkommt und nur einmal in der Vergangenheit aufgetreten ist 250, ungeschützte Linkskurven. (Aber siehe unten, um herauszufinden, ob das gut ist.) 3 Tage später veröffentlichten sie ein Software-Update, von dem sie glauben, dass es das Problem behebt. Sie geben zu, dass es ihre Pflicht ist, mehr zu tun, um einen Unfall zu vermeiden, auch wenn sich andere Verkehrsteilnehmer schlecht verhalten, und das ist eine gute Philosophie. Die meisten selbstfahrenden Teams versuchen, Situationen mit unberechenbaren anderen Fahrern im Simulator zu schaffen und versuchen, jede mögliche Variation davon zu finden. Diese Situation ist jetzt sicherlich in Cruises Simulator und auch in den Simulatoren aller anderen großen Teams, die die Nachrichten lesen, wenn sie sie nicht bereits hatten.

Luftaufnahme der Kreuzung. Cruise Car war auf der linken Abbiegespur, Prius näherte sich in rot gestreift … Bus/Taxi nur Spur wo Autos muss rechts abbiegen.

Google/Maxaar Über den Rückruf Seltsamerweise beschrieb Cruise dieses spezielle Software-Update als „ Rückruf“ und reichte eine tatsächliche Rückrufmitteilung bei der NHTSA ein. Cruise und alle anderen Teams führen ständig Software-Updates durch, um Probleme zu beheben, obwohl es natürlich sehr selten vorkommt, dass ein Problem behoben wird, das einen Unfall verursacht hat – zum Glück. Sie führen dies nicht durch den Rückrufmechanismus. Der Rückrufmechanismus scheint aus vielen Gründen schlecht geeignet zu sein: Cruise hat Fahrzeuge nicht wirklich zurückgerufen, dh. Bitten Sie darum, dass sie an ein Servicecenter zurückgeschickt werden, um repariert zu werden. Es hat nur seinen regulären Over-the-Air-Softwareaktualisierungsprozess verwendet. GM/Cruise hat diese Fahrzeuge nie verkauft, es besitzt und betreibt sie, also kann es nicht wirklich sein, dass sie vom Kunden zurückgerufen werden. Der Rückrufprozess ist kompliziert und bürokratisch und kann es definitiv nicht für jedes Software-Update verwendet werden, auch für Updates, die ein Sicherheitsproblem beheben. Fast alle Software-Updates beheben das eine oder andere Sicherheitsproblem, nur keines, das tatsächlich einen Absturz verursacht (anstatt verursachen könnte). ) Es macht Sinn, dass diese Unfälle und ihre Behebungen gemeldet werden, und zwar Dieser Unfall wurde der kalifornischen DMV, der Polizei und der NHTSA lange vor dem Rückruf gemeldet. Die NHTSA hat Rückrufe für einige andere Softwareänderungen angefordert oder akzeptiert und muss diesen Prozess überarbeiten und rationalisieren. Während die NHTSA befugt ist, die Sicherheit von in den USA verkauften Autos zu regulieren, ist weniger klar, welche Autorität sie über Autos hat, die nicht verkauft werden. Es ist erwähnenswert, dass Cruise erst am Tag vor diesem Unfall die Erlaubnis erteilt wurde – aber noch nicht begonnen hatte –, Fahrten in seinen Autos zu verkaufen, und es könnte sinnvoll sein, Autos zu regulieren, in denen Fahrten verkauft werden (obwohl dies eher ein Staatsangelegenheit, wenn sie Staatsgrenzen nicht überschreiten.)

Früher, als Pony.AI einen Unfall in einem ihrer unbemannten Fahrzeuge hatte, entzog die DMV ihre Genehmigung in diesem Zustand zu operieren. In Ponys Fall war es ein Solo-Autounfall, eindeutig die Schuld ihres Fahrzeugs. Die unterschiedlichen Umstände können zu unterschiedlichen Maßnahmen oder Unterlassungen des DMV geführt haben. Robocar-Unfälle sind anders Dieser Crash sagt uns etwas über das unterschiedliche Muster von Unfällen in Robocars. Erste Reaktionen zeigen, dass Cruise möglicherweise weniger ausgereift ist als gewünscht. Waymo hatte einen Unfall, bei dem es sich um einen Fehler handelte , 7 Jahre nach Beginn ihres Projekts, allerdings ohne Verletzungen. Sie haben seitdem sehr wenig gehabt, obwohl sie erst kürzlich in einem Gebiet wie San Francisco schweres Auto gefahren sind. Cruise hatte in letzter Zeit eine Reihe peinlicher Fehler, darunter eine ungewöhnliche Polizeikontrolle, Autogruppen, die aufgrund eines Serverkommunikationsfehlers anhielten, ein Zwischenfall mit einem Feuerwehrauto, Beschwerden über das Abholen/Absetzen mitten im Auto Straße und frierend zu Beginn einer Fahrt für einen Reporter der Today Show. Das ist mehr, als wir bei Waymo und anderen gehört haben, und daher hoffen wir, dass dies nur Kinderkrankheiten sind. Jedes Team wird Snafus haben, und tatsächlich wird jedes Team Abstürze haben, und was zählt, ist die Häufigkeit, mit der sie passieren. was sie getan haben 2022, Meilen von Robotaxi-Service ohne Sicherheitsfahrer in San Francisco, und sie hätten im Juni weniger getan. Das ist nicht so toll, weil menschliche Fahrer in der Regel alle eine Million gefahrene Kilometer einen Unfall mit Verletzungen haben. Während Cruise als weniger schuldhaft beurteilt werden kann als der Prius-Fahrer, ist dies keine so gute Bilanz, wie wir es gerne hätten. (Ein Unfall nach, sagen wir 80, 30 Meilen bedeutet nicht, dass sie nicht eine Million Meilen vor dem machen werden der nächste, aber das ist kein gutes Omen.) Andererseits haben sie im Allgemeinen 4 Millionen Meilen zurückgelegt (mit Sicherheitsfahrern). Weil die Sicherheitsfahrer bei irgendwelchen Problemen bei den 4 Millionen Meilen eingegriffen haben, wissen wir nicht wie wie hoch die tatsächliche Unfallrate für dieses System war – das im Vergleich zum neuesten System auch ein älteres und minderwertiges System war. Im Vergleich dazu ist sicheres Fahren gut für Tesla TSLA berichtet, dass seine Kunden sicherheitsorientiert sind 40 Millionen Meilen mit dem sehr schlechten Tesla FSD und Es ist kein Bericht über einen schweren Unfall, insbesondere Verletzungen, aufgetaucht.

Der einzigartige Aspekt von Robotern wurde jedoch oben erwähnt.Cruise hat dieses Problem in 3 Tagen behoben und es wird nicht wieder vorkommen, zumindest nicht auf diese Weise Unternehmen haben dies wahrscheinlich in ihre Simulatoren eingebaut, und es wird ihnen auch nicht passieren. Unternehmen bauen riesige Bibliotheken von Simulationsszenarien auf (und tauschen sie sogar in einem Projekt, das ich mit initiiert habe.) Wenn sie dies tun, verfügen sie über Algorithmen, um das Szenario zu „fuzzen“, was bedeutet, dass alle Parameter auf unterschiedliche Weise optimiert werden müssen. Sie werden dies mit dem anderen Auto mit unterschiedlichen Geschwindigkeiten oder Spurwechseln zu unterschiedlichen Zeiten versuchen. Sie werden es versuchen, wenn sich das Cruise-Auto anders verhält. Sie werden es mit Fußgängern versuchen, die verschiedene Dinge an der Kreuzung tun, um zu testen, dass kein Problem in Tausenden von Variationen auftritt.

Das ist nicht wie Menschen. Wenn eine Person diese Art von Unfall hatte – und das passiert –, werden die Lektionen dieser Person keinen der anderen lehren. Im besten Fall könnte die Stadt im Laufe der Zeit die Regeln für die Fahrspuren oder die Geschwindigkeit verbessern, aber das wird viele Zwischenfälle erfordern. Welche Fehler auch immer Roboter machen, sie werden im Allgemeinen nur besser.

Menschen werden schlechter. Während die meisten Leute erwarten, dass junge Fahrer am wildesten sind und die meisten Unfälle haben, ist es 30 Jahre alte Fahrer, die sich tatsächlich am häufigsten umbringen – die Grafik hat eine tragische „U“-Form. Dies liegt zum Teil daran, dass ältere Fahrer gebrechlicher sind, aber es wurde auch festgestellt, dass sie mehr Unfälle erleiden, wenn ihre Fähigkeiten nachlassen. Insbesondere und bizarrerweise geraten sie aufgrund von Situationen wie dieser in ungeschützten Linkskurven in mehr Unfälle, bei denen sie vom Auto getroffen werden und nicht das Auto, das den Aufprall verursacht, obwohl es immer noch ihre Schuld ist. Roboter sollten hervorragend darin sein, die Physik dieser Situationen zu beurteilen, aber Cruises System machte zu viele Annahmen.

Dies ist auch ein klassisches Beispiel für das Vorhersageproblem. Während wir in der Robocar-Welt ständig über Sensoren sprechen, ist das Erfassen nicht das Ziel, sondern ein Mittel zum eigentlichen Ziel, nämlich der Vorhersage. Es spielt keine Rolle, wo alles jetzt ist, was zählt, ist, wo es in naher Zukunft sein wird. Cruise schätzte beide falsch ein, wohin der Prius fahren könnte, und auch, was man dagegen tun sollte, wenn sich die Situation änderte. Ich vermute, Cruises Auto ist nicht darauf programmiert, Dinge zu tun, wie vorwärts zu rasen, um den Unfall zu vermeiden, oder sogar rückwärts zu fahren. Wir haben keine Daten darüber, ob sich hinter dem Cruise Bolt ein Auto befand, aber eine Sache, die Roboter tun, ist, in alle Richtungen gleichzeitig zu schauen, und wenn es klar dahinter wäre, hätte das Auto viel schneller handeln können als ein Mensch, wer hätte das getan Ich muss in den Spiegel schauen und zum Schalthebel greifen. Ein Elektroauto, das sehr schnell und rechtzeitig beschleunigt, sollten Roboter-EVs sehr flink bei der Vermeidung von Unfällen sein – wenn sie sich trauen.

Ich sage, wenn sie sich trauen, weil die meisten Unternehmen sehr konservativ sind. Sie wollen keine plötzlichen Bewegungen machen, die eine Situation verschlimmern könnten, selbst mit 360 Grad Vision. Insbesondere viele plötzliche Bewegungen dieser Art sind technisch gesehen illegal, und sie wollen nicht absichtlich gegen das Gesetz verstoßen, insbesondere wenn es schief gehen könnte. Beispielsweise können Fußgänger jederzeit überraschend hinter Dingen hervorkommen. Wenn sie vor dich springen, ist es nicht deine Schuld, aber wenn du auf dem Bürgersteig bist, um einen Unfall zu vermeiden, ist das eine andere Geschichte. (Nein, die Autos werden niemals versuchen zu entscheiden, wen sie anfahren, wenn sie zwischen zwei Personen wählen müssen, das ist ein weit verbreiteter Mythos und eine lästige Frage, nicht etwas, das tatsächlich passiert.)

Mit der Zeit sollten Roboter in dieser Situation besser werden als Menschen. Sie werden besser darin, die Bandbreite der Dinge vorherzusagen, die andere Autos tun werden. Das Auto hätte ständig sagen sollen: „Was soll ich tun, wenn dieser Typ nicht wie vorgeschrieben abbiegt“ und sicherstellen, dass eine Maßnahme ergriffen werden kann – einschließlich Beschleunigung in der Kurve oder Rückwärtsfahren. Wenn es keine Aktion gibt, die funktionieren könnte, und das Risiko eine ausreichend hohe Wahrscheinlichkeit hat, würde das Auto warten, aber im Idealfall gibt es eine mögliche Aktion. Es ist notwendig, ein gewisses Unfallrisiko zu tolerieren, wenn andere unberechenbar handeln. Defensives Fahren ist gut, aber ein absolut defensiver Fahrer wird die Straßen mit Vorsicht blockieren, wodurch das Problem nicht gelöst wird.

Lesen/hinterlassen Sie Kommentare hier

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.