Loading…

motorrad unfall

Motorradfahrer verklagt General Motors nach Unfall mit autonomen Auto

Es war Morgen in San Francisco am 7. Dezember letzten Jahres, und ein selbstfahrendes Auto und ein Motorradfahrer fuhren beide die Oak Street hinunter. Das autonome Auto, ein weißer Chevy Bolt aus dem Jahr 2016, begann, einen Spurwechsel von der mittleren Spur nach links zu machen, dann brach er ab – die Lücke, in die es sich bewegte, schrumpfte. Als es in die mittlere Spur der dreispurigen Straße zurückglitt, kollidierte es mit einem Motorrad, das auf der rechten Seite vorbeigefahren war. Das Motorrad und sein Reiter fielen zu Boden.

Der Unfall löste eine Klage gegen General Motors, die das Automatisierungsunternehmen Cruise besitzt, über 75.000 Dollar ein. Der 27-jährige Kläger, Oscar Willhelm Nilsson, ging in einen Arbeitsunfähigkeitsurlaub, weil er laut Klage „Nacken- und Schulterverletzungen erlitten hat und eine langwierige Behandlung benötigt“.

Willkommen in der faszinierenden Welt der Unfälle mit Fahrzeugen, die selbstständig fahren und Entscheidungen treffen.

Das Rechtssystem muss nun feststellen, wo die Schuld liegt. In einem Bericht, den GM an die kalifornische Zulassungsstelle richtete, führt das Unternehmen unter Verweis auf einen Verkehrsbericht aus, dass „der Motorradfahrer fest entschlossen war, einen Überholversuch zu riskieren und ein anderes Fahrzeug auf der rechten Seite passieren zu lassen“. „Und die firma sagt, dass der biker war split-splitting, das ist legal in den staat und beinhaltet ein fahrer kreuzfahrten zwischen zwei straßen des verkehrs. (Lesen Sie das vollständige Dokument hier.)

Laut dem Kollisionsbericht der Polizei, von dem eine Kopie von Popular Science erhalten wurde, sagte der Fahrer der Kreuzfahrt, dass „er versuchte, die Kontrolle über das selbstfahrende Fahrzeug zu übernehmen, indem er das Rad packte, aber gleichzeitig mit dem Motorrad kollidierte.“ . „Das Wetter war klar, die Fahrbahn trocken. Die Feuerwehr brachte Nilsson ins Krankenhaus.

„Sicherheit ist unser Hauptaugenmerk, wenn es darum geht, unsere selbstfahrende Technologie zu entwickeln und zu testen“, sagte ein GM-Sprecher in einer E-Mail-Erklärung. In diesem Zusammenhang hieß es in dem SFPD-Kollisionsbericht, dass der Motorradfahrer sich in unsere Spur verschmolz um das zu tun. “

Per Telefon erreichte Sergei Lemberg, der Anwalt von Nilsson, dass „GM zu 100 Prozent für diesen Unfall verantwortlich ist“, weil ihr Auto Nilsson getroffen hat und die Aktion des automatisierten Fahrzeugs als „unvorhersehbar und gefährlich“ bezeichnet wurde.

Wie sollten wir autonome Autos beurteilen, wenn sie Unfälle verursachen?

Selbstfahrende Fahrzeuge sind im Allgemeinen als konservative Fahrer bekannt, die mehr auf Sicherheit als auf schnelles Fahren setzen.

„Heutzutage werden die meisten Unfälle zumindest teilweise durch menschliches Versagen verursacht, und da mehr und mehr Fahrentscheidungen von Mensch zu Maschine verschoben werden, werden hoffentlich mehr und mehr Unfälle verhindert“, sagt Bryant Walker Smith, Assistant Professor an der Universität von South Carolina, die die Schnittstelle zwischen Technologie und Recht studiert und sich auf autonome Fahrzeuge konzentriert. „Aber diejenigen, die nicht sind, werden zumindest teilweise durch irgendeinen Computerfehler erklärt werden.“

Wenn man über Fahrer spricht, die Fehler machen, ist ein häufig verwendetes Wort „Fahrlässigkeit“, sagt Smith, und tatsächlich behauptet die Klage, dass das Auto „fahrlässig“ gehandelt hat. Aber bei Produkten ist das Schlüsselwort „defekt“.

Und es wird sehr interessant, wenn man darüber nachdenkt, was es für ein Produkt wie ein autonomes Auto bedeutet, einen Defekt zu haben. Ein neues Phänomen, sagt Smith, ist, dass, anstatt über einen Defekt mit dem Auto selbst nachzudenken – wie ein defekter Airbag – nun ein Defekt möglicherweise in „den Entscheidungen, die das Fahrzeug macht“ gefunden werden kann.

Im Allgemeinen gibt es zwei verschiedene Wege zu versuchen, herauszufinden, ob ein automatisiertes Auto in irgendeiner Weise defekt war, sagt Smith. Eine Methode wäre, die Fahrt des Computers mit einer Person zu vergleichen und zu fragen, ob ein Mensch die Situation besser hätte bewältigen können. Und wenn das der Fall ist, ist es wahrscheinlich, dass das automatisierte System als defekt bezeichnet werden kann. Eine andere Methode wäre, das betreffende selbstfahrende Auto mit der Technik zu vergleichen, die andere selbstfahrende Fahrzeuge auf der Straße zu der Zeit haben, und in diesem Fall, wenn sich die automatisierte Technologie verbessert, wird der Sicherheitsriegel höher. (Beide Methoden werden wahrscheinlich in Fällen mit selbstfahrenden Autos verwendet werden, sagt Smith.)

Verdienen Schaltkreise unser Mitleid?

Stephen Zöpf, der geschäftsführende Direktor des Center for Automotive Research in Stanford, stimmt zu, dass eine interessante Methode zur Untersuchung von Zusammenstößen mit selbstfahrenden Fahrzeugen die Suche nach dem „kontrafaktischen“ ist. Mit anderen Worten: Fragen Sie, was passieren könnte, wenn ein Mensch hätte Ich habe das Auto anstelle des Computers gefahren und umgekehrt.

Aber psychologisch betrachtet ist das Nachdenken über Unfälle mit selbstfahrenden Autos in gewisser Weise anders, sagt Zoepf. „Wir können uns normalerweise in einen menschlichen Fahrer hineinversetzen, der einen Fehler macht“, sagt er – es ist nicht schwer, sich mental in die Situation von jemandem zu versetzen, der irgendwie hinter dem Lenkrad versagt hat. (Er berührt diese Ideen in einem aktuellen Kommentar für Reuters.)