Automatisches Fahren : Wie soll das Auto entscheiden?

Schöne neue Welt – so könnte autonomes Fahren in der Zukunft aussehen. Grafik: xoio GmbH
1 von 2
Schöne neue Welt – so könnte autonomes Fahren in der Zukunft aussehen. Grafik: xoio GmbH

In 15 Jahren werden selbstfahrende Mobile auf den Straßen rollen. Forscher sind dabei, den Roboter-Wagen das Entscheiden im Notfall beizubringen

svz.de von
04. Mai 2017, 21:00 Uhr

Chris Gerdes denkt viel nach über Computer auf vier Rädern. Also über selbstfahrende Autos. Sogar dann, wenn er mit dem Rennrad über die Hügel von San Francisco kurvt. Neulich hatte er wieder so einen Geistesblitz: Die Autos, die ihn überholten, wichen aus, sie überfuhren die doppelt durchgezogene Mittellinie. Würde ein selbstfahrendes Auto das auch tun, fragte er sich. Die kalifornische Straßenverkehrsordnung verbietet das Kreuzen der Mittellinie. Das Computer-Hirn im Fahrzeug würde sich wohl an die Regeln halten. „Wir haben hier also ein gelerntes menschliches Verhalten, das gesellschaftlich sogar erwartet wird: Platz machen für Fahrradfahrer. Das aber eigentlich nicht legal ist“, sagt Gerdes, Professor an der Elite-Universität Stanford. „Wie bringen wir einen solchen erwünschten Regelbruch dem autonomen Auto der Zukunft bei? Und macht die Mittellinie für ein Roboter-Fahrzeug überhaupt noch Sinn?“ Gerdes geht davon aus, dass ein autonomes Auto die Situation besser einschätzen kann als jeder Mensch. Der Wagen beobachtet die Umwelt mit Sensoren und Kameras. Das Auto wird den Radfahrer also sowieso nur überholen, wenn ihm nichts entgegenkommt. Und es wird dem Radler so viel Raum wie möglich geben. Für Autos ohne Fahrer werden Fahrbahnmarkierungen in Zukunft also womöglich unbedeutend werden.

Gerdes forscht in der US-Technologie-Hochburg, im Silicon Valley, zu selbstfahrenden Autos. Mit Doktoranden steht er regelmäßig an einer Teststrecke. Gerade untersuchen sie, wie Shelley, ein umgerüsteter Forschungs-Audi mit unerwarteten Situationen umgeht. Zum Beispiel damit, dass hinter jedem am Straßenrand parkenden Auto plötzlich ein erwachsener Fußgänger oder gar ein Kind hervorlaufen kann. „Wir werden nie ein perfektes System bauen“, räumt Gerdes ein. „Aber wir müssen versuchen, es so sicher wie möglich zu machen.“

Bei der mühsamen Kleinarbeit an der Schaltzentrale der Zukunftsautos stellen sich die Forscher viele Fragen. So bekam Gerdes vor einiger Zeit eine E-Mail von Patrick Lin, einem Philosophieprofessor in San Luis Obispo, gelegen auf halber Strecke zwischen San Francisco und Los Angeles. „Denken Sie auch über all die ethischen Fragen nach, die die autonomen Autos uns bringen werden?“, wollte Lin wissen. Seitdem forschen die beiden Wissenschaftler gemeinsam. Der Philosoph entwirft ein Szenario, der Ingenieur sucht nach technischen Antworten. Zum Beispiel: Stellen wir uns vor, unser Auto kommt in eine Gefahrensituation und kann einem Crash nur noch entgehen, indem es nach links ausweicht. Dort würde der Wagen eine achtzigjährige Großmutter töten. Er könnte auch nach rechts umlenken, wo er in ein achtjähriges Mädchen steuern würde. Wie soll das Auto entscheiden? Der Philosoph Lin sagt: „Es gibt nicht die einzig richtige Antwort hier, das liegt in der Natur des ethischen Dilemmas.“

Der Autobranche selbst sind solche Fragen spürbar unangenehm. Die Hersteller betonen, Autos würden nicht dahin programmiert, zwischen Opfertypen zu unterscheiden. Vielmehr sollen die Fahrzeuge jede Kollision vermeiden, erst recht mit ungeschützten Fußgängern und Radfahrern.

Ein wichtiges Argument für mehr Sicherheit, wenn der Computer die Kontrolle übernimmt, ist die traurige Realität auf den Straßen: Sowohl in den USA als auch in Deutschland ist der Mensch am Steuer für die Masse der Unfälle verantwortlich. Experten erwarten, dass es durch autonome Fahrzeuge drastisch weniger Unfälle geben wird. Trotzdem fordert Philosophieprofessor Lin eine gesellschaftliche Diskussion über die ethischen Fragen: „Wie kommen die Programmierer zu ihrer Entscheidung? Haben sie die Konsequenzen durchdacht?“ Lin rät, dass die Autoindustrie über ethische Fragen offen sprechen sollte. „Macht sie das nicht, wird dieses Informationsvakuum von anderen mit Spekulationen und Ängsten gefüllt werden.“

Für einen Aufschrei sorgte im Mai 2016 der erste tödliche Unfall mit einem gerade vom Computer gesteuerten Tesla im US-Staat Florida. Der Wagen war nicht komplett autonom, er fuhr im sogenannten Autopilot-Modus. Dabei handelt es sich um ein ausgeklügeltes Assistenzsystem, das vom Fahrer bewusst angeschaltet werden muss und dann unter anderem Spur und Abstand halten soll. Die US-Verkehrsbehörde NHTSA stellte in ihrem Untersuchungsbericht fest, das Assistenzsystem habe wie zugesichert funktioniert, der Fahrer hätte sich aber nicht auf die Technik verlassen dürfen.

Auch Roboter-Wagen geraten in Unfälle – meistens fahren unachtsame Menschen auf die korrekt fahrenden Testautos auf. Anfang 2016 jedoch provozierte ein Google-Auto selbst einen Blechschaden, als es beim Umfahren eines Hindernisses einem Bus in den Weg steuerte.

Aktuell sorgt noch fast jeder Zwischenfall für Schlagzeilen. Experten erwarten, dass diese Phase mit mehr Wagen und immer besserer Technik vergehen wird. 2016 jedoch fürchteten sich drei von vier Amerikanern davor, von einem selbstfahrenden Auto durch die Gegend chauffiert zu werden. Bei den Deutschen ist die Skepsis ähnlich groß.

Dabei war es ausgerechnet ein Deutscher, der die Roboter-Wagen-Welle entscheidend anschob: Sebastian Thrun war Professor für Künstliche Intelligenz in Stanford und entwickelte den autonomen Wagen Stanley auf Basis eines VW Touareg. Später engagierte ihn Google, um für den Konzern den ersten Prototypen zu bauen. Google startete 2009 Tests mit Roboter-Wagen auf der Straße und setzte mit dem Projekt auch etablierte Autokonzerne unter Zugzwang. Seit Kurzem stellt die Google-Schwesterfirma Waymo Familien selbstfahrende Minivans für den Alltag zur Verfügung.

Auch die großen deutschen Autobauer forschen im Silicon Valley und sind mit Testlizenzen unterwegs. So will BMW 2021 gemeinsam mit Intel ein vollautonomes Auto auf die Straße bringen. Der Mann für ethische Fragen im BMW-Konzern, Dirk Wisselmann, berichtet, dass man viel an Szenarien arbeite, wie sie der Philosoph Lin entwirft. Zugleich versichert er, dass ein Algorithmus – also eine Computerregel – mit Wertungen wie „Kind geht vor Großmutter“ niemals in ein deutsches Auto hinein programmiert werden dürfte. „Das verstößt gegen das Grundgesetz. Die Antwort kann immer nur lauten: Sachschaden vor Personenschaden.“ Weil allgemein davon ausgegangen wird, dass vollautonome Wagen oft langsam unterwegs sein werden, sieht Wisselmann keine große Gefahr für Fußgänger. „Bei 30 Kilometer pro Stunde in der Innenstadt ergibt sich ein Bremsweg von etwa vier Metern. Bei dieser Geschwindigkeit bleiben etwa 50 Zentimeter, die ein Auto nach links oder rechts ausweichen könnte. Also, wie realistisch ist dann ein solch dramatisches Szenario noch?“

Nach den ersten Kollisionen wird über Roboter-Autos viel diskutiert. Dabei ist oft vom roten Not-Knopf die Rede. Damit könnte der Mensch im Krisenfall die Kontrolle wieder übernehmen. Stanford-Professor Gerdes hält menschliches Eingreifen für keine gute Idee. „Die meisten Unfälle werden heute dadurch verursacht, dass wir Menschen falsch auf unvorhergesehene Situationen reagieren.“ Mit dem Notfallknopf bekomme man die Kontrolle zum schlechtestmöglichen Zeitpunkt. „Nein, das Auto sollte seine eigenen Entscheidungen treffen können oder zu einem sicheren Stand kommen.“

Autonom fahrende Autos müssen in brenzligen Situationen schnell und richtig reagieren.
Foto: Daniel Neupold
Autonom fahrende Autos müssen in brenzligen Situationen schnell und richtig reagieren.
 

Automatisches Fahren: Neues Gesetz in Deutschland

Deutschland gibt Gas bei der Zulassung des automatischen Fahrens. Ende März machte der Bundestag den Weg dafür frei, dass in Autos künftig Computer Fahrfunktionen übernehmen dürfen. Der Mensch am Steuer muss aber immer eingreifen können. Der Entwurf von Verkehrsminister Alexander Dobrindt (CSU) muss noch durch den Bundesrat, der sich am 12. Mai mit dem Thema beschäftigen wollte.

Das neue Gesetz soll die Zulassung von Autos erlauben, bei denen technische Systeme zeitweise die Steuerung kontrollieren. Der Fahrer soll dann die Hände vom Lenkrad nehmen können – etwa um im Internet zu surfen. Dabei muss er jedoch im Notfall jederzeit wieder Steuer und Bremsen in Sekundenschnelle bedienen können. Zum reinen Fahrgast kann der Autofahrer also vorerst bei uns nicht werden. Zudem soll das Computer-Auto eine Art Blackbox wie im Flugzeug bekommen, in der Fahrdaten über drei Jahre gespeichert werden.

Verbraucherschützer warnen vor zu viel Verantwortung des Fahrers. Es dürfe nicht vollmundig mit einem Autopiloten geworben werden, wenn die Systeme ständig überwacht werden müssten. Bei Fragen nach dem Haftungsrisiko stellt Minister Dobrindt klar: „Wenn der Computer fährt, dann haftet am Schluss der Hersteller.“ Datenschützer wollen zudem genauer wissen, welche Informationen konkret im elektronischen Fahrtenschreiber gespeichert werden dürfen.

Der Druck von der Industrie, schnell den gesetzlichen Rahmen für das automatische Fahren zu schaffen, ist groß.

Im Herbst 2016 hatte Dobrindt eine Ethikkommission einberufen, die bis zum Sommer Regeln für Roboter-Autos aufstellen soll. Daran sollen sich Programmierer orientieren können.

zur Startseite

Gefällt Ihnen dieser Beitrag? Dann teilen Sie ihn bitte in den sozialen Medien - und folgen uns auch auf Twitter und Facebook:

Kommentare

Leserkommentare anzeigen