Archivierter Artikel vom 21.07.2016, 18:46 Uhr
Berlin

Autopilot: Wenn das Auto von allein fährt

Die Fahrt in den Urlaub ist ja so einfach, wenn Vater, Mutter, Sohn und Tochter die Sitze zueinander drehen und Karten spielen, während das Auto computer- und internetgesteuert den besten, schnellsten und sichersten Weg zum Ziel findet. So soll Autofahren nicht in 100, sondern schon in zehn Jahren funktionieren.

Mit dem Autopiloten über die Autobahn – was vor gar nicht allzu langer Zeit noch wie eine ferne Vision klang, rückt zunehmend in den Bereich der Realität. Die Versuche laufen. Wann die Systeme wirklich zuverlässig alltagstauglich sind, ist noch in der Schwebe.
Mit dem Autopiloten über die Autobahn – was vor gar nicht allzu langer Zeit noch wie eine ferne Vision klang, rückt zunehmend in den Bereich der Realität. Die Versuche laufen. Wann die Systeme wirklich zuverlässig alltagstauglich sind, ist noch in der Schwebe.
Foto: fotolia

Von unserem Berliner Korrespondenten Gregor Mayntz

Und weil das ein Geschäft ist, bei dem es für die innovativ führende deutsche Autoindustrie Hunderte Milliarden Euro zu verdienen gibt, drückt Verkehrsminister Alexander Dobrindt (CSU) aufs Tempo, will er schon in Kürze einen Gesetzentwurf vorlegen, der Autofahrern und Autobauern Rechtssicherheit gibt. Doch beim Gesetzesmachen musste er nun von Autopilot auf Handbetrieb umschalten. So einfach ist die schöne neue Autowelt nämlich nicht zu regeln.

Rechtsexperten sind sich uneins

Aus einer ganzen Reihe verschiedener interner Arbeitsentwürfe des Verkehrsministeriums geht nämlich hervor, dass sich die Rechtsexperten selbst noch nicht einig sind, wie die Rechtssicherheit wasserdicht wird. Das jüngste unserer Redaktion vorliegende Papier kennt gleich mehrere Varianten für eine Erweiterung der Straßenverkehrsordnung. Im Kern soll der Fahrer seine Verpflichtungen erfüllen, wenn er sich zwar während der Fahrt anderen Dingen zuwendet, aber „derart wahrnehmungsbereit ist, dass er sowohl die Fahrzeugführung nach Aufforderung durch das automatisierte System im Kraftfahrzeug wieder übernehmen als auch auf erkennbare technische Störungen angemessen reagieren“ kann. SPD-Fraktionsvize Sören Bartol tritt vorsichtshalber auf die Gesetzesbremse. „Ich rate dazu, Schnellschüsse in der Diskussion über rechtliche Änderungen zu vermeiden. Es sind noch viele Fragen offen“, sagt er unserer Redaktion. Und er macht dabei sogleich den Widerspruch einer Technik im Pionierstatus deutlich, indem er zwei Forderungen markiert. Ein Autofahrer könne nicht für Fehler der Technik haften, wenn diese ein Fahrzeug steuert. „Wenn der Fahrer die Hände vom Lenkrad nimmt und die Technik übernimmt, muss klar geregelt sein, für was der Autofahrer verantwortlich ist“, unterstreicht Bartol. Angesichts der derzeit noch beschränkten Fähigkeiten der Technik müsse der Fahrer aber „immer in der Lage sein, in kritischen Situationen rechtzeitig die Steuerung des Autos wieder zu übernehmen“.

Damit ist die große Bandbreite der aktuellen technischen Fähigkeiten angesprochen. Der gute alte Tempomat, der sich nur um die Geschwindigkeit und sonst nichts kümmert, hat mit automatisiertem Fahren nicht viel zu tun – die Einparkfunktion sowie die nach Abstand und Geschwindigkeit selbst regelnde Stop-and-Go-Technik schon mehr. Aber: Das alles sind noch Assistenzsysteme, noch keine Autopiloten.

Die hat der US-Autobauer Tesla seit vergangenem Herbst in sein Model S eingebaut, um – so die Werbebotschaft – die „Autobahnfahrten nicht nur sicherer, sondern auch stressfreier zu gestalten“. Das Unternehmen sicherte sich ab mit dem Hinweis, dass der Autofahrer immer aufmerksam sein und wenn nötig zum Eingreifen bereit sein müsse. Doch erste Unfälle zeigen, dass die Autofahrer die Fähigkeiten des Systems überschätzen. So landete ein Auto beim nächtlichen Befahren einer Bergstraße in einem Graben. Dass der Fahrer zuvor mindestens zwei Minuten seine Hände nicht am Lenkrad gehabt habe, sei ein Verstoß gegen die Nutzungsbedingungen gewesen, erläuterte das Unternehmen. Tesla war zuvor schon wegen eines tödlichen Verkehrsunfalles mit eingeschaltetem Autopiloten in die Schlagzeilen geraten. Anfang Mai war der Wagen unter einen Lastwagenanhänger gerast. Offenbar hatte das System das Hindernis für ein Verkehrsschild gehalten.

Menschliches Versagen als Hauptfehlerquelle

Die Unfälle vermitteln nach Einschätzung von Verkehrsexperten ein schräges Bild. Tatsächlich verspreche die verstärkte Nutzung automatisierter Fahrzeuge ein Mehr an Sicherheit. 90 Prozent der Unfälle mit Personenschaden seien auf menschliches Fehlverhalten zurückzuführen, weniger als 1 Prozent auf technische Fehler, heißt es denn auch in den Erläuterungen zum Gesetzentwurf.

Ministerium und Autoindustrie halten Eile für geboten. In vielen Ländern steckten konkurrierende Systeme in der Alltagserprobung. Für die Lösung der Haftungsfragen sei eine Blackbox dringend erforderlich, für die sich die Autobauer natürlich einen international einheitlichen Standard wünschen. Ungern will sich Dobrindt dabei von fortgeschrittenen Systemen anderer Nationen vor vollendete Tatsachen stellen lassen. Deshalb soll Deutschland in Sachen Rechtssicherheit ganz vorne stehen und eindeutig regeln, wie der Nachweis zu führen ist, zu welchem Zeitpunkt jeweils Mensch oder Maschine am Lenker ist.

Doch die Sache wird noch komplizierter, weil es auch um schwierige ethische Fragen geht. Wie soll der Autopilot für Situationen programmiert werden, in denen Bremsen nicht mehr hilft, sondern nur noch abruptes Ausweichen? Und dann links ein einzelner Mensch überfahren würde und rechts eine ganze Gruppe? Oder links ein alter Mensch und links ein junger? Dürfen also Algorithmen in das Grundrecht auf Leben eingreifen, das eigentlich für alle gleich sein muss, in der Programmierung dann aber unterschieden wird?