Peter Michael Bak: Automatisiertes Fahren: Warum nicht?

Kommentar zu Jan Rommerskirchen: Autos, Autonomie und Algorithmen 

Jan Rommerskirchen widmet sich in seinem Beitrag einem aktuellen Thema. Gerade erst (Juni 2017) hat die von Bundesminister Alexander Dobrindt eingesetzte Ethik-Kommission zum automatisierten Fahren dazu einen umfassenden Bericht vorgelegt, auf den Rommerskirchen auch kurz eingeht und in dem anhand von 20 Thesen Leitlinien für den Umgang mit einem automatisierten und vernetzten Fahren formuliert werden. Grundsätzlich befürworten die Autoren des Berichts den Einsatz dieser Zukunftstechnologie, „wenn sie im Vergleich zu menschlichen Fahrleistungen zumindest eine Verminderung von Schäden im Sinne einer positiven Risikobilanz verspricht“ (Ethik-Kommission, 2017, S. 10). Die Technik ist also dann zu vertreten, wenn sie zu einer Verbesserung der gegenwärtigen Situation beiträgt. Das von Jan Rommerskirchen angesprochene Dilemma, wie ein algorithmusgesteuertes Fahrzeug entscheiden soll, wenn es die Wahl zwischen mindestens zwei Übeln hat, wird in den Thesen dadurch zum Teil umgangen, dass gefordert wird, „dass kritische Situationen gar nicht erst entstehen“ sollen, wozu auch Dilemma-Situationen gehören, „also eine Lage, in der ein automatisiertes Fahrzeug vor der ‚Entscheidung‘ steht, eines von zwei nicht abwägungsfähigen Übeln notwendig verwirklichen zu müssen“ (Ethik-Kommission, 2017, S. 10). Echte dilemmatische Entscheidungen sind zudem „nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar“ (Ethik-Kommission, 2017, S. 11). Weiter wird in dem Bericht die Ansicht vertreten, dass eine „allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden“ vertretbar sein kann (Ethik-Kommission, 2017, S. 11). Gleichzeitig wird zu bedenken gegeben, dass eine “Unterwerfung unter technische Imperative“ bedenklich ist (Ethik-Kommission, 2017, S. 11). Die 20 Thesen folgen demnach einer utilitaristischen Position mit diskussionsoffenen Vorbehalten, die sich mit folgendem Satz auf den Punkt bringen lässt: „Eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden kann vertretbar sein“. Allerdings bietet der Kommissionsbericht keine Ausformulierung konkreter Randbedingungen für etwaige Programmierungen etc. und räumt zudem offene Fragen ein. Dennoch lassen sich die Thesen insgesamt im Sinne einer allgemeinen Befürwortung des autonomen Fahrens interpretieren. Ist das nun also der Anfang der „entfesselten Macht“, von der Jonas und auch Rommerskirchen in seinem Beitrag sprechen? Bedeutet der Einsatz autonomer Systeme tatsächlich das Ende unserer Freiheit? Sollten wir auf den Einsatz autonomer Technologien verzichten? Ja und Nein lautet meine Antwort. Es hängt eben von der Betrachtungsweise ab, an welcher Stelle wir unsere Freiheit bewahren möchten. Ja, es bedeutet Freiheitsverlust beispielsweise in dilemmatischen Situationen, wie Rommerskirchen sie beschreibt, wenn es darum geht, selbst und verantwortlich eine Entscheidung zu treffen, ob wir nun links oder rechts fahren. Nein, es raubt uns nicht die Freiheit, zu entscheiden, ob wir generell eine Technologie verwenden wollen, von der wir bereits im Vorhinein wissen, dass sie uns in bestimmten Situationen die Entscheidung abnehmen wird, mit allen Folgen, die das haben kann. Das ist aber keine neuartige Situation, die wir nun anhand der Aussicht auf den Einsatz autonomer Fahrsysteme zum ersten Mal führen müssten. Wir tun das ständig und obendrein ohne ethischen Diskurs. Wir benutzen permanent Technologien, die versagen können und sich dann auf nicht mehr kontrollierbare Weise auf uns und unsere Mitmenschen oder die Umwelt auswirken können. Ob Kernkraft, Flugzeug oder Computer, die Freiheit mit diesen Technologien zu tun, wofür wir auch Verantwortung übernehmen können, besitzen wir nur solange, solange die Technologie wie vorgesehen arbeiten. Tun sie es nicht, sind wir auch nicht mehr frei zu entscheiden, welche Folgen das mit sich bringt. Wir können nach Abwägen des Für und Widers nur frei entscheiden, ob wir denn die Technologien überhaupt zum Einsatz bringen wollen. Das Gleiche gilt bereits bei einer so alltäglichen Angelegenheit wie der Einnahme einer Tablette, sagen wir gegen Kopfschmerzen. Denken wir an ein so „harmloses“ Präparat wie Ibuprofen, das gerne gegen leichte und mittlere Schmerzen eingenommen wird. Schaut man sich die möglichen Nebenwirkungen an, so taucht da unter anderem auf: häufig Magenschmerzen, Übelkeit und Durchfall. Aber auch Schwindel und reversibler Verlust der Sehschärfe (www.apotheker-rundschau.de). Nehmen wir an, ich nehme aus freien Stücken das Medikament gegen Kopfschmerzen, dann bedeutet das aber nicht, dass ich auch frei wäre zu entscheiden, welche Nebenwirkungen damit verbunden sind. Und was nun, wenn mir beim Autofahren plötzlich schwindlig wird und ich dadurch einen Verkehrsunfall verursache? Bin ich selbst dann dafür verantwortlich oder der Hersteller oder die Politik, die beim Zulassungsverfahren andere Regeln hätte auferlegen müssen? Ich denke, wir würden in diesem Fall anders entscheiden. Wir wissen um die Risiken, die mit bestimmten Verhaltensweisen und dem Einsatz von Technologien (und Medikamenten) verbunden sind. Auch, dass wir im Falle des Falles die Kontrolle und damit die Entscheidungsfreiheit verlieren können. Hin und wieder sprechen wir dann auch von „technischem Versagen“ und meinen damit, dass einer Person keine Verantwortung zugeschrieben werden kann. Daraus zu folgern, dass wir besser gar keine Medikamente einnehmen sollten oder Technologien nutzen sollten, die prinzipiell auch negative Folgen nach sich ziehen können, wäre das Kind mit dem Bade auszuschütten. Es liegt nun einmal im Wesen freier Entscheidungen, dass sie a priori ein Mindestmaß an Unsicherheit bezüglich der damit verbundenen Folgen besitzen, andernfalls gäb es nichts mehr abzuwägen oder frei zu entscheiden. Die Entscheidung wäre längst und ohne Diskurs klar. Die Diskussion zum autonomen Fahren sollte also nicht bei dilemmatischen Situationen beginnen, in denen eine richtige Lösung naturgemäß nicht anzugeben ist. Vielmehr müssen wir uns fragen, welches Risiko wir generell bereit sind einzugehen, wenn wir zum Beispiel neue Technologien einsetzen möchten. Wenn sich im vorliegenden Fall sagen und empirisch bestätigen ließe, dass algorithmusgesteuerte Systeme zu einer deutlichen Verminderung von Personenschäden beitragen können, warum sollten wir uns dann für deren Benutzung nicht frei entscheiden, wenn wir das denn wollen, auch dann, wenn die Folgen nicht in jedem Einzelfall vorhergesagt werden können. Mehr noch, das Pochen darauf, in jeder Situation, also auch einer dilemmatischen, den Menschen als verantwortlichen Entscheider vorziehen zu wollen, besitzt beinahe zynische Züge. Nach welchen Kriterien würden wir die Entscheidung einer Person bewerten wollen, die vor der Wahl steht, eine oder mehrere Personen oder sich selbst aufgrund situativer Umstände opfern zu müssen? Solange wir das a priori nicht allgemeingültig angeben können, sondern erst im Nachhinein und unter Berücksichtigung der besonderen Umstände im Diskurs beurteilen möchten, bedeutet die freie Entscheidung und die damit verbundene Verantwortlichkeit letztlich nichts anderes, als ein Stochern im Nebel ohne zu wissen, welches Ziel getroffen werden soll. Jemanden dafür dann zur Rechenschaft ziehen zu wollen, das kann nicht in unserem Sinne sein. Letztlich handelt es sich dann auch nicht um eine freie Entscheidung, sondern maximal um einen juristischen Trick, um unserem Bedürfnis nach Schuldzuschreibung gerecht zu werden. Wenn wir aber einem Menschen in solchen Situationen keine Kriterien nennen können, wie er sich zu entscheiden hat, wie sollen wir das dann einer Software beibringen? So zu tun, als wäre ein menschlicher Entscheider angesichts der drei unmittelbar bevorstehenden Optionen selbst zu sterben, eine andere Person oder gar eine Gruppe anderer Personen zu töten, tatsächlich frei und könnte noch unter Abwägung aller Argumente zu einer vertretbaren Entscheidung kommen, ist aus meiner Sicht kein reales Szenario, sondern kommt am Ende einer Lotterieentscheidung vermutlich näher. Dies zumindest könnte man dann auch einer Maschine zugestehen.
Was bedeutet das nun für das von Rommerskirchen beschriebene Dilemma? Rufen wir es uns noch einmal in Erinnerung. Eine Person fährt mit einem algorithmusgesteuerten Fahrzeug auf eine Kreuzung und aus irgendeinem Grund gibt es kein Entrinnen mehr. Es muss eine Entscheidung getroffen werden. Fährt das Auto nach links, dann wird dadurch eine Person getötet. Fährt es nach rechts, werden gleich mehrere Personen getötet. Fährt es geradeaus, dann wird der Fahrer selbst zum Opfer. Mit Rommerskirchen fragen wir uns: Wer soll eigentlich hier die Entscheidung treffen? Der Nutzer, der Hersteller oder die Politik? Wie kann man sich den Implementierungsprozess einer solchen Entscheidung vorstellen? Dazu lässt sich ganz im Einklang mit der bisher geführten Argumentation sagen, dass es zunächst darum geht, die Wahrscheinlichkeit des Eintreffens solcher Situationen zu minimieren gilt. Sollte dann doch eine solche Situation entstehen, dann entscheidet der Algorithmus des Fahrzeugs nach dem Zufallsprinzip. Das Zufallsprinzip ist in diesem Fall das überlegene Prinzip, da erstens die Frage, wer zu opfern ist, a priori nicht für jeden Fall eindeutig festgelegt werden kann und zweitens auch die die menschliche Entscheidung in einer solchen Extremsituation eher durch zufällige Prozesse, Gedanken, Gefühle, Geistesblitze etc. getroffen wird und mit einer freien Entscheidung unter Abwägung aller Möglichkeiten nichts zu tun hat. Der Nutzer entscheidet demnach in der Situation selbst zwar nicht mehr, aber er entscheidet sich im Vorfeld für die Nutzung eines solchen Fahrzeugs. Er nimmt die Zufallsentscheidung also in Kauf, wobei er nicht für die Entscheidung des Fahrzeugs verantwortlich gemacht werden kann. Das mag auf den ersten Blick wie ein Trick aussehen, um Verantwortung aus dem Weg zu gehen. Aber können wir in solch einer ausweglosen Situation überhaupt von Verantwortung sprechen? Ich behaupte mit dem Verweis auf die Unentscheidbarkeit und die nicht vorhandene Entscheidungsfreiheit nein. Es stellt sich nur noch die Frage, wer für die Programmierung des Zufallsgenerators zuständig ist und wer überhaupt darüber entscheidet, wann er zur Anwendung kommen soll. Wie beispielsweise bei der Marktzulassung von Medikamenten muss das die Legislative regeln. Der Gesetzgeber entscheidet hier, welche Randbedingungen erfüllt sein müssen, damit ein Medikament auf dem Markt zugelassen werden darf. Die Hersteller müssen sich entsprechend daranhalten und z. B. eine Reihe klinischer Studien vorlegen. Wenn dabei bestimmte Kriterien erfüllt sind, dann darf das Medikament auf den Markt. Über die Einnahme des Medikaments ist damit jedoch noch nicht entschieden. Dies bleibt dem Patienten vorbehalten. Eine ähnliche Regelung wäre auch beim algorithmusgesteuerten Auto denkbar. Der Gesetzgeber gibt die Randbedingungen vor, unter denen ein solches Auto zugelassen werden darf, unter welchen Umständen welcher Algorithmus greifen muss und wie hoch überhaupt die Wahrscheinlichkeit sein darf, dass ein solcher Fall auftritt. Die Hersteller setzen diese Vorgaben um. Der Nutzer entscheidet für sich, ob er das Fahrzeug nutzen möchte oder nicht (oder ob er bei nächstbester Gelegenheit gleich eine andere Legislative wählt). Das ist in vielen Kontexten ein völlig üblicher Vorgang. Denken wir kurz an die pränatale Diagnostik. Bei der Fruchtwasseruntersuchung zur Vorhersage bestimmter Krankheiten, die in der Regel zwischen der 15. und 18. Schwangerschaftswoche durchgeführt wird, wird mit einer dünnen Nadel durch die Bauchdecke Fruchtwasser entnommen, das Zellen des Kindes enthält. Diese werden dann z. B. auf Chromosomenabweichungen untersucht. Das Risiko einer Fehlgeburt wird zwischen 0,2 und 1% angegeben (www.pnd-beratung.de). Zwar wird es im Nachhinein Erklärungen geben, warum es zu einer Fehlgeburt kam, im Vorhinein ist es eine Frage des Zufalls. Die meisten sehen den Zufall als geringeres Übel an und entscheiden sich für die Untersuchung. Weiter ist der Einwand, dass wegen der Implementierung des Zufallsprinzips kein Mensch ein algorithmusgesteuertes Fahrzeug nutzen würde oder auch nur wünscht, einem solchen Fahrzeug im Straßenverkehr zu begegnen, zwar durchaus nachvollziehbar, sollte aber mit der richtigen Alternative kontrastiert werden. Denn, so unangenehm der Gedanke sein mag, dass in manchen Situationen der Zufall über Leben und Tod entscheidet, so unangenehm ist die gegenwärtige Situation, denkt man nur kurz darüber nach. Ständig begegnen wir nämlich Personen im Straßenverkehr, von denen wir nicht wissen, wie sie sich gleich entscheiden werden, wenn sie auf uns treffen. Bleiben sie in der Spur? Lassen sie uns durch oder handelt es sich womöglich doch um einen selbstmordgefährdeten Menschen? Wird der Fahrer gleich zum Handy greifen oder sich eine Zigarette anzünden und mich dabei übersehen? Zieht man also reine Wahrscheinlichkeiten zu Rate, dann kann unser Verkehrswesen mit algorithmusgesteuerten Fahrzeugen deutlich sicherer werden und die Wahrscheinlichkeit, zufälliges Opfer eines schlechten, abgelenkten, übermüdeten Fahrers zu werden, deutlich gesenkt werden, was für ethische Fragen zwar nicht unbedingt eine Maßgabe ist, aber durchaus sein kann, zumal, wenn wir hinnehmen, dass ethische Fragen ohnehin im Diskurs beantwortet werden müssen. Was uns heute noch als unvorstellbar erscheint, das wird morgen schon als Normalität angesehen werden. Warum sollte das im vorliegenden Fall anders sein als bei der Einführung anderer Technologien. Anstatt Entscheidungsalgorithmen also a priori und kategorisch auszuschließen, könnte es fruchtbarer sein, sich über den Ablauf, Kriterien und Randbedingungen Gedanken zu machen, die den Einsatz dieser Technologie ermöglichen könnten. In diesem Sinne hat die Ethikkommission einen ersten Schritt gemacht. Der Teufel steckt dabei im Detail. Ob die dann allerdings noch ethische Fragen betreffen oder nur noch praktische, dass mag der Leser nun gerne selbst beurteilen.

 

Literaturverzeichnis

Ethik-Kommission (2017): Ethik-Kommission – Automatisiertes und vernetztes Fahren. Von Bundesministerium für Verkehr und digitale Infrastruktur. Unter https:// www.bmvi.de/SharedDocs/DE/Anlage/Presse/084-dobrindt-bericht-der-ethik-kommission.html?nn=12830. Abgerufen am 22. Juni 2017

http://www.apotheken-umschau.de/Medikamente/Ibuprofen-Wirkung-Anwendung-Nebenwirkungen-530943.html. Abgerufen am 22. Juni 2017

http://www.pnd-beratung.de/was-ist-pnd/invasive-untersuchungen/fruchtwasseruntersuchung/. Abgerufen am 22. Juni 2017

 

Hier gibt’s die PDF-Version des Fachartikels