Peter Michael Bak: Automatisiertes Fahren: Warum nicht?

Kommentar zu Jan Rommerskirchen: Autos, Autonomie und Algorithmen 

Jan Rommerskirchen widmet sich in seinem Beitrag einem aktuellen Thema. Gerade erst (Juni 2017) hat die von Bundesminister Alexander Dobrindt eingesetzte Ethik-Kommission zum automatisierten Fahren dazu einen umfassenden Bericht vorgelegt, auf den Rommerskirchen auch kurz eingeht und in dem anhand von 20 Thesen Leitlinien für den Umgang mit einem automatisierten und vernetzten Fahren formuliert werden. Grundsätzlich befürworten die Autoren des Berichts den Einsatz dieser Zukunftstechnologie, „wenn sie im Vergleich zu menschlichen Fahrleistungen zumindest eine Verminderung von Schäden im Sinne einer positiven Risikobilanz verspricht“ (Ethik-Kommission, 2017, S. 10). Die Technik ist also dann zu vertreten, wenn sie zu einer Verbesserung der gegenwärtigen Situation beiträgt. Das von Jan Rommerskirchen angesprochene Dilemma, wie ein algorithmusgesteuertes Fahrzeug entscheiden soll, wenn es die Wahl zwischen mindestens zwei Übeln hat, wird in den Thesen dadurch zum Teil umgangen, dass gefordert wird, „dass kritische Situationen gar nicht erst entstehen“ sollen, wozu auch Dilemma-Situationen gehören, „also eine Lage, in der ein automatisiertes Fahrzeug vor der ‚Entscheidung‘ steht, eines von zwei nicht abwägungsfähigen Übeln notwendig verwirklichen zu müssen“ (Ethik-Kommission, 2017, S. 10). Echte dilemmatische Entscheidungen sind zudem „nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar“ (Ethik-Kommission, 2017, S. 11). Weiter wird in dem Bericht die Ansicht vertreten, dass eine „allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden“ vertretbar sein kann (Ethik-Kommission, 2017, S. 11). Gleichzeitig wird zu bedenken gegeben, dass eine “Unterwerfung unter technische Imperative“ bedenklich ist (Ethik-Kommission, 2017, S. 11). Die 20 Thesen folgen demnach einer utilitaristischen Position mit diskussionsoffenen Vorbehalten, die sich mit folgendem Satz auf den Punkt bringen lässt: „Eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden kann vertretbar sein“. Allerdings bietet der Kommissionsbericht keine Ausformulierung konkreter Randbedingungen für etwaige Programmierungen etc. und räumt zudem offene Fragen ein. Dennoch lassen sich die Thesen insgesamt im Sinne einer allgemeinen Befürwortung des autonomen Fahrens interpretieren. Ist das nun also der Anfang der „entfesselten Macht“, von der Jonas und auch Rommerskirchen in seinem Beitrag sprechen? Bedeutet der Einsatz autonomer Systeme tatsächlich das Ende unserer Freiheit? Sollten wir auf den Einsatz autonomer Technologien verzichten? Ja und Nein lautet meine Antwort. Es hängt eben von der Betrachtungsweise ab, an welcher Stelle wir unsere Freiheit bewahren möchten. Ja, es bedeutet Freiheitsverlust beispielsweise in dilemmatischen Situationen, wie Rommerskirchen sie beschreibt, wenn es darum geht, selbst und verantwortlich eine Entscheidung zu treffen, ob wir nun links oder rechts fahren. Nein, es raubt uns nicht die Freiheit, zu entscheiden, ob wir generell eine Technologie verwenden wollen, von der wir bereits im Vorhinein wissen, dass sie uns in bestimmten Situationen die Entscheidung abnehmen wird, mit allen Folgen, die das haben kann. Das ist aber keine neuartige Situation, die wir nun anhand der Aussicht auf den Einsatz autonomer Fahrsysteme zum ersten Mal führen müssten. Wir tun das ständig und obendrein ohne ethischen Diskurs. Wir benutzen permanent Technologien, die versagen können und sich dann auf nicht mehr kontrollierbare Weise auf uns und unsere Mitmenschen oder die Umwelt auswirken können. Ob Kernkraft, Flugzeug oder Computer, die Freiheit mit diesen Technologien zu tun, wofür wir auch Verantwortung übernehmen können, besitzen wir nur solange, solange die Technologie wie vorgesehen arbeiten. Tun sie es nicht, sind wir auch nicht mehr frei zu entscheiden, welche Folgen das mit sich bringt. Wir können nach Abwägen des Für und Widers nur frei entscheiden, ob wir denn die Technologien überhaupt zum Einsatz bringen wollen. Das Gleiche gilt bereits bei einer so alltäglichen Angelegenheit wie der Einnahme einer Tablette, sagen wir gegen Kopfschmerzen. Denken wir an ein so „harmloses“ Präparat wie Ibuprofen, das gerne gegen leichte und mittlere Schmerzen eingenommen wird. Schaut man sich die möglichen Nebenwirkungen an, so taucht da unter anderem auf: häufig Magenschmerzen, Übelkeit und Durchfall. Aber auch Schwindel und reversibler Verlust der Sehschärfe (www.apotheker-rundschau.de). Nehmen wir an, ich nehme aus freien Stücken das Medikament gegen Kopfschmerzen, dann bedeutet das aber nicht, dass ich auch frei wäre zu entscheiden, welche Nebenwirkungen damit verbunden sind. Und was nun, wenn mir beim Autofahren plötzlich schwindlig wird und ich dadurch einen Verkehrsunfall verursache? Bin ich selbst dann dafür verantwortlich oder der Hersteller oder die Politik, die beim Zulassungsverfahren andere Regeln hätte auferlegen müssen? Ich denke, wir würden in diesem Fall anders entscheiden. Wir wissen um die Risiken, die mit bestimmten Verhaltensweisen und dem Einsatz von Technologien (und Medikamenten) verbunden sind. Auch, dass wir im Falle des Falles die Kontrolle und damit die Entscheidungsfreiheit verlieren können. Hin und wieder sprechen wir dann auch von „technischem Versagen“ und meinen damit, dass einer Person keine Verantwortung zugeschrieben werden kann. Daraus zu folgern, dass wir besser gar keine Medikamente einnehmen sollten oder Technologien nutzen sollten, die prinzipiell auch negative Folgen nach sich ziehen können, wäre das Kind mit dem Bade auszuschütten. Es liegt nun einmal im Wesen freier Entscheidungen, dass sie a priori ein Mindestmaß an Unsicherheit bezüglich der damit verbundenen Folgen besitzen, andernfalls gäb es nichts mehr abzuwägen oder frei zu entscheiden. Die Entscheidung wäre längst und ohne Diskurs klar. Die Diskussion zum autonomen Fahren sollte also nicht bei dilemmatischen Situationen beginnen, in denen eine richtige Lösung naturgemäß nicht anzugeben ist. Vielmehr müssen wir uns fragen, welches Risiko wir generell bereit sind einzugehen, wenn wir zum Beispiel neue Technologien einsetzen möchten. Wenn sich im vorliegenden Fall sagen und empirisch bestätigen ließe, dass algorithmusgesteuerte Systeme zu einer deutlichen Verminderung von Personenschäden beitragen können, warum sollten wir uns dann für deren Benutzung nicht frei entscheiden, wenn wir das denn wollen, auch dann, wenn die Folgen nicht in jedem Einzelfall vorhergesagt werden können. Mehr noch, das Pochen darauf, in jeder Situation, also auch einer dilemmatischen, den Menschen als verantwortlichen Entscheider vorziehen zu wollen, besitzt beinahe zynische Züge. Nach welchen Kriterien würden wir die Entscheidung einer Person bewerten wollen, die vor der Wahl steht, eine oder mehrere Personen oder sich selbst aufgrund situativer Umstände opfern zu müssen? Solange wir das a priori nicht allgemeingültig angeben können, sondern erst im Nachhinein und unter Berücksichtigung der besonderen Umstände im Diskurs beurteilen möchten, bedeutet die freie Entscheidung und die damit verbundene Verantwortlichkeit letztlich nichts anderes, als ein Stochern im Nebel ohne zu wissen, welches Ziel getroffen werden soll. Jemanden dafür dann zur Rechenschaft ziehen zu wollen, das kann nicht in unserem Sinne sein. Letztlich handelt es sich dann auch nicht um eine freie Entscheidung, sondern maximal um einen juristischen Trick, um unserem Bedürfnis nach Schuldzuschreibung gerecht zu werden. Wenn wir aber einem Menschen in solchen Situationen keine Kriterien nennen können, wie er sich zu entscheiden hat, wie sollen wir das dann einer Software beibringen? So zu tun, als wäre ein menschlicher Entscheider angesichts der drei unmittelbar bevorstehenden Optionen selbst zu sterben, eine andere Person oder gar eine Gruppe anderer Personen zu töten, tatsächlich frei und könnte noch unter Abwägung aller Argumente zu einer vertretbaren Entscheidung kommen, ist aus meiner Sicht kein reales Szenario, sondern kommt am Ende einer Lotterieentscheidung vermutlich näher. Dies zumindest könnte man dann auch einer Maschine zugestehen.
Was bedeutet das nun für das von Rommerskirchen beschriebene Dilemma? Rufen wir es uns noch einmal in Erinnerung. Eine Person fährt mit einem algorithmusgesteuerten Fahrzeug auf eine Kreuzung und aus irgendeinem Grund gibt es kein Entrinnen mehr. Es muss eine Entscheidung getroffen werden. Fährt das Auto nach links, dann wird dadurch eine Person getötet. Fährt es nach rechts, werden gleich mehrere Personen getötet. Fährt es geradeaus, dann wird der Fahrer selbst zum Opfer. Mit Rommerskirchen fragen wir uns: Wer soll eigentlich hier die Entscheidung treffen? Der Nutzer, der Hersteller oder die Politik? Wie kann man sich den Implementierungsprozess einer solchen Entscheidung vorstellen? Dazu lässt sich ganz im Einklang mit der bisher geführten Argumentation sagen, dass es zunächst darum geht, die Wahrscheinlichkeit des Eintreffens solcher Situationen zu minimieren gilt. Sollte dann doch eine solche Situation entstehen, dann entscheidet der Algorithmus des Fahrzeugs nach dem Zufallsprinzip. Das Zufallsprinzip ist in diesem Fall das überlegene Prinzip, da erstens die Frage, wer zu opfern ist, a priori nicht für jeden Fall eindeutig festgelegt werden kann und zweitens auch die die menschliche Entscheidung in einer solchen Extremsituation eher durch zufällige Prozesse, Gedanken, Gefühle, Geistesblitze etc. getroffen wird und mit einer freien Entscheidung unter Abwägung aller Möglichkeiten nichts zu tun hat. Der Nutzer entscheidet demnach in der Situation selbst zwar nicht mehr, aber er entscheidet sich im Vorfeld für die Nutzung eines solchen Fahrzeugs. Er nimmt die Zufallsentscheidung also in Kauf, wobei er nicht für die Entscheidung des Fahrzeugs verantwortlich gemacht werden kann. Das mag auf den ersten Blick wie ein Trick aussehen, um Verantwortung aus dem Weg zu gehen. Aber können wir in solch einer ausweglosen Situation überhaupt von Verantwortung sprechen? Ich behaupte mit dem Verweis auf die Unentscheidbarkeit und die nicht vorhandene Entscheidungsfreiheit nein. Es stellt sich nur noch die Frage, wer für die Programmierung des Zufallsgenerators zuständig ist und wer überhaupt darüber entscheidet, wann er zur Anwendung kommen soll. Wie beispielsweise bei der Marktzulassung von Medikamenten muss das die Legislative regeln. Der Gesetzgeber entscheidet hier, welche Randbedingungen erfüllt sein müssen, damit ein Medikament auf dem Markt zugelassen werden darf. Die Hersteller müssen sich entsprechend daranhalten und z. B. eine Reihe klinischer Studien vorlegen. Wenn dabei bestimmte Kriterien erfüllt sind, dann darf das Medikament auf den Markt. Über die Einnahme des Medikaments ist damit jedoch noch nicht entschieden. Dies bleibt dem Patienten vorbehalten. Eine ähnliche Regelung wäre auch beim algorithmusgesteuerten Auto denkbar. Der Gesetzgeber gibt die Randbedingungen vor, unter denen ein solches Auto zugelassen werden darf, unter welchen Umständen welcher Algorithmus greifen muss und wie hoch überhaupt die Wahrscheinlichkeit sein darf, dass ein solcher Fall auftritt. Die Hersteller setzen diese Vorgaben um. Der Nutzer entscheidet für sich, ob er das Fahrzeug nutzen möchte oder nicht (oder ob er bei nächstbester Gelegenheit gleich eine andere Legislative wählt). Das ist in vielen Kontexten ein völlig üblicher Vorgang. Denken wir kurz an die pränatale Diagnostik. Bei der Fruchtwasseruntersuchung zur Vorhersage bestimmter Krankheiten, die in der Regel zwischen der 15. und 18. Schwangerschaftswoche durchgeführt wird, wird mit einer dünnen Nadel durch die Bauchdecke Fruchtwasser entnommen, das Zellen des Kindes enthält. Diese werden dann z. B. auf Chromosomenabweichungen untersucht. Das Risiko einer Fehlgeburt wird zwischen 0,2 und 1% angegeben (www.pnd-beratung.de). Zwar wird es im Nachhinein Erklärungen geben, warum es zu einer Fehlgeburt kam, im Vorhinein ist es eine Frage des Zufalls. Die meisten sehen den Zufall als geringeres Übel an und entscheiden sich für die Untersuchung. Weiter ist der Einwand, dass wegen der Implementierung des Zufallsprinzips kein Mensch ein algorithmusgesteuertes Fahrzeug nutzen würde oder auch nur wünscht, einem solchen Fahrzeug im Straßenverkehr zu begegnen, zwar durchaus nachvollziehbar, sollte aber mit der richtigen Alternative kontrastiert werden. Denn, so unangenehm der Gedanke sein mag, dass in manchen Situationen der Zufall über Leben und Tod entscheidet, so unangenehm ist die gegenwärtige Situation, denkt man nur kurz darüber nach. Ständig begegnen wir nämlich Personen im Straßenverkehr, von denen wir nicht wissen, wie sie sich gleich entscheiden werden, wenn sie auf uns treffen. Bleiben sie in der Spur? Lassen sie uns durch oder handelt es sich womöglich doch um einen selbstmordgefährdeten Menschen? Wird der Fahrer gleich zum Handy greifen oder sich eine Zigarette anzünden und mich dabei übersehen? Zieht man also reine Wahrscheinlichkeiten zu Rate, dann kann unser Verkehrswesen mit algorithmusgesteuerten Fahrzeugen deutlich sicherer werden und die Wahrscheinlichkeit, zufälliges Opfer eines schlechten, abgelenkten, übermüdeten Fahrers zu werden, deutlich gesenkt werden, was für ethische Fragen zwar nicht unbedingt eine Maßgabe ist, aber durchaus sein kann, zumal, wenn wir hinnehmen, dass ethische Fragen ohnehin im Diskurs beantwortet werden müssen. Was uns heute noch als unvorstellbar erscheint, das wird morgen schon als Normalität angesehen werden. Warum sollte das im vorliegenden Fall anders sein als bei der Einführung anderer Technologien. Anstatt Entscheidungsalgorithmen also a priori und kategorisch auszuschließen, könnte es fruchtbarer sein, sich über den Ablauf, Kriterien und Randbedingungen Gedanken zu machen, die den Einsatz dieser Technologie ermöglichen könnten. In diesem Sinne hat die Ethikkommission einen ersten Schritt gemacht. Der Teufel steckt dabei im Detail. Ob die dann allerdings noch ethische Fragen betreffen oder nur noch praktische, dass mag der Leser nun gerne selbst beurteilen.

 

Literaturverzeichnis

Ethik-Kommission (2017): Ethik-Kommission – Automatisiertes und vernetztes Fahren. Von Bundesministerium für Verkehr und digitale Infrastruktur. Unter https:// www.bmvi.de/SharedDocs/DE/Anlage/Presse/084-dobrindt-bericht-der-ethik-kommission.html?nn=12830. Abgerufen am 22. Juni 2017

http://www.apotheken-umschau.de/Medikamente/Ibuprofen-Wirkung-Anwendung-Nebenwirkungen-530943.html. Abgerufen am 22. Juni 2017

http://www.pnd-beratung.de/was-ist-pnd/invasive-untersuchungen/fruchtwasseruntersuchung/. Abgerufen am 22. Juni 2017

 

Hier gibt’s die PDF-Version des Fachartikels 

Jan Rommerskirchen: Autos, Autonomie und Algorithmen – eine Erwiderung

Ich danke den Kollegen Peter Michael Bak und Lutz Becker für ihre Kommentare zu meinem Beitrag Autos, Autonomie und Algorithmen. Beide Kollegen sprechen sich für eine Zulassung sogenannter Autonomer Auto aus und widersprechen meiner kritischen Position in dieser Frage. Zu den Kommentaren möchte ich an dieser Stelle eine kurze Erwiderung geben.

Meine beiden Kernargumente gegen die Zulassung Autonomer Autos lauten: a) Es ist nicht ersichtlich, wer die Verantwortung für die Programmierung der Algorithmen übernehmen kann und darf, und b) gibt keine ethisch vertretbare Programmierung für Dilemma-Situationen. Die Kommentatoren müssten somit die aus diesen Kernargumenten folgenden Fragen schlüssig beantworten: a‘) Wer darf über die Programmierung des Algorithmus entscheiden? b‘) Wie soll der Algorithmus in einer Dilemma-Situation entscheiden?

Die erste Frage (a‘) beantwortet Bak mit dem Vorschlag, die Legislative mit der Entscheidungsfindung zu beauftragen. Damit die Abgeordneten eine Entscheidung über mögliche Optionen treffen können, muss daher die zweite Frage (b‘) zuerst beantwortet werden.

Hierzu antwortet der Kollege Bak mit dem Vorschlag, den Zufall entscheiden zu lassen. Angesichts der Kontingenz menschlicher Entscheidungen ein praktikabler Vorschlag. Der Algorithmus soll also mal für den Schutz der Passanten, mal für den Schutz des Fahrers und seiner Beifahrer entscheiden. Mit anderen Worten: In einer gefährlichen Fahrsituation entscheidet der Algorithmus nicht begründet über Leben und Tod, sondern er würfelt. Die Passanten haben ebenso wie der Fahrer und seine Beifahrer eine fünfzigprozentige Chance zu überleben.

Peter Michael Bak verweist in seinem Kommentar auf die Medizintechnik und Medikamente. Hier geht es aber nicht um Kopfschmerzen, sondern um Leben und Tod. Ehrlicherweise müsste die Analogie dann lauten: Wenn ein Patient an einer lebensgefährlichen Krankheit leidet und ein neues Medikament würde eine fünfzig prozentige Chance auf Heilung versprechen – und eine fünfzig prozentige Chance, an dem Medikament zu sterben -, wer würde dieses Medikament dann zulassen, welcher Arzt würde es verschreiben und welcher Patient würde es einnehmen? Jeder muss diese Frage für sich entscheiden, aber in ethischen Fragen ist ein solches russisches Roulette zynisch und keinesfalls ein ernsthaftes Angebot für technischen oder medizinischen Fortschritt.

Hinzu kommt ein zweites Problem: Nachdem die Begeisterung über den Komfortvorteil Autonomer Autos abgeklungen sein wird und die Menschen nach einem Unfall die Schlagzeile „Auto tötet Fahrer“ auf den Titelseiten der Zeitungen gelesen haben werden, wird die Skepsis einsetzen. Und ein psychologischer Effekt: die Verlustaversion. Die Erkenntnisse der Neuen Erwartungstheorie lassen zumindest erwarten, dass der gewonnene Komfort die Risiken eines würfelnden Algorithmus nicht aufwiegen wird. Die Angst vor dem (zufälligen) Verlust des eigenen Lebens und dem der Beifahrer (Freunde, Ehepartner, Kinder) wird durch einige wenige Unfälle und entsprechende Schlagzeilen sehr schnell zur Ablehnung der neuen Technik führen. Die autonome Funktion wird nicht mehr eingeschaltet werden und Menschen, die sich von Algorithmen fahren lassen, werden als egoistische Hedonisten diskreditiert. Und dann werden die ersten Städte beraten, ob man die Fahrer Autonomer Autos zwingen will, ihre Fahrzeuge vor den Toren der Stadt zu parken.

Können Abgeordnete nun über diesen Algorithmus beschließen und somit die Frage nach der Entscheidungsinstanz (a‘) beantworten? Da es weder um Kopfschmerzen noch um Restrisiken im Promillebereich geht, scheint mir der Vorschlag von Peter Michael Bak erneut ungeeignet. Dass das deutsche Parlament ein Gesetz beschließt, welches das Leben und die Unversehrtheit seiner Bürger dem utilitaristischen Zufallskalkül eines Algorithmus überantwortet, ist nicht nur politisch unwahrscheinlich, sondern auch ein klarer Verstoß gegen die verfassungsrechtliche Garantie der Menschenwürde, zu deren Schutz die Abgeordneten verpflichtet sind.

Insofern sehe bei den Kommentaren keine schlüssige Widerlegung meiner Argumente. Für eine weiterhin notwendige Debatte in der Hochschule und in der Gesellschaft über die Legitimation und die Limitation neuer Techniken bieten die Beiträge den Lesern aber hoffentlich eine Anregung.

 

Hier gibt’s die PDF-Version des Fachartikels 

Lutz Becker: Plädoyer für Prometheus und das autonome Fahren

Kommentar zu Jan Rommerskirchen: Autos, Autonomie und Algorithmen 

Die Angst vor neuer Technik und durch sie induzierte Kontrollverluste zieht sich als anthropologische Konstante durch das Weltgeschehen. Als im Jahr 1898 das Londoner Kaufhaus Harrods die erste Rolltreppe in Betrieb nahm, gab es für diejenigen, die den Todesmut aufbrachten, dieses Höllengerät zu benutzen, anschließend einen von einem Mitarbeiter gereichten Brandy zur Beruhigung.

50 Jahre zuvor, es war der 16. und 17. März 1948, war es einer meiner Vorfahren, der offensichtlich als einer der Rädelsführer am Solinger Maschinensturm mitgewirkt hat. Nach dem Vorbild der Ludditen rotteten sich aufgebrachte Bürger zusammen, um den neu aufkommenden billig und schnell arbeitenden Gießereien im Bergischen den Garaus zu machen (ausführlich Rosenthal, 1972, S. 352 ff.). Ähnlich wie in England rekrutierten sich die Bergischen Ludditen wohl weniger aus den Entrechteten, Armen und Abgehängten, sondern es handelte sich wohl eher um eine konservative Mittelschicht, die um Status, Bequemlichkeit und Privilegien fürchtete, wie ein Blick auf die Textilarbeiter („Cropper“) im England des frühen 19. Jahrhunderts zeigt: „These workers had great control over when and how they worked—and plenty of leisure. ‚The year was chequered with holidays, wakes, and fairs; it was not one dull round of labor,‘ as the stocking-maker William Gardiner noted gaily at the time. Indeed, some ’seldom worked more than three days a week.‘ Not only was the weekend a holiday, but they took Monday off too, celebrating it as a drunken ‚St. Monday.'“ (Thomson, 2017, o. S.)Die Angst vor neuer Technik und durch sie induzierte Kontrollverluste zieht sich als anthropologische Konstante durch das Weltgeschehen. Als im Jahr 1898 das Londoner Kaufhaus Harrods die erste Rolltreppe in Betrieb nahm, gab es für diejenigen, die den Todesmut aufbrachten, dieses Höllengerät zu benutzen, anschließend einen von einem Mitarbeiter gereichten Brandy zur Beruhigung.

Ist es vielleicht die Angst vor Kontrollverlusten, gepaart mit (Partikular-) Interesse, das Widerstände gegen das Neue, wie derzeit das Autonome Fahren, schürt? Geht es bei allen Gedanken um Robotik und Autonome Systeme nicht vorrangig darum, dass diffuse Technologieängste moralisch überhöht werden, um Pfründe und Privilegien zu sichern? Um der Ludditen neue Kleider?

Wenn wir vor dem Hintergrund dieser Fragen über autonome Verkehrssysteme sprechen, müssen wir zwei Szenarien unterscheiden. Einmal ein streng ökonomisches Szenario, vor allem die Fahrt über Land und über die Autobahn betreffend. Hier ist es das originäre Interesse von Industrie und Handel, dass der Fluss der Waren reibungslos abläuft. Es sind nicht nur die typischen LKW Unfälle, die Logistikketten stören und standortübergreifende Wertschöpfung zum Erliegen bringen. Autonome LKWs benötigen keine Ruhezeiten, schreiben keine Urlaubsanträge und werden nicht krank. Und in der Gewerkschaft sind sie erst recht nicht. Mit Aufrüstsätzen für LKWs (https://www.zf-zukunftsstudie.de/autonomer -lkw-zum-nachruesten) kommt die Logistikbranche ihrem feuchten Traum von Seamless Logistics einen gewaltigen Schritt näher, und im Zweifel setzt sich dann die Technologie durch, die den vermeintlich höchsten Rationalisierungsvorteil bietet.

Das zweite Szenario, mit dem ich mich hier näher beschäftigen möchte, betrifft die sich ändernde Stadt. Mein akademischer Lehrer Peter Ulrich spricht mit seinem Koautoren Edgar Fluri in Anlehnung an C. W. Churchman und E. Jantzsch vom „Ethos ganzer Systeme” (Fluri, 1995, 69), den ich hier als #Ethos1 bezeichnen möchte. Das Verhalten einer Institution kann demnach dann als „gut“ oder „angemessen“ gelten, wenn es eine Verbesserung des jeweils übergeordneten Systems, insbesondere im Sinne von Gesamt-Wohlfahrt, ermöglicht oder bewirkt. Der daraus resultierende Imperativ bezieht sich auf die Relativität herkömmlicher Begründungen und Rechtfertigungen unseres Handelns: dass wir alles, was wir tun, aus einer integrierten Perspektive mehrerer (Akteurs-) Ebenen betrachten und bewerten sowie Entscheidungen immer von einer höheren Warte her treffen sollen. (vgl. Becker, L., 2011).

Dies vorausgeschickt, sollten wir Mobilität nicht isoliert als Technologie, sondern in ihren sozio-ökonomischen Kontexten betrachten, denn: „Zugang, Gesundheit und Lebensqualität spielen im Wertekanon moderner Stadtbewohner eine zunehmende Rolle. Städte, die im globalen Wettbewerb um kluge Köpfe und Arbeitskräfte stehen, werden sich vor diesem Hintergrund sicher auch zu einer Art ‚Dienstleister für Daseins und Lebensqualität’ entwickeln müssen“ (Rammler 2017 S.165).

In Städten wie Kopenhagen, Oslo oder Utrecht wird die Dominanz des individuellen Autoverkehrs ganz grundsätzlich in Frage gestellt. Aus dieser Perspektive scheinen auch bei uns Helikoptereltern in SUV auf dem Bürgersteig vor dem Kindergarten genauso die Legitimation zu verlieren, wie Menschen, die mehr als 1,5 Tonnen Masse (in etwa das Leergewicht eines Passat Kombi) auf einer Strecke von vielleicht 500 Metern von A nach B  und wieder zurück in Bewegung setzen, nur um eine Tüte Brötchen von 180 Gramm von B nach A zu bekommen. Selbst wenn dieses Auto ein Tesla S wäre, bei Bedarf autonom fahren und vielleicht noch das Lenkrad wegklappen könnte, hätte solche Absurditäten in diesem Szenario keinen Platz mehr.

Stattdessen stellt sich die Frage nach intermodalen Verkehrskonzepten „zugunsten von Leitbildern der funktional gemischten, aufgelockerten und multimodalen Stadt und einer menschen- statt autogerechten Verkehrsplanung“ (Rammler 2017 S.165). Und genau dieses Denken ist es doch, das die im Sinne des von Jonas (1984, 36) eingeforderten ethischen Imperativs, die Permanenz des echten (sic!) menschlichen Lebens auf Erden wieder neu erschließt. (#Ethos2)

Es sei aber auch in Erinnerung gerufen, dass nicht nur Hans Jonas einen ethischen Imperativ formulierte. Der von Heinz von Foerster (2007) formulierte ethische Imperativ (#Ethos3) besagt, dass man stets so handeln solle, dass die Zahl der Möglichkeiten wächst, dies verstanden im Sinne einer qualitativen Freiheit (Dierksmeier 2016) des Suchens und Auswählens und nicht im Sinne quantitativer Maximierung. Denn nur so schaffen wir uns die Möglichkeit des Wählens und Entscheidens: es geht um manifestierte Freiheit. Ist es nicht die Chance der Befreiung, die Funktion des Mobilitätssystems aufrecht erhalten zu müssen, in dem man, nicht als „Dressierter Gorilla“ (um ganz bewusst den auf Fredrick Winslow Taylor, 2011, zurückgehenden Terminus zu verwenden) am Lenkrad stumpfsinnige Algorithmen, wie Schalten, Bremsen bei Rot oder Gas geben bei Grün, abarbeitet und mit der lächerlichen Machtillusion in Form des dichten Auffahrens oder des provozierend hupen Könnens belohnt wird.

Der Wuppertaler Unternehmer und Vizepräsident der Bergischen IHK, Jörg Heynkes (https://joergheynkes.de), betrachtet den Übergang von fossilen Antrieben zu elektrischen und autonomen Fahrzeugen als Übergangstechnologie zur Schwarmmobilität (vgl. Becker/Sohn, 2016). Autonomie in Verbindung mit der Trennung von Eigentum und Nutzung. Folgt man Jörg Heynkes, ist nicht der selbstfahrende Luxus-Mercedes mit Entertainment, drehbarem Fahrersitz und wegklappbarem Lenkrad (https://www.mercedes-benz.com/de/mer-cedes-benz/inno-vation/autonomes-fahren) die Zukunft, sondern das kleine kugelige Google Auto (https://de.m.wikipedia.org/wiki/ Waymo) ohne Lenkrad und viel Gedöns. Heynckes verweist dabei auf seine Heimatstadt Wuppertal, in der bei etwa 350.000 Einwohnern rund 200.000 Fahrzeuge zugelassen sind, die im Schnitt mehr als 23,6 Stunden einfach nur unbenutzt stehen. Dafür gibt es nur in Wuppertal laut Heynckes etwa 630.000 Stellplätze was in etwa einer Fläche von 7.875.000 Quadratmetern und damit mehr als tausend Fußballfelder nur für Parkraum entspricht. Die gleiche Mobilitätsleistung könne mit etwa 20-25.000 Schwarmmobilen nahezu ohne Stellplätze erbracht werden, und das bei 80 % geringeren Mobilitätskosten, umweltfreundlich und leise. Dies eröffnet uns nicht nur neue Möglichkeiten der Innenstadtgestaltung und -belebung, sondern auch eine ganz neue Mobilität, in der etwa der Kneipenbesuch keine Gefahr mehr für den Führerschein (soweit es dann noch so etwas geben sollte) darstellt, oder in der auch Senioren oder Menschen mit Beeinträchtigungen endlich individuelle und sichere Mobilität ermöglicht wird. Mehr Stille und gute Luft sind so gesehen allenfalls nur angenehme Begleiterscheinungen.

Die wahre Moral[1] des Digitalen heißt „Lernen“ (#Ethos4). Das von Jan Rommerskirchen diskutierte Trolley Problem ist, wie viele andere ethische Probleme rund um das autonome Fahren, akademisch hochinteressant, aber in der Praxis völlig irrelevant.

Niemand möchte sich heute die Folgen eines Zusammenstoßes zwischen einem Matiz und einem Q7 vorstellen. Welche Insassen da den Kürzeren ziehen, ist von vornherein klar: Sicherheit ist in der Geschichte des Autos immer eine Frage des Geldes und der Sonderausstattungen gewesen, und genau das kann sich jetzt zum Guten wenden. Vorausgeschickt sei zunächst, dass der Algorithmus selbst frei jeglicher ethischen Überlegungen ist: er tut – zumindest noch auf absehbare Zeit[2] – nur das, wofür er programmiert wurde. Genauso, wie ein Zug, der auf seinen Schienen fährt. Wenn das System die Kontrolle verliert, kann man es zwingen, in einen eingefrorenen Zustand („Not-Aus“) zu gehen oder völlig abstrakte Regeln, wie „erst rechts dann links“ zu verwenden, womit ethische Überlegungen per se außen vor bleiben. Die Sicherheit wird zudem im Rahmen der so genannten Absicherung anhand vorgegebener Testprozeduren[3] sowie anhand statistischer Methoden des Qualitätsmanagements festgelegt.  Es stellt sich gar nicht die Frage, ob Politik, Hersteller oder Fahrer, entscheiden, sondern nur die Frage, wie die Normen zustande kommen und wie ihre Einhaltung kontrolliert wird. Insofern sind Sicherheit und Schutz der Insassen keine ethische Frage, sondern vorrangig eine statistische Größe.

Zur Haftungsfrage gibt es geeignete und erweiterbare juristische Konstrukte, so wie in der „juristischen Person“, die am 1. Januar des Jahres 1900 im Bürgerlichen Gesetzbuch verankert wurde. Spätestens damit wurde die „nützliche Fiktion“, wie sie Hans Vaihinger (2007) in seiner „Philosophie des Als Ob“ ausbreitet, im Gesetz eingeführt, um einem abstrakten System quasi-menschliche Eigenschaften zu verleihen. Nicht nur, dass damit dem Fiktionalisierungsprinzip und weiteren Gestaltungsmöglichkeiten[4] Tür und Tor geöffnet wurde, sondern es stehen auch noch zahlreiche Ideen bezüglich der Versicherbarkeit des statistischen Restrisikos (https://www.heise.de/autos/artikel/Autonomes-Fahren-aendert-Versicherung-2582698.html?artikelseite=2) im Raum. Aber all das ist hier gar nicht mal entscheidend. Auch nicht entscheidend, aber dennoch wichtig zu erwähnen, ist dagegen, dass die Fahrer von der Verantwortung für andere und möglicherweise schwächere Verkehrsteilnehmer, die sie vielleicht schon aus gesundheitlichen Gründen gar nicht wahrnehmen können, befreit werden. Und möglicherweise noch wichtiger, werden sie quasi ex ante vom Stigma der Schuld befreit.

Entscheidend für die Praxis ist aber etwas ganz anderes: nämlich, dass digitale Systeme (im Gegensatz zu menschlichen Chauffeuren, man denke an alkoholisierte Wiederholungstäter oder notorische Raser[5]) auf vielen unterschiedlichen Wegen systemisch lernen. Man nehme als Beispiel den tragischen Unfall eines Tesla aus dem Jahr 2016, als ein quer zur Fahrbahn stehender LKW-Auflieger vom Autopiloten nicht als Hindernis identifiziert wurde. Ist das notwendige Update an alle Teslas verteilt, wird kein Tesla auf dieser Welt nie und niemals den gleichen Fehler wieder machen. Das heißt, autonome Systeme werden uns in die Lage versetzen, die Zahl der Unfälle gegen Null laufen zu lassen und damit die vor allem in Schweden propagierte „Vision Zero“ zu realisieren (https://www.itf-oecd.org/vision-zero-conference-2017). Denn autonome Systeme fahren zudem weder betrunken, noch unter Drogen, telefonieren nicht am Steuer und übersehen keine Stauenden, sie leiden nicht unter Hypoglykämie und missachten keine Verkehrsregeln, wenn aufgrund von Termindruck oder Testosteronschüben die Impulskontrolle aussetzt.

#Ethos5: „Unsere mögliche Moral heißt kulturelle Bildung“. So lautet der Titel eines Sammelbandes von Reinhard Pfriem (2007) und ist das leitende Argument für die Rehabilitation des (modernen) Prometheus. Zeus hat nicht nur den Menschen das Feuer und damit Gemeinschaft und Geborgenheit am Feuer, die Wärme und die Kunst der Metallverarbeitung und alle daraus resultierende Freiheiten vorenthalten. Er ist den schlichtesten und unredlichsten Weg, nämlich den das Diktats, gegangen. Zeus hat es versäumt, und das wäre seine hehre Aufgabe als Weltenlenker gewesen, inklusive Institutionen (etwa im Sinne von Acemoglu/Johnson/Robinson, 2005; Becker, L., 2017) zu schaffen[6] und stattdessen den Menschen entmündigt und ihm die Möglichkeit versagt, im Umgang mit dem Feuer kulturelle Praktiken und Kompetenzen zu entwickeln. Genauso wie uns die automobile Gesellschaft des 20. Jahrhunderts längst entmündigt hat, uns die Gelegenheit nimmt, auf unsere kulturelle Bestimmung zurückzuziehen, weil sie das Primat des Automobilen tief in unserer Kultur verankert hat, das Auto zum neuzeitlichen Golden Kalb stilisiert und die Städte und ihre Menschen dem Auto zum Untertan gemacht hat. Ist es nicht das Schalten, Lenken, Gas geben und Bremsen auf der einen Seite und die ständige Flucht des Fußgängers vor dem Auto, das uns als Teil der Maschine entmündigt? Sind es nicht die Feinstaub fressenden Kinder in unseren Städten, denen wir wieder die Freiheit zum Spiel auf der Straße geben sollten? Sollten wir autonome Systeme und Roboter nicht endlich als Chance begreifen, der Maschine zu entfliehen und unser Leben zu entfalten? Soll ein System, das seit 80 Jahren unser Leben dominiert, in unserer Jahrtausende alten Kulturgeschichte also nicht mehr als ein Wimpernschlag ist, wirklich das Ende der Fahnenstange sein?

Die autonomen Systeme sind Chance und Verpflichtung zugleich, unsere Institutionen, Regimes und kulturellen Praktiken (ausführlich: Becker, 2017) in Frage zu stellen. „The automation revolution is possible, but without a radical change in the social conventions surrounding work it will not happen“ so Paul Mason, P. (2017) – die wahre Dystopie ist eine Gesellschaft, in der wir die Techniken – oder die wenigen, die die Techniken beherrschen –- nicht beherrschen. Eine Gesellschaft, die die neuen Techniken hat, aber nach überkommenden Regeln lebt und regiert wird. Therapeutische Systemkorrekturen reichen genau so wenig aus, wie technologische Innovationen, die ein bestehendes System nur effizienter machen. Es geht letztlich um „Transformative Wirksamkeit“ (Brocchi, 2017), darum, dass am Ende im Sinne der fünf hier beschrieben Ethea die richtigen Dinge getan werden.

Die Konzentration auf das von Jan Rommerskirchen diskutierte Trolley Problem verschließt uns die Augen vor den Problemen einer höheren Ebene, vor den wirklich relevanten Fragen, wie: Was geschieht mit unseren Daten? Wer beherrscht die Algorithmen? Wem gehören die Daten[7]? Wem geben wir die Kontrolle[8]?

Es geht beim autonomen Fahren nicht darum, luxuriöse Dolce-Vita-Mobilität für besonders Begüterte zu schaffen, sondern die Mobilitätsbedürfnisse der gesamten Gesellschaft im Kontext anderer Bedürfnisse und eines gelingenden Lebens zu ermöglichen. Da sollten wir versuchen, die Lehren aus dem zu ziehen, was wir in Kopenhagen, Oslo oder Utrecht beobachten können: „The upshot of the Copenhagen story is that smart city institutions matters as much as innovative urban techniques and tactics. There is a better way to grow, govern and finance our cities that will require a burst of institutional and operational innovation not seen in decades“ (Katz, B./Noring, L., 2017).

Nicht Prometheus, so mein Gegenplädoyer zu Jan Rommerskirchen, ist der wahre Täter, sondern Zeus. Ihn sollten wird als ideologischen Wegbereiter des Ludditentums auf die Anklagebank schicken. Hat er es aus niederem Anlass, nämlich seine Privilegien und seine Pfründe zu sichern, doch fahrlässig oder vorsätzlich versäumt, den Menschen inklusive Institutionen an die Hand zu geben. Mit seinem misslungenen Versuch, dem Menschen das Feuer zu entziehen, ihnen die Entwicklung und wirtschaftlichen Wertschöpfungspotenzialen und damit die Chancen auf ein besseres Leben vorzuenthalten, handelte er kurzsichtig und verantwortungslos. Es war die typische Fehlleistung der Etablierten und der Mächtigen.

Nur das Neue gibt uns auch die Chance, die alte philosophische Frage nach einem guten und gelingenden Leben neu zu stellen. Mit der autonomen Mobilität eröffnet sich diese Chance, nutzen wir sie.

 

[1] Moral und Ethik werden hier weitestgehend synonym verwendet, zur Unterscheidung der Begriffe ausführlicher: Becker, 2012

[2] Bis zu dem Zeitpunkt, an dem Computer in der Lage sein werden, sich selbst zu verbessern – wir sprechen auch von „technologischer Singularität“ (Vinge, 1993)

[3] Als Beispiel für ein auf Absicherung spezialisiertes Unternehmen sei die Telemotive AG genannt: https://www.telemotive.de/de/engineering/leistungsspektrum/
car2road/  (04.07.17)

[4] An dieser Stelle sei darauf verwiesen, dass die Rechtswissenschaften interpretative Wissenschaft sind, die durchaus in der Lage sein sollten und sind, Jahrhunderte alte Rechtsgrundsätze aufzugeben oder zu reinterpretieren, wenn sich die gesellschaftlichen Bedingungen ändern. Die aktuelle Diskussion um die „Ehe für Alle“ sei hier als Beispiel genannt. Übrigens wurde meines Wissens noch nie ein Lokführer wegen einer Entgleisung verurteilt, allenfalls nur dann, wenn er seine Interventionsmöglichkeiten zur Vermeidung eines Unfalls fahrlässig außer Acht lies.

[5] 2015 führte in 366.448 Fällen durch ein Fehlverhalten (!) von Fahrzeugführern zu Personenschäden. Diese Zahl übersteigt zum Beispiele die Einwohnerzahlen von Bochum oder Wuppertal.  Dazu zählen unter anderem 12.660 Fälle von Alkoholeinfluss, ungenügender Abstand (50.667), nicht angepasste Geschwindigkeit (47.024), Nichtbeachten der Vorfahrt (53.361). Quelle: https://www.destatis.de/DE/ ZahlenFakten/Wirtschaftsbereiche/TransportVerkehr/Verkehrs-unfaelle/Tabellen/FehlverhaltenFahrzeugfuehrer.html (27.06.17)

[6] In dieser Beziehung war der Göttervater auf dem Olymp mit Verlaub ein gnadenloser Stümper, wie die griechische Mythologie mit ihren nie enden wollenden Machtspielen, Rankünen, Intrigen und Ungerechtigkeiten eindrucksvoll belegt. Es soll auch nicht unerwähnt bleiben, dass die Dichotomie zwischen Prometheus laisser-faire und seiner „Invisible Hand“ (um den Terminus von Adam Smith, 1977, zu verwenden) als Gegenentwurf zum Zeusschen Regime als vermeintlich intelligentem Design die ökonomische Diskussion bis heute prägt. Siehe auch Becker, 2012.

[7] Daten werden gerne als Währung der Zukunft bezeichnet, wobei „Gegenwart“ wohl treffender wäre. Wenn aber ökonomische Wertschöpfung über personenbezogene Daten geschieht, wem stehen die geschöpften Werte zu? Zum Beispiel wäre eine genossenschaftliche Verwertung der von dem Verkehrsteilnehmer erzeugten Daten ein zu diskutierendes Modell. Und was ist mit dem Staat, sollte es künftig statt der Rohölsteuer eine Daten- bzw. Transaktionssteuer auf Daten geben?

[8] Ohne an dieser Stelle im Detail darauf eingehen zu können: Um das Entstehen zentralistischer Steuerungen und wirtschaftlicher Oligopole zu verhindern, sind andere Fragen viel entscheidender. Etwa die Frage, wem die Daten gehören und wer sie wirtschaftlich verwerten darf. Dabei ist auf Datenhygiene, also Datenvermeidung und Datensparsamkeit achten. Grundsätzlich sind Schwarmsysteme (peer-to-peer) zentralistischen Lösungen der Mobilität vorzuziehen.

 

Literaturverzeichnis

Acemoglu, Daron; Johnson, Simon; Robinson, James A. (2005): Institutions as a Fundamental Cause of Long-Run Growth; In: Aghion, P./Durlauf, D. (eds.): Handbook of Economic Growth, Vol. I.: Amsterdam. Elsevier: 386-472.

Becker, L. (2011): Occupy verstehen. http://blog.karlshochschule.de/2011/10/18/occupy-verstehen/ 18. August. (25.06.17).

Becker, L. (2012): Warum Manager sich keine Gedanken über Moral machen sollten, in: Becker, L./Hakensohn, H./Witt, F. (Hg.): Unternehmen nachhaltig führen – Führung, Verantwortung und Nachhaltigkeit im Management, Düsseldorf (Symposion).

Becker, L. (2017): Transformation, Kultur und das Digitale. Transformative Wissenschaft als Grenzgang. In: Pfriem, R./Schneidewind, U.: Transformative Wissenschaft (Arbeitstitel). Erscheint 2017 bei Metropolis. Marburg.

Becker, L./Sohn, G. (2016): Utopie-Podcast #KönigVonDeutschland. Folge 01 mit Jörg Heynckes.  https://soundcloud.com/gsohn/der-utopie-podcst-konigvondeutschland-folge-01-mit-jorg-heynkes (26.01.17).

Brocchi, D. (2017): Urbane Transformation. Zum guten Leben in der eigenen Stadt. Bad Homburg VAS – Verlag für akademische Schriften.

Dierksmeier, C. (2016): Qualitative Freiheit. Selbstbestimmung in weltbürgerlicher Verantwortung. Bielefeld. Transcript.

von Foerster, H./Bröcker, M. (2007): Teil der Welt. Fraktale einer Ethik – oder Heinz von Foersters Tanz mit der Welt; 2.: Heidelberg (Carl Auer).

Jonas, H. (1984): Das Prinzip Verantwortung. Frankfurt/M. Suhrkamp.

Katz, B./Noring, L. (2017) The Secret Copenhagen Model for Regenerating Cities: https://nextcity.org/daily/entry/ copenhagen-model-regenerating-cities-norbhaven June 24 (26.06.17).

Mason, P. (2017): Automation may mean a post-work society, but we shouldn’t be afraid. https://www.theguardian.com/sustainable-business/2016/feb/17/automation-may-mean-a-post-work-society-but-we-shouldnt-be-afraid (04.07.17)

Pfriem, R. (2007) (Hrsg.): Unsere mögliche Moral heißt kulturelle Bildung, Unternehmensethik für das 21. Jahrhundert. Marburg. Metropolis-Verlag.

Rammler, St. (2017): Stadt ohne Wagen. Eine kleine Geschichte urbaner Mobilität.  In: Kursbuch 190, Juni: 127-168.

Rosenthal, H. (1972): Solingen. Geschichte einer Stadt. Band II, Duisburg. Walter Braun Verlag.

Smith, A. (1977, orig. 1776): An Inquiry into the Nature and Causes of the Wealth of Nations. Chicago. University of Chicago Press.

Frederick Winslow Taylor (1911). „The Principles of Scientific Management“ iBooks. https://itun.es/de/L_n4D.l

Thomson, C. (2017): When Robots Take Jobs, Remember the Luddites. The Smithonian Magazine. Jan.:  http://www.smithsonianmag.com/innovation/when-robots-take-jobs-remember-luddites-180961423/ (25.06.17).

Ulrich, P./Fluri, E. (1995); Management; 7.: Bern/Stuttgart/Wien. Haupt.

Vaihinger, H. (2007, orig. 1911): Die Philosophie des Als Ob. Saarbrücken. VDM Verlag Dr. Müller.

Vinge, V. (1993): O. T.: http://mindstalk.net/vinge/vinge-sing.html (29.06.17)

 

Hier gibt’s die PDF-Version des Fachartikels 

Jan Rommerskirchen: Autos, Autonomie und Algorithmen

Autonome Autos versprechen eine bessere und sicherere Zukunft: entspanntes und unfallfreies Fahren, keine Verletzten und Getöteten mehr auf unseren Straßen. Die Zweifel an dieser Vision sind jedoch gewachsen und immer mehr Kritiker fragen, wie autonome Autos in Dilemma-Situationen entscheiden sollen, wer leben darf und wer sterben muss. Soll dieses ethische Problem von den Nutzern autonomer Autos, von ihren Herstellern oder von der Politik entschieden werden? Eine kritische Prüfung dieses Problems kann nur zu einem Ergebnis kommen: Es wird auch in Zukunft keine autonomen Autos geben. Der ethische Preis, den wir für den vermeintlichen Fortschritt zu zählen hätten, wäre unsere Freiheit und die menschliche Autonomie.

Die Digitalisierung soll das Fahren von Autos revolutionieren. Autonome Autos sollen es den Nutzern ermöglichen, während der Fahrt zur Arbeit die Zeitung zu lesen und Kaffee zu trinken und auf dem Weg in den Urlaub mit den Mitfahrern Ausflüge zu planen oder zu schlafen. Vor allem aber soll das Autofahren sicherer werden. Autonome Autos überschreiten keine Geschwindigkeitsvorschriften, unterschreiten keine Sicherheitsabstände und sind nie abgelenkt oder müde. Euphorisch behauptet die Bundeskanzlerin Angela Merkel im Juni 2017, dass man in zwanzig Jahren eine Sondererlaubnis beantragen müsse, wolle man sein Auto selbst fahren (vgl. Grossarth, 2017).

Der technische Fortschritt könnte nicht nur Staus und Schadstoffemissionen reduzieren, er könnte auch helfen, die meisten Unfälle im Straßenverkehr zu vermeiden. Im Jahr 2016 nahm die Polizei in Deutschland 2,6 Millionen Unfälle auf, dabei wurden fast 400.000 Menschen verletzt und mehr als 3.000 Menschen getötet (vgl. Statistisches Bundesamt, 2017). In der Europäischen Union starben im vergangenen Jahr 25.500 Menschen durch Verkehrsunfälle (vgl. European Commission, 2017), weltweit sind es rund 1,25 Millionen Menschen (vgl. WHO, 2017). Die Ursachen waren in Deutschland zumeist Fahrfehler beim Abbiegen oder ein zu geringer Abstand zum Vorausfahrenden. Zumeist also Ursachen, die autonome Autos wahrscheinlich vermieden hätten.

Dabei gibt es mehrere Stufen der Autonomie von Autos: Auf der ersten Stufe helfen Assistenzsysteme beim Einhalten der Geschwindigkeit oder des Abstands, auf der zweiten Stufe können Autos selbstständig die Fahrspur halten oder einparken, auf der dritten Stufe auch selbstständig Spurwechsel und Überholvorgänge durchführen. Das vollautomatisierte Fahren macht den Fahrer zum Nutzer eines Autos und beginnt mit Stufe vier, bei der das Auto dauerhaft die Führung der Fahrt übernimmt, und endet mit Stufe fünf, in der der Nutzer nur das Ziel bestimmt und das System startet (vgl. Ethik-Kommission, 2017, S. 14).

Die Hoffnungen auf eine sichere und sorgenfreie Mobilität durch den technischen Fortschritt sind auf Seiten der Autofahrer vermutlich ebenso groß wie die Hoffnungen der Autohersteller und ihrer Zulieferer auf wachsende Umsätze. Die Politik unterstützt die Entwicklung, sie hofft ebenfalls auf Vorteile für ihre Bürger, sinkende Belastungen der Infrastruktur und der Umwelt sowie steigende Einnahmen der einheimischen Industrie. Angesichts so vieler Hoffnungen auf eine bessere Zukunft muss aber die Frage an die Ethik erlaubt sein, ob auch gut ist, was machbar sein soll.

Der Prometheus

Die Hoffnung, dass technischer Fortschritt das Leben der Menschen verbessert, ist so alt wie die Menschheit selbst. Die Frage, welche Gefahren damit einhergehen, aber auch. Eine der bekanntesten klassischen griechischen Mythen handelt vom Titanen Prometheus. Nach einem Streit mit dem tyrannischen Göttervater Zeus verbietet dieser den Menschen den Gebrauch des Feuers. Prometheus, der die Menschen als seine Schützlinge betrachtet, widersetzt sich dem Verbot und bringt das Feuer zu den Menschen – und damit beginnt die menschliche Zivilisation, die Nutzung und die Beherrschung der Natur durch die Technik. Der erzürnte Göttervater lässt Prometheus zur Strafe für seinen Frevel an eine Felswand im Kaukasus ketten, wo ein Adler immer wieder von seiner Leber fressen soll, die sich danach ständig wieder erneuert. Prometheus, dessen Name mit ‚der Vorausdenkende‘ übersetzt werden kann, will das Gute tun und wird dafür hart bestraft. Der Titan wird somit zum mythologischen Topos eines ambivalenten Helden: Einerseits ist er ein mutiger Rebell, der sich der Unterdrückung widersetzt und die Menschen befreit, andererseits ist er jedoch ein gescheiterter Held, da er die Menschheit mit den neuen und gefährlichen Möglichkeiten der Technik allein lässt. Die Gefahren der Instrumentalisierung der Technik für Gewalt und Krieg vorauszudenken, ist ihm nicht gelungen.

Einige Jahrhunderte später verbringen vier junge Freunde einen regnerischen Sommer am Ufer des Genfer Sees. Um sich die Zeit zu vertreiben, beschließen sie, dass jeder von ihnen eine Schauergeschichte aufschreibt und diese den anderen erzählt. Die bekannteste Geschichte, die in diesem Sommer entsteht, stammt von der damals 19-jährigen Mary Shelley und wurde zwei Jahre später, im Jahr 1818, unter dem Titel Frankenstein, oder der moderne Prometheus veröffentlicht. Im Roman erzählt die Autorin die Geschichte von Viktor Frankenstein, der aus Neugier und Begeisterung für die Entdeckungen der modernen Naturwissenschaft einen besseren Menschen schaffen will: „Eine neue Menschengattung würde mich als ihren Schöpfer und Entdecker preisen; viele glückliche und vortreffliche Geschöpfe würden mir ihr Leben verdanken“ (Shelley, 1986, S. 70). Zwar will das geschaffene Wesen freundlich und hilfreich sein, doch es verbreitet nur Angst und Schrecken. Aus dem besseren Menschen wird schicksalhaft ein Dämon, der all jene tötet, die Viktor Frankenstein nahestehen, und sich schließlich aus Verzweiflung selbst verbrennt. Auch Viktor Frankenstein, der moderne Prometheus, wollte das Gute schaffen und sah nicht die Gefahren seines Tuns.

Die Figur des Prometheus wurde zum Urbild eines Menschen, den sein Wissens- und Forschungsdrang ins Unheil stürzen. Aus Hybris will er schaffen, was ihm möglich ist – ohne die Konsequenzen für sich selbst und andere zu bedenken. Der Philosoph Hans Jonas stellte den Prometheus in den 1980er Jahren deshalb ins Zentrum seiner Wirtschaftsethik und warnte, dass die technischen Entwicklungen zum Untergang der Menschheit führen könnten. Der „endgültig entfesselte Prometheus“ (Jonas, 1984, S. 7) habe sich am Ende des 20. Jahrhunderts zu einem Wesen mit nahezu unbegrenzter Macht über die Natur und die Technik entwickelt – doch könne oder wolle er immer noch nicht auf die Folgen seines Handelns schauen. Angesicht der Art und des Umfangs ihrer Macht müssten die Menschen jedoch umdenken: „Was der Mensch heute tun kann und dann, in der unwiderstehlichen Ausübung dieses Könnens, weiterhin zu tun gezwungen ist, das hat nicht seinesgleichen in vergangener Erfahrung“ (ebd.). Wenn die Menschheit sich nicht selbst durch einen Knopfdruck vernichten solle, dann, so Hans Jonas, müsse sie ihren rastlosen Antrieb zügeln lernen und ein Prinzip der Verantwortung und des verantwortlichen Handelns für sich und die Natur akzeptieren. Der neue ethische Imperativ laute daher: „Handle so, daß die Wirkungen deiner Handlungen verträglich sind mit der Permanenz echten menschlichen Lebens auf Erden“ (a. a. O, S. 36).

In der Wirtschafts- und Unternehmensethik wurden Jonas’ Warnungen und sein radikaler ökologischer Imperativ in den 1980er Jahren lebhaft diskutiert und dann durch Wirtschaftsthemen und Finanzkrisen wieder verdrängt. Die Frage, wie das gewünschte wirtschaftliche Wachstum und ein möglicher Fortschritt mit einer hierfür notwendigen Schädigung der Natur vereinbar sein können, war und ist drängender als die fundamentale Reflexion des Handelns. Prometheus hofft weiterhin darauf, dass sich dauerhaft gute Folgen aus der bloßen Absicht ergeben, gut zu handeln.

Das Dilemma

Diese Hoffnungen auf die segensreichen Früchte des Fortschritts finden sich fraglos auch bei der Entwicklung des autonomen Autos. Aber auch hier gibt es Konsequenzen, die bedacht werden sollten. Ein ethisches Problem, welches bereits mehrfach diskutiert wurde, steht auch hier im Zentrum der Überlegungen (vgl. Lin, 2013): Im Wesentlichen handelt es sich dabei um eine aktualisierte Form eines klassischen Dilemmas, welches als Trolley-Dilemma oder Weichensteller-Problem bekannt ist (vgl. Foot, 1967, Thomson, 1976 und Thomson, 1985). In diesem Gedankenspiel rast ein führerloser Zug auf eine Gruppe von Menschen zu. Der Zug könnte jedoch auf ein Nebengleis umgeleitet werden, wo er sehr wahrscheinlich einen einzelnen Menschen, der sich dort auf den Gleisen aufhält, töten wird. Soll man den Zug auf das Nebengleis umleiten oder nicht?

Hinter dem grausamen Trolley-Problem lauert eine grundsätzliche ethische Frage: Darf man einen Menschen schädigen oder gar töten, um vielen anderen Menschen zu helfen? Aus utilitaristischer Sicht ist jede Entscheidung ausschließlich davon abhängig, ob durch sie die Gesamtsumme der Freude maximiert und des Leids minimiert wird. Bei der Abwägung, ob man einen einzelnen Menschen töten darf, um eine ganze Gruppe von Menschen zu retten, spricht vieles für die Umleitung des Zuges. Für die Deontologen ist diese Entscheidung jedoch ethisch nicht zulässig, da man durch die Umleitung des Zuges einen Menschen aktiv töten würde. In diesem Fall wird das nachfolgende Geschehen kein Unfall sein, sondern die vorsätzliche Tötung eines unschuldigen Menschen durch eine bewusste Handlung. Aus deontologischer Sicht verbietet sich aber die Instrumentalisierung eines Menschen für irgendeinen Zweck.

Überträgt man das ethische Dilemma auf autonome Autos, so lautet ein mögliches Szenario: Soll ein autonomes Auto – im Falle eines unvermeidlichen Unfalls – einen (1) einzelnen Fußgänger am Straßenrand, eine (2) Gruppe von Fußgängern auf der Straße oder den (3) Nutzer des Autos töten? Nehmen wir an, dass nur eine dieser drei Optionen zur Auswahl steht, da der Unfall durch ein technisches Problem der Bremsanlage oder durch Blitzeis nicht zu verhindern und der Nutzer abgelenkt ist – für welche Option soll sich das autonome Auto nun entscheiden?

Auch wenn eine derartige Situation auf den ersten Blick unwahrscheinlich anmutet, so ist sie doch keineswegs ausgeschlossen. Es gibt Probleme mit Bremsanlagen, es gibt Blitzeis und es gibt abgelenkte Fahrer. Letzteres wird in autonomen Autos vermutlich die Regel sein, und bei Millionen Autos und vielen Millionen Verkehrssituationen täglich, werden alle möglichen Formen von Unfällen weiterhin drohen und vom Auto Entscheidungen verlangen. Auch unwahrscheinliche Situationen werden früher oder später eintreten, und kaum jemand glaubt, dass keine Unfälle mehr passieren werden. Die Versicherungsunternehmen prognostizieren in einem Bericht mehr Unfälle in der Praxis des Straßenverkehrs als man heute theoretisch vermutet und warnen sogar vor steigenden Kosten angesichts der hochpreisigen Technik (vgl. GDV, 2017).

In einer US-amerikanischen Studie wurden die drei zuvor beschriebenen Alternativen – das Auto tötet einen oder mehrere Passanten oder den Nutzer – in mehreren Szenarien zur Wahl gestellt (vgl. Bonnefon, Shariff, & Rahwan, 2016). Grundsätzlich begrüßten die meisten Probanden ein utilitaristisches Verhalten autonomer Autos: Je mehr Menschen gerettet werden könnten, desto eher sollte das Auto einen einzelnen Passanten oder auch den Nutzer opfern. Zwei von drei Probanden halten diese Entscheidung zudem für moralisch richtig. In einem Szenario, in dem die Befragten mit ihrer Familie und ihren Kindern in einem solchen Fahrzeug sitzen, sagen jedoch drei von vier Probanden, dass das autonome Auto grundsätzlich seine Insassen schützen sollte. Die meisten Befragten würden es auch ablehnen, wenn autonome Autos per Gesetz dazu gezwungen würden, den Nutzer zu opfern – selbst, wenn dadurch zehn Menschenleben gerettet werden könnten.

Mit anderen Worten: Auch, wenn die meisten Menschen eine utilitaristische Entscheidung allgemein für moralisch richtig halten, würden sie diese trotzdem faktisch ablehnen, sollte sich ihr eigenes autonomes Auto derart verhalten oder verhalten müssen. Die meisten Menschen begrüßen zwar die technische Entwicklung und erkennen ihre Nutzenvorteile, lehnen die utilitaristische Entscheidung aber ab, wenn sie ihnen zum Nachteil gereicht. Für die Autohersteller und den Gesetzgeber ist dieses Dilemma und die nur vermeintlich utilitaristische Moral der Trittbrettfahrer ein ethisches Problem.

Angesicht der Ergebnisse dieser Studie ergibt sich aber auch für die deontologische Position ein Problem. Von John Rawls stammt die kontrafaktische Überlegung eines Urzustands, in dem Gerechtigkeitsfragen vor einem Schleier des Nichtwissens entschieden werden sollen (vgl. Rawls, 1979). Ist es in dieser Situation fair, autonome Autos zu erlauben? Die Zustimmung oder Ablehnung würde sicherlich stark davon abhängen, ob man sich als Nutzer oder als Passant entscheiden sollte. Da man aber genau dies, so die Idee von Rawls, nicht wissen soll, würden sich die meisten Menschen vermutlich wieder gegen die Einführung autonomer Autos entscheiden. Im Zweifelsfall wäre die Ermöglichung einer lebensbedrohlichen Technik für die meisten Menschen vermutlich ungerecht.

Der Philosoph Julian Nida-Rümelin erinnert an die kantische These, dass Freiheit, Autonomie und Würde eng miteinander verwoben sind (vgl. ausführlich Nida-Rümelin, 2014 und 2016). Ohne die Freiheit des Individuums, eine autonome Entscheidung für (oder gegen) eine vernünftige und begründbare Handlung zu treffen, verlören Menschen ihre spezifische Würde. Wer Menschen dieser Freiheit beraube, verletze ihre Menschenwürde. Autonome Autos sollen, wie Nida-Rümelin betont, aus der „auffälligen Naivität der utilitaristischen Logik“ (Nida-Rümelin, 2016) heraus eine Entscheidung ohne den Fahrer treffen. Die Software des vollautomatischen Autos würde dann aber verhindern, dass Menschen eine freie Entscheidung für eine Handlung treffen – und für diese Entscheidung dann auch die moralische Verantwortung tragen. Die „praktischen Deliberationen durch ein Optimierungskalkül zu ersetzen“ (ebd.), sei, so Nida-Rümelin, ein Verstoß gegen die Menschenwürde. Assistenzsysteme in Autos wären zwar hilfreich und sinnvoll, aber die Verantwortung für das Handeln und das Fahren eines Autos müssten beim Fahrer bleiben.

Die Verantwortung

Nach dieser ersten Prüfung utilitaristischer und deontologischer Argumente stellt sich die Frage nach der Verantwortung für die Entscheidungen und Handlungen autonomer Autos. Faktisch ist der Begriff des autonomen Autos jedoch irreführend, da das Fahrzeug nicht autonom im Sinne einer Selbstgesetzgebung sein kann. Das Fahrzeug kann keine Entscheidungen aus sich selbst heraus generieren, es ist und bleibt auf steuernde Algorithmen angewiesen. Daher wäre die Bezeichnung ‚algorithmengesteuertes Auto‘ (AGA) zutreffender, als von einer vermeintlichen Autonomie zu sprechen.

Die Frage nach der Verantwortung verlagert sich dadurch vom Fahrzeug auf den Algorithmus und damit auf die Frage, wer über die fundamentalen Heuristiken bestimmt, die dessen Entscheidungen zugrunde liegen. Die möglichen Entscheidungen lauten: „Wähle den geringstmöglichen Schaden (Präferenz Abwägung)“ oder „Schütze den Nutzer und die Beifahrer (Präferenz Selbstschutz)“. Im ersten Fall muss der Algorithmus erkennen können, wie viele Verletzte oder Tote durch welches Fahrmanöver entstehen würden, im zweiten deutlich weniger komplexen Fall nur jenes Fahrmanöver auswählen, welches den Schaden am Fahrzeug und an den Insassen minimiert. Die Entscheidung, ob das AGA die Präferenz Abwägung oder die Präferenz Selbstschutz wählen sollen, kann von drei Gruppen getroffen werden: Vom Nutzer des Fahrzeugs, vom Hersteller oder von der Politik.

Gäbe man die Verantwortung in die Hände des Nutzers, so würden AGAs sehr wahrscheinlich immer die Insassen schützen. Wer würde ernsthaft behaupten, dass Menschen bereit wären, sich für andere im Straßenverkehr zu opfern? Dies würde aber bedeuten, dass AGAs jedes potentielle Risiko für den Nutzer und die Mitreisenden minimieren und dafür auch die Schädigung oder gar die Tötung von Passanten akzeptieren würden. Jedes AGA wäre dann für jeden Menschen außerhalb des Fahrzeugs ein lebensgefährliches Risiko und die Bürger würden vermutlich sehr schnell ein Ende dieses Horrorszenarios und ein generelles Verbot von AGAs fordern.

Die Verantwortung dem Hersteller zu übertragen, verlangt eine komplexere Überlegung. In einem ersten Schritt stellt sich die Frage, ob sich alle Hersteller auf einen Algorithmus einigen würden. Sollten sie sich für die Präferenz Selbstschutz entscheiden, würde das zuvor genannte Horrorszenario eintreten. Dass sich die Hersteller darauf verständigen, den Nutzer nicht unter allen Umständen zu schützen, würde vermutlich zu typischen Reaktionen des Marktes führen: Auf einem Schwarzmarkt würden neu programmierte Chips angeboten, die den Schutz des Nutzers gegen entsprechenden Aufpreis versprechen. Oder die Käufer könnten diesen Schutz als exklusive Sonderausstattung bei einigen Premiummarken erwerben. In jedem Fall wären Autos bald wieder zumindest potentielle Mörder, denn es spielt für die Wahrnehmung der Passanten keine Rolle, ob einige wenige oder alle Autos den Nutzerschutz unter allen Umständen präferieren würden.

In einem zweiten Schritt stellt sich die grundsätzliche Frage nach der Verantwortung von Unternehmen: Wofür sind Unternehmen verantwortlich? Diese Frage wird seit Jahren in den Forschungsbereichen der Unternehmensethik mit den Schlagworten Compliance, Corporate Citizenship oder Corporate Social Responsibility untersucht. Aus guten Gründen sind nicht nur die meisten auch in Deutschland üblichen Termini, sondern auch die allermeisten Beiträge hierzu aus dem angloamerikanischen Bereich. Insbesondere in den Vereinigten Staaten von Amerika sind diese Themen seit langem sehr populär und hierfür gibt es die erwähnten guten Gründe: Die USA folgen auch auf diesen Feldern ihrer utilitaristischen Moral- und Rechtstradition und betrachten Unternehmen ganz pragmatisch wie natürliche Personen. Vor Gericht und in der Wahrnehmung der Öffentlichkeit sollen sich Unternehmen gesamthaft nicht nur auf die Gewinnmaximierung fokussieren, sondern auch ihre Rolle als ethisch verantwortliches und rechtstreues Mitglied der Zivilgesellschaft beachten. Wer diese moralischen Erwartungen ignoriert, muss am Ende spektakulärer Gerichtsprozesse mit drastischen Geldstrafen rechnen, die das Unternehmen zu zahlen hat: Die Autohersteller Toyota, General Motors und Volkswagen sowie die Banken JP Morgan, Bank of America und die Deutsche Bank mussten jeweils Milliardenbeträge an die Staatskasse zahlen.

In vielen Ländern Europas und insbesondere in der Bundesrepublik Deutschland ist der Rahmen der Fragestellung jedoch ein anderer, da hier eine andere Moral- und Rechtstradition zugrunde liegt. Weitgehend anerkannt ist, dass in Deutschland korporativ verfasste Akteure wie Unternehmen keine ethische Verantwortung tragen können, aus der sich eine rechtliche Schuld ableiten ließe (vgl. Engelhard & Trautnitz, 2005). In deutschen Gerichten können Unternehmen als juristische Personen lediglich auf der Grundlage des Zivilrechts und somit für Ordnungswidrigkeiten für schuldig befunden und zu begrenzten Geldstrafen verurteilt werden. Das deutsche Strafrecht kennt keine rechtliche Verantwortung von juristischen Personen wie Unternehmen. Strafrechtlich verantwortlich können nur natürliche Personen sein, also Eigentümer, Manager oder Mitarbeiter des Unternehmens (vgl. Trautnitz, 2008).

Die Begründung hierfür führt zurück ins dreizehnte Jahrhundert und ins kanonische Recht, als Papst Innozenz IV. eine korporative Verantwortung ablehnte: Korporationen seien lediglich fiktive Personen und könnten, da sie keine Seele besäßen, auch nicht exkommuniziert werden (vgl. Engelhart, 2010). Eine lange Tradition des Schuldstrafrechts geht von dem Grundsatz ‚no soul to damn, no body to kick‘ aus und führte zur dogmatischen Rechtstradition, dass Korporationen keine Straftat begehen können, sondern nur Menschen, also ‚beseelte‘ und somit moralfähige Wesen.

Diese Tradition stärkt auch Immanuel Kant, indem er die Moralität von der Legalität abgrenzt und Erstere auf das moralische Gesetz, Letztere auf das bürgerliche Gesetz zurückführt. Für Kant sind Freiheit und Vernunft die wesentlichen und notwendigen Voraussetzungen für selbstgesetzgebende Urteile. Über eine derartige Autonomie können jedoch nur Menschen verfügen, weder Tiere noch Korporationen. Für alle ethischen und rechtlichen Konsequenzen, die aus einem autonomen Urteil folgen, können daher auch nur freie und vernünftige Menschen die Verantwortung übernehmen. Aus dieser deontologischen Begründung Kants folgt die bis heute allgemein anerkannte kausale Beziehung zwischen Moral und Recht (vgl. Pfordten, 2005), die sich auch in den Grundsatzentscheidungen der obersten deutschen Gerichtshöfe regelmäßig nachlesen lässt.

Zwar gibt es regelmäßig Versuche, eine Wirtschaftsethik mit einer moralischen Verantwortung von korporativen Akteuren zu begründen, doch sind diese entweder utilitaristisch-pragmatischer Natur oder sie stützen sich auf konventionelle Zuschreibungen. Im ersten Fall sind die Begründungen aus alternativen, nicht-utilitaristischen Positionen heraus zumindest strittig, im zweiten Fall sind sie oftmals lückenhaft in der Argumentation. Auch die sehr ausführliche und kenntnisreiche Arbeit von Christian Neuhäuser, der Unternehmen als moralische Akteure betrachtet, bleibt schlussendlich problematisch. Denn für Neuhäuser sind „Unternehmen vernünftige Akteure, die überlegen können und auch aus moralischen Gründen handeln können“ (Neuhäuser, 2011, S. 134). Da Unternehmen, so Neuhäuser, in „manchen Ländern sogar strafrechtlich belangt werden können“ und „wir ihnen im öffentlichen Diskurs moralische Vorwürfe [machen], und vor allem können sie selbst auf diese Vorwürfe reagieren, sie verstehen also offensichtlich die Sprache der Moral“ (a. a. O., S. 133), seien Unternehmen und Korporationen moralische Akteure.

Neuhäuser wendet sich in seiner Argumentation entschieden gegen das „Dogma des methodologischen Individualismus“ (a. a. O., S. 41) und behauptet, dass die Mitarbeiter eines Unternehmens „zwar freie und moralische Akteure“ seien, sie „davon aber keinen oder nur eingeschränkten Gebrauch machen, weil sie dem Zwang [sic!] der Unternehmen unterworfen sind“ (a. a. O., S. 168). Angesicht „der düsteren Aussicht“ (a. a. O., S. 169) auf die individuellen Folgen moralischen Handelns eines Mitarbeiters sind „Unternehmen […] als korporative Akteure schuld an dem, was geschehen ist. Die individuellen Akteure sind nicht schuld, und deswegen kann ihnen auch kein moralischer Vorwurf gemacht werden; eine gewissermaßen nachgeordnete Verantwortung haben sie aber trotzdem“ (a. a. O., S. 173).

Es fällt mir schwer, Christian Neuhäusers Argumentation hierbei zu folgen, und frage mich, ob der Vorwurf des Dogmatismus in die richtige Richtung zielt. So leichtfertig sollte man das Autonomieprinzip, welches das Fundament der Beziehung zwischen Moral und Recht bildet, nicht über Bord werfen. Vor allem in Deutschland gilt aufgrund der deontologisch geprägten Tradition: Wirtschaftsethik ist im Kern Individualethik. Der methodologische Individualismus bietet gerade hier die Chance, aus der Trias Ethik, Moral und Recht eine zuweisbare und zurechenbare Verantwortung auch in Unternehmen argumentativ zu begründen – eine Debatte, die an dieser Stelle jedoch nicht weiterverfolgt werden soll und kann.

Nach diesem Exkurs kann ich zur Frage zurückkehren, wer – also welche natürliche Person(engruppe) – im Unternehmen nun die Verantwortung für die Entscheidung der Programmierung des Algorithmus treffen sollte. Möglich wäre es, dass der Geschäftsführer, der Vorstand oder die Eigentümer die Verantwortung übernehmen und den Programmierern eine klare Vorgabe machen. Doch wer von diesen Personen würde sich tatsächlich dafür aussprechen, die eigenen Kunden zu opfern? Die Präferenz Selbstschutz gälte in diesem Fall nicht nur für die Programmierung des Algorithmus, sondern vermutlich auch für die Entscheider.

Die letzte Instanz wäre nun die Politik. Sie könnte in einem demokratischen und rechtstaatlichen Verfahren darüber bestimmen, wie der Algorithmus lauten soll. Die vom Bundesministerium für Verkehr und digitale Infrastruktur eingesetzte Ethik-Kommission ‚Automatisiertes und vernetztes Fahren‘ stellte im Juni 2017 ihren Bericht vor (vgl. Ethik-Kommission, 2017). Die Kommission erkennt an, dass teil- und vollautomatisierte Verkehrssysteme der Verbesserung der Sicherheit aller Beteiligten im Straßenverkehr dienen. Sie betont jedoch, dass „der Schutz von Menschen Vorrang hat vor allen anderen Nützlichkeitserwägungen“ (a. a. O., S. 10). Es dürfe nicht zu einer „Degradierung des Subjekts zum bloßen Netzwerkelement“ (a. a. O., S. 11) kommen. Ausführlich widmet sich der Bericht dem hier vorstellten Dilemma der Programmierung des Algorithmus, kommt aber zu keiner klaren Aussage: Einerseits sollen technische Systeme Unfälle so gut wie möglich vermeiden helfen und insbesondere menschliches Leben schützen, andererseits betont die Kommission aber, dass eben diese technischen Systeme „nicht so normierbar [sind], dass sie die Entscheidung eines sittlich urteilsfähigen, verantwortlichen Fahrzeugführers ersetzen oder vorwegnehmen könnten“ (ebd.).

Der Politik stellt sich damit ein fundamentales verfassungsrechtliches Problem. In seinem Urteil zum Luftsicherheitsgesetz, dass den Abschuss eines entführten Passagierflugzeugs durch die Bundeswehr erlauben sollte, stellte das Bundesverfassungsgericht unmissverständlich klar, dass ein solches Gesetz der Menschenwürdegarantie des Grundgesetzes widerspräche und nicht zulässig sei (vgl. Luftsicherheitsgesetz, 2006). Ein Gesetz, dass Menschen als Mittel zum Zweck der Gefahrenabwehr einsetze, sie also zum Instrument eines Nutzenkalküls mache, sei in Deutschland weder legal noch legitim. Die Ethik-Kommission grenzt in ihrem Bericht zwar die abstrakte Quantifizierung bei der Programmierung der AGAs von dem konkreten Kontext beim Abschussbefehl eines Flugzeugs ab und empfiehlt, dass Ersteres aus Nützlichkeitserwägungen legitim sein sollte. Diese Unterscheidung zwischen abstrakten und konkreten Quantifizierungen ist jedoch kaum nachzuvollziehen, da Politiker bei einer Abstimmung über die Frage, ob AGAs die Abwägung oder den Selbstschutz präferieren sollen, eine grundsätzliche Entscheidung über die Zulassung der Instrumentalisierung von Menschenleben treffen müssten. Auch die Kommission erkennt selbstkritisch an, sie habe in dieser zentralen Frage „ihre Diskussion noch nicht befriedigend und auch nicht in jeder Hinsicht konsensual zu Ende führen können“ (a. a. O., S. 18).

Die Ethik-Kommission überreicht der Politik somit ein Danaergeschenk. Sie unterstützt die Euphorie der Politik, erklärt aber zugleich, dass die Politik das zentrale Problem der Entscheidung in Dilemma-Situationen nicht ohne ethische Konflikte wird klären können. Sollten die Politiker hierüber befinden, wird das Bundesverfassungsgericht sehr wahrscheinlich erneut an das Autonomieprinzip Immanuel Kants erinnern und den Politikern eine gesetzliche Regelung verbieten.

In der genaueren Prüfung, wer die Verantwortung für den Algorithmus übernehmen soll, der darüber entscheiden muss, wer in einer Dilemma-Situation zu retten und wer zu opfern sei, komme ich zu keinem Ergebnis. Weder die Nutzer noch die Hersteller oder die Politik können beziehungsweise sollten diese Verantwortung tragen. Ohne eine klare und öffentliche Entscheidung zum Problem der Präferenz der Abwägung oder des Selbstschutzes von AGAs sollte sich eine Zivilgesellschaft jedoch aus moralischen Gründen gegen sogenannte autonome Autos entscheiden.

Der Kompromiss

Seit Menschen sich als Kulturwesen verstehen und die Natur nutzen wollen und können, sind sie fasziniert von der Technik. Ohne das Feuer und das Rad, ohne Waschmaschinen und Computer, die Menschen von körperlicher und geistiger Arbeit entlasten, wäre ein Leben, das wir heute als menschenwürdig bezeichnen, kaum möglich. Die sogenannten autonomen Autos sind eine neue Verheißung, sie versprechen einen hohen Nutzen und eine weitere große Entlastung.

Fraglich bleibt aber, wie weit die Entlastung gehen darf. Der moderne Prometheus steht wieder einmal vor der moralischen Frage, ob er auch wollen soll, was er kann. Von Algorithmen gelenkte Autos entlasten eben nicht nur von körperlicher und geistiger Arbeit, sondern auch von Verantwortung. Das moralische Problem lautet aber, dass Menschen nur dann Verantwortung übernehmen können, wenn sie frei entscheiden können und selbst autonom sind. Freiheit in einem positiven Sinne meint, sich für oder auch gegen eine Festlegung und eine Handlung zu entscheiden. Nur dann können Menschen einen normativen Status einnehmen, den sie verantworten können und müssen (vgl. Brandom, 2015, S. 56f.). Wer die eigene Autonomie an andere Menschen oder einen Algorithmus abgibt, verliert seine Freiheit und die Verantwortung für seine Taten. Eine derartige Heteronomie ist aus ethischer Sicht keine Verheißung, sondern eine Bedrohung.

Der neueste Zeitgeist der Digitalisierung hat viele Prediger und das sogenannte autonome Auto ist nur eines ihrer vielen Reliquien. Die eschatologischen Versprechungen der Digital-Prediger über die Zukunft der Arbeit, der Mobilität und der Lebensführung künden von glanzvollen Zeiten. Ein ehrlicher Diskurs über ihre Versprechen muss aber auch ethische Probleme der Freiheit und der Autonomie des Menschen zulassen. Diesen offenen Diskurs muss die Zivilgesellschaft auch in Schulen und Hochschulen führen und auch von der freiwilligen Beschränkung der Techniknutzung handeln.

Der moderne Prometheus sollte sich vernünftig und reflektiert überlegen, wo die Grenzen seiner entfesselten Macht liegen sollen. Kaum jemand bezweifelt, dass Unfälle auch mit AGAs geschehen werden und Menschen auch in Zukunft verletzt und getötet werden. Viele Assistenzsysteme, die einparken oder Fahrspuren und Abstände kontrollieren, sind hilfreich und nützlich – doch sie berauben den Fahrer nicht seiner Autonomie. Der moralische Preis, den wir alle zahlen, wenn Algorithmen uns die Verantwortung für unser Tun abnehmen, ist zu hoch – der Preis wäre unsere Freiheit.

 

Literaturverzeichnis

Bonnefon, J.-F., Shariff, A., Rahwan, L. (2016): The social dilemma of autonomous vehicles. In Science, 352, S. 1573 – 1576.

Brandom, R. (2015): Wiedererinnerter Idealismus. Frankfurt am Main: Suhrkamp.

Engelhard, J., & Trautnitz, G. (2005): Tragen Unternehmen Verantwortung? Überlegungen zur Fundierung des Konzepts korporativer Verantwortung. In M.-J. Oesterle & J. Wolf (Hrsg.): Internationalisierung und Institution – Klaus Macharzina zur Emeritierung, S. 517 – 541. Wiesbaden: Springer Gabler.

Engelhart, M. (2010): Sanktionierung von Unternehmen und Compliance. Berlin: Duncker & Humblot.

Ethik-Kommission (2017): Ethik-Kommission – Automatisiertes und vernetztes Fahren. Von Bundesministerium für Verkehr und digitale Infrastruktur. Unter https://www.bmvi.de/SharedDocs/DE/Anlage/Presse/084-dobrindt-bericht-der-ethik-kommission.html?nn= 12830. Abgerufen am 20. Juni 2017.

European Commission (2017): ec.europa.eu. Von Mobility and Transport – Road Safety. Unter: http://ec.europa.eu/transport/road_safety/specialist/statistics_en. Abgerufen am 20. Joni 2017.

Foot, P. (1967): The Problem of Abortion and the Doctrine of the Double Effect. Oxford Review, 5/1967.

GDV (2017): Automatisiertes Fahren. Von Gesamtverband der Deutschen Versicherungswirtschaft e.V. Unter: http://www.gdv.de/2017/06/weniger-unfaelle-teurere-reparaturen. Abgerufen am 20. Juni 2017

Grossarth, J. (2017): Selber lenken mit Sonderlizenz. In:  Frankfurter Allgemeine Zeitung, 12. Juni 2017, S. 18.

Jonas, H. (1984): Das Prinzip Verantwortung. Frankfurt am Main: Suhrkamp.

Lin, P. (2013): The Ethics of Autonomous Cars. Von The Atlantic. Unter: https://www.theatlantic.com/technology/archive/2013/10/the-ethics-of-autonomous-cars/280360. Abgerufen am 20. Juni 2017

Luftsicherheitsgesetz (2006): Bundesverfassungsgericht 115, Urteil vom 15. Februar 2006 – 1 BvR 357/05

Luhmann, N. (2000): Organisation und Entscheidung. Opladen: Westdeutscher Verlag.

Neuhäuser, C. (2011): Unternehmen als moralische Akteure. Berlin: Suhrkamp.

Nida-Rümelin, J. (2014): Selbstfahrende Autos und Trolley-Probleme: Zum Aufrechnen von Menschenleben im Falle unausweichlicher Unfälle. In D. Sturma, L. Honnefelder & M. Fuchs (Hrsg.): Jahrbuch für Wissenschaft und Ethik, Band 19, S. 5 – 23. Berlin: de Gruyter.

Nida-Rümelin, J. (2016): Lasst die Hände am Steuer. In: Frankfurter Allgemeine Zeitung, 17. Juli 2016, S. 22.

Pfordten, D. v. (2005). Rechtsethik. In J. Nida-Rümelin (Hrsg.): Angewandte Ethik. Die Bereichsethiken und ihre theoretische Fundierung, S. 202-300. Stuttgart: Kröner.

Rawls, J. (1979): Eine Theorie der Gerechtigkeit. Frankfurt am Main: Suhrkamp.

Shelley, M. (1986): Frankenstein. Stuttgart: Reclam.

Statistisches Bundesamt (2017): 7,1 % weniger Verkehrstote im Jahr 2016. Von www.destatis.de. Unter https://www.destatis.de/DE/PresseService/Presse/Pressemitteilungen/2017/02/PD17_065_46241.html;jsessionid=AA30C394EEACF111DA9648298DEA6C79.cae4. Abgerufen am 20. June 2017

Thomson, J. J. (1976): Killing, Letting Die, and the Trolley Problem. In The Monist, Band 59, S. 204 – 217.

Thomson, J. J. (1985): The Trolley Problem. In The Yale Law Journal, Band 94, No. 6, S. 1395 – 1415.

Trautnitz, G. (2008): Gewinnprinzip oder „moralische“ Unternehmensführung? Das Recht als die vergessene Kategorie der Unternehmensethik. In A. G. Scherer, & M. Patzer (Hrsg.): Betriebswirtschaftslehre und Unternehmensethik, S. 145 – 167. Wiesbaden: Springer Gabler.

WHO (2017). Global status report on road safety 2013. Von World Health Organization. Unter http://www.who.int/violence_injury_prevention/road_safety_status/2013/en. Abgerufen am 20. Juni 2017

 

Hier gibt’s die PDF-Version des Fachartikels