Peter Michael Bak: Automatisiertes Fahren: Warum nicht?

Kommentar zu Jan Rommerskirchen: Autos, Autonomie und Algorithmen 

Jan Rommerskirchen widmet sich in seinem Beitrag einem aktuellen Thema. Gerade erst (Juni 2017) hat die von Bundesminister Alexander Dobrindt eingesetzte Ethik-Kommission zum automatisierten Fahren dazu einen umfassenden Bericht vorgelegt, auf den Rommerskirchen auch kurz eingeht und in dem anhand von 20 Thesen Leitlinien für den Umgang mit einem automatisierten und vernetzten Fahren formuliert werden. Grundsätzlich befürworten die Autoren des Berichts den Einsatz dieser Zukunftstechnologie, „wenn sie im Vergleich zu menschlichen Fahrleistungen zumindest eine Verminderung von Schäden im Sinne einer positiven Risikobilanz verspricht“ (Ethik-Kommission, 2017, S. 10). Die Technik ist also dann zu vertreten, wenn sie zu einer Verbesserung der gegenwärtigen Situation beiträgt. Das von Jan Rommerskirchen angesprochene Dilemma, wie ein algorithmusgesteuertes Fahrzeug entscheiden soll, wenn es die Wahl zwischen mindestens zwei Übeln hat, wird in den Thesen dadurch zum Teil umgangen, dass gefordert wird, „dass kritische Situationen gar nicht erst entstehen“ sollen, wozu auch Dilemma-Situationen gehören, „also eine Lage, in der ein automatisiertes Fahrzeug vor der ‚Entscheidung‘ steht, eines von zwei nicht abwägungsfähigen Übeln notwendig verwirklichen zu müssen“ (Ethik-Kommission, 2017, S. 10). Echte dilemmatische Entscheidungen sind zudem „nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar“ (Ethik-Kommission, 2017, S. 11). Weiter wird in dem Bericht die Ansicht vertreten, dass eine „allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden“ vertretbar sein kann (Ethik-Kommission, 2017, S. 11). Gleichzeitig wird zu bedenken gegeben, dass eine “Unterwerfung unter technische Imperative“ bedenklich ist (Ethik-Kommission, 2017, S. 11). Die 20 Thesen folgen demnach einer utilitaristischen Position mit diskussionsoffenen Vorbehalten, die sich mit folgendem Satz auf den Punkt bringen lässt: „Eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden kann vertretbar sein“. Allerdings bietet der Kommissionsbericht keine Ausformulierung konkreter Randbedingungen für etwaige Programmierungen etc. und räumt zudem offene Fragen ein. Dennoch lassen sich die Thesen insgesamt im Sinne einer allgemeinen Befürwortung des autonomen Fahrens interpretieren. Ist das nun also der Anfang der „entfesselten Macht“, von der Jonas und auch Rommerskirchen in seinem Beitrag sprechen? Bedeutet der Einsatz autonomer Systeme tatsächlich das Ende unserer Freiheit? Sollten wir auf den Einsatz autonomer Technologien verzichten? Ja und Nein lautet meine Antwort. Es hängt eben von der Betrachtungsweise ab, an welcher Stelle wir unsere Freiheit bewahren möchten. Ja, es bedeutet Freiheitsverlust beispielsweise in dilemmatischen Situationen, wie Rommerskirchen sie beschreibt, wenn es darum geht, selbst und verantwortlich eine Entscheidung zu treffen, ob wir nun links oder rechts fahren. Nein, es raubt uns nicht die Freiheit, zu entscheiden, ob wir generell eine Technologie verwenden wollen, von der wir bereits im Vorhinein wissen, dass sie uns in bestimmten Situationen die Entscheidung abnehmen wird, mit allen Folgen, die das haben kann. Das ist aber keine neuartige Situation, die wir nun anhand der Aussicht auf den Einsatz autonomer Fahrsysteme zum ersten Mal führen müssten. Wir tun das ständig und obendrein ohne ethischen Diskurs. Wir benutzen permanent Technologien, die versagen können und sich dann auf nicht mehr kontrollierbare Weise auf uns und unsere Mitmenschen oder die Umwelt auswirken können. Ob Kernkraft, Flugzeug oder Computer, die Freiheit mit diesen Technologien zu tun, wofür wir auch Verantwortung übernehmen können, besitzen wir nur solange, solange die Technologie wie vorgesehen arbeiten. Tun sie es nicht, sind wir auch nicht mehr frei zu entscheiden, welche Folgen das mit sich bringt. Wir können nach Abwägen des Für und Widers nur frei entscheiden, ob wir denn die Technologien überhaupt zum Einsatz bringen wollen. Das Gleiche gilt bereits bei einer so alltäglichen Angelegenheit wie der Einnahme einer Tablette, sagen wir gegen Kopfschmerzen. Denken wir an ein so „harmloses“ Präparat wie Ibuprofen, das gerne gegen leichte und mittlere Schmerzen eingenommen wird. Schaut man sich die möglichen Nebenwirkungen an, so taucht da unter anderem auf: häufig Magenschmerzen, Übelkeit und Durchfall. Aber auch Schwindel und reversibler Verlust der Sehschärfe (www.apotheker-rundschau.de). Nehmen wir an, ich nehme aus freien Stücken das Medikament gegen Kopfschmerzen, dann bedeutet das aber nicht, dass ich auch frei wäre zu entscheiden, welche Nebenwirkungen damit verbunden sind. Und was nun, wenn mir beim Autofahren plötzlich schwindlig wird und ich dadurch einen Verkehrsunfall verursache? Bin ich selbst dann dafür verantwortlich oder der Hersteller oder die Politik, die beim Zulassungsverfahren andere Regeln hätte auferlegen müssen? Ich denke, wir würden in diesem Fall anders entscheiden. Wir wissen um die Risiken, die mit bestimmten Verhaltensweisen und dem Einsatz von Technologien (und Medikamenten) verbunden sind. Auch, dass wir im Falle des Falles die Kontrolle und damit die Entscheidungsfreiheit verlieren können. Hin und wieder sprechen wir dann auch von „technischem Versagen“ und meinen damit, dass einer Person keine Verantwortung zugeschrieben werden kann. Daraus zu folgern, dass wir besser gar keine Medikamente einnehmen sollten oder Technologien nutzen sollten, die prinzipiell auch negative Folgen nach sich ziehen können, wäre das Kind mit dem Bade auszuschütten. Es liegt nun einmal im Wesen freier Entscheidungen, dass sie a priori ein Mindestmaß an Unsicherheit bezüglich der damit verbundenen Folgen besitzen, andernfalls gäb es nichts mehr abzuwägen oder frei zu entscheiden. Die Entscheidung wäre längst und ohne Diskurs klar. Die Diskussion zum autonomen Fahren sollte also nicht bei dilemmatischen Situationen beginnen, in denen eine richtige Lösung naturgemäß nicht anzugeben ist. Vielmehr müssen wir uns fragen, welches Risiko wir generell bereit sind einzugehen, wenn wir zum Beispiel neue Technologien einsetzen möchten. Wenn sich im vorliegenden Fall sagen und empirisch bestätigen ließe, dass algorithmusgesteuerte Systeme zu einer deutlichen Verminderung von Personenschäden beitragen können, warum sollten wir uns dann für deren Benutzung nicht frei entscheiden, wenn wir das denn wollen, auch dann, wenn die Folgen nicht in jedem Einzelfall vorhergesagt werden können. Mehr noch, das Pochen darauf, in jeder Situation, also auch einer dilemmatischen, den Menschen als verantwortlichen Entscheider vorziehen zu wollen, besitzt beinahe zynische Züge. Nach welchen Kriterien würden wir die Entscheidung einer Person bewerten wollen, die vor der Wahl steht, eine oder mehrere Personen oder sich selbst aufgrund situativer Umstände opfern zu müssen? Solange wir das a priori nicht allgemeingültig angeben können, sondern erst im Nachhinein und unter Berücksichtigung der besonderen Umstände im Diskurs beurteilen möchten, bedeutet die freie Entscheidung und die damit verbundene Verantwortlichkeit letztlich nichts anderes, als ein Stochern im Nebel ohne zu wissen, welches Ziel getroffen werden soll. Jemanden dafür dann zur Rechenschaft ziehen zu wollen, das kann nicht in unserem Sinne sein. Letztlich handelt es sich dann auch nicht um eine freie Entscheidung, sondern maximal um einen juristischen Trick, um unserem Bedürfnis nach Schuldzuschreibung gerecht zu werden. Wenn wir aber einem Menschen in solchen Situationen keine Kriterien nennen können, wie er sich zu entscheiden hat, wie sollen wir das dann einer Software beibringen? So zu tun, als wäre ein menschlicher Entscheider angesichts der drei unmittelbar bevorstehenden Optionen selbst zu sterben, eine andere Person oder gar eine Gruppe anderer Personen zu töten, tatsächlich frei und könnte noch unter Abwägung aller Argumente zu einer vertretbaren Entscheidung kommen, ist aus meiner Sicht kein reales Szenario, sondern kommt am Ende einer Lotterieentscheidung vermutlich näher. Dies zumindest könnte man dann auch einer Maschine zugestehen.
Was bedeutet das nun für das von Rommerskirchen beschriebene Dilemma? Rufen wir es uns noch einmal in Erinnerung. Eine Person fährt mit einem algorithmusgesteuerten Fahrzeug auf eine Kreuzung und aus irgendeinem Grund gibt es kein Entrinnen mehr. Es muss eine Entscheidung getroffen werden. Fährt das Auto nach links, dann wird dadurch eine Person getötet. Fährt es nach rechts, werden gleich mehrere Personen getötet. Fährt es geradeaus, dann wird der Fahrer selbst zum Opfer. Mit Rommerskirchen fragen wir uns: Wer soll eigentlich hier die Entscheidung treffen? Der Nutzer, der Hersteller oder die Politik? Wie kann man sich den Implementierungsprozess einer solchen Entscheidung vorstellen? Dazu lässt sich ganz im Einklang mit der bisher geführten Argumentation sagen, dass es zunächst darum geht, die Wahrscheinlichkeit des Eintreffens solcher Situationen zu minimieren gilt. Sollte dann doch eine solche Situation entstehen, dann entscheidet der Algorithmus des Fahrzeugs nach dem Zufallsprinzip. Das Zufallsprinzip ist in diesem Fall das überlegene Prinzip, da erstens die Frage, wer zu opfern ist, a priori nicht für jeden Fall eindeutig festgelegt werden kann und zweitens auch die die menschliche Entscheidung in einer solchen Extremsituation eher durch zufällige Prozesse, Gedanken, Gefühle, Geistesblitze etc. getroffen wird und mit einer freien Entscheidung unter Abwägung aller Möglichkeiten nichts zu tun hat. Der Nutzer entscheidet demnach in der Situation selbst zwar nicht mehr, aber er entscheidet sich im Vorfeld für die Nutzung eines solchen Fahrzeugs. Er nimmt die Zufallsentscheidung also in Kauf, wobei er nicht für die Entscheidung des Fahrzeugs verantwortlich gemacht werden kann. Das mag auf den ersten Blick wie ein Trick aussehen, um Verantwortung aus dem Weg zu gehen. Aber können wir in solch einer ausweglosen Situation überhaupt von Verantwortung sprechen? Ich behaupte mit dem Verweis auf die Unentscheidbarkeit und die nicht vorhandene Entscheidungsfreiheit nein. Es stellt sich nur noch die Frage, wer für die Programmierung des Zufallsgenerators zuständig ist und wer überhaupt darüber entscheidet, wann er zur Anwendung kommen soll. Wie beispielsweise bei der Marktzulassung von Medikamenten muss das die Legislative regeln. Der Gesetzgeber entscheidet hier, welche Randbedingungen erfüllt sein müssen, damit ein Medikament auf dem Markt zugelassen werden darf. Die Hersteller müssen sich entsprechend daranhalten und z. B. eine Reihe klinischer Studien vorlegen. Wenn dabei bestimmte Kriterien erfüllt sind, dann darf das Medikament auf den Markt. Über die Einnahme des Medikaments ist damit jedoch noch nicht entschieden. Dies bleibt dem Patienten vorbehalten. Eine ähnliche Regelung wäre auch beim algorithmusgesteuerten Auto denkbar. Der Gesetzgeber gibt die Randbedingungen vor, unter denen ein solches Auto zugelassen werden darf, unter welchen Umständen welcher Algorithmus greifen muss und wie hoch überhaupt die Wahrscheinlichkeit sein darf, dass ein solcher Fall auftritt. Die Hersteller setzen diese Vorgaben um. Der Nutzer entscheidet für sich, ob er das Fahrzeug nutzen möchte oder nicht (oder ob er bei nächstbester Gelegenheit gleich eine andere Legislative wählt). Das ist in vielen Kontexten ein völlig üblicher Vorgang. Denken wir kurz an die pränatale Diagnostik. Bei der Fruchtwasseruntersuchung zur Vorhersage bestimmter Krankheiten, die in der Regel zwischen der 15. und 18. Schwangerschaftswoche durchgeführt wird, wird mit einer dünnen Nadel durch die Bauchdecke Fruchtwasser entnommen, das Zellen des Kindes enthält. Diese werden dann z. B. auf Chromosomenabweichungen untersucht. Das Risiko einer Fehlgeburt wird zwischen 0,2 und 1% angegeben (www.pnd-beratung.de). Zwar wird es im Nachhinein Erklärungen geben, warum es zu einer Fehlgeburt kam, im Vorhinein ist es eine Frage des Zufalls. Die meisten sehen den Zufall als geringeres Übel an und entscheiden sich für die Untersuchung. Weiter ist der Einwand, dass wegen der Implementierung des Zufallsprinzips kein Mensch ein algorithmusgesteuertes Fahrzeug nutzen würde oder auch nur wünscht, einem solchen Fahrzeug im Straßenverkehr zu begegnen, zwar durchaus nachvollziehbar, sollte aber mit der richtigen Alternative kontrastiert werden. Denn, so unangenehm der Gedanke sein mag, dass in manchen Situationen der Zufall über Leben und Tod entscheidet, so unangenehm ist die gegenwärtige Situation, denkt man nur kurz darüber nach. Ständig begegnen wir nämlich Personen im Straßenverkehr, von denen wir nicht wissen, wie sie sich gleich entscheiden werden, wenn sie auf uns treffen. Bleiben sie in der Spur? Lassen sie uns durch oder handelt es sich womöglich doch um einen selbstmordgefährdeten Menschen? Wird der Fahrer gleich zum Handy greifen oder sich eine Zigarette anzünden und mich dabei übersehen? Zieht man also reine Wahrscheinlichkeiten zu Rate, dann kann unser Verkehrswesen mit algorithmusgesteuerten Fahrzeugen deutlich sicherer werden und die Wahrscheinlichkeit, zufälliges Opfer eines schlechten, abgelenkten, übermüdeten Fahrers zu werden, deutlich gesenkt werden, was für ethische Fragen zwar nicht unbedingt eine Maßgabe ist, aber durchaus sein kann, zumal, wenn wir hinnehmen, dass ethische Fragen ohnehin im Diskurs beantwortet werden müssen. Was uns heute noch als unvorstellbar erscheint, das wird morgen schon als Normalität angesehen werden. Warum sollte das im vorliegenden Fall anders sein als bei der Einführung anderer Technologien. Anstatt Entscheidungsalgorithmen also a priori und kategorisch auszuschließen, könnte es fruchtbarer sein, sich über den Ablauf, Kriterien und Randbedingungen Gedanken zu machen, die den Einsatz dieser Technologie ermöglichen könnten. In diesem Sinne hat die Ethikkommission einen ersten Schritt gemacht. Der Teufel steckt dabei im Detail. Ob die dann allerdings noch ethische Fragen betreffen oder nur noch praktische, dass mag der Leser nun gerne selbst beurteilen.

 

Literaturverzeichnis

Ethik-Kommission (2017): Ethik-Kommission – Automatisiertes und vernetztes Fahren. Von Bundesministerium für Verkehr und digitale Infrastruktur. Unter https:// www.bmvi.de/SharedDocs/DE/Anlage/Presse/084-dobrindt-bericht-der-ethik-kommission.html?nn=12830. Abgerufen am 22. Juni 2017

http://www.apotheken-umschau.de/Medikamente/Ibuprofen-Wirkung-Anwendung-Nebenwirkungen-530943.html. Abgerufen am 22. Juni 2017

http://www.pnd-beratung.de/was-ist-pnd/invasive-untersuchungen/fruchtwasseruntersuchung/. Abgerufen am 22. Juni 2017

 

Hier gibt’s die PDF-Version des Fachartikels 

Jan Rommerskirchen: Autos, Autonomie und Algorithmen – eine Erwiderung

Ich danke den Kollegen Peter Michael Bak und Lutz Becker für ihre Kommentare zu meinem Beitrag Autos, Autonomie und Algorithmen. Beide Kollegen sprechen sich für eine Zulassung sogenannter Autonomer Auto aus und widersprechen meiner kritischen Position in dieser Frage. Zu den Kommentaren möchte ich an dieser Stelle eine kurze Erwiderung geben.

Meine beiden Kernargumente gegen die Zulassung Autonomer Autos lauten: a) Es ist nicht ersichtlich, wer die Verantwortung für die Programmierung der Algorithmen übernehmen kann und darf, und b) gibt keine ethisch vertretbare Programmierung für Dilemma-Situationen. Die Kommentatoren müssten somit die aus diesen Kernargumenten folgenden Fragen schlüssig beantworten: a‘) Wer darf über die Programmierung des Algorithmus entscheiden? b‘) Wie soll der Algorithmus in einer Dilemma-Situation entscheiden?

Die erste Frage (a‘) beantwortet Bak mit dem Vorschlag, die Legislative mit der Entscheidungsfindung zu beauftragen. Damit die Abgeordneten eine Entscheidung über mögliche Optionen treffen können, muss daher die zweite Frage (b‘) zuerst beantwortet werden.

Hierzu antwortet der Kollege Bak mit dem Vorschlag, den Zufall entscheiden zu lassen. Angesichts der Kontingenz menschlicher Entscheidungen ein praktikabler Vorschlag. Der Algorithmus soll also mal für den Schutz der Passanten, mal für den Schutz des Fahrers und seiner Beifahrer entscheiden. Mit anderen Worten: In einer gefährlichen Fahrsituation entscheidet der Algorithmus nicht begründet über Leben und Tod, sondern er würfelt. Die Passanten haben ebenso wie der Fahrer und seine Beifahrer eine fünfzigprozentige Chance zu überleben.

Peter Michael Bak verweist in seinem Kommentar auf die Medizintechnik und Medikamente. Hier geht es aber nicht um Kopfschmerzen, sondern um Leben und Tod. Ehrlicherweise müsste die Analogie dann lauten: Wenn ein Patient an einer lebensgefährlichen Krankheit leidet und ein neues Medikament würde eine fünfzig prozentige Chance auf Heilung versprechen – und eine fünfzig prozentige Chance, an dem Medikament zu sterben -, wer würde dieses Medikament dann zulassen, welcher Arzt würde es verschreiben und welcher Patient würde es einnehmen? Jeder muss diese Frage für sich entscheiden, aber in ethischen Fragen ist ein solches russisches Roulette zynisch und keinesfalls ein ernsthaftes Angebot für technischen oder medizinischen Fortschritt.

Hinzu kommt ein zweites Problem: Nachdem die Begeisterung über den Komfortvorteil Autonomer Autos abgeklungen sein wird und die Menschen nach einem Unfall die Schlagzeile „Auto tötet Fahrer“ auf den Titelseiten der Zeitungen gelesen haben werden, wird die Skepsis einsetzen. Und ein psychologischer Effekt: die Verlustaversion. Die Erkenntnisse der Neuen Erwartungstheorie lassen zumindest erwarten, dass der gewonnene Komfort die Risiken eines würfelnden Algorithmus nicht aufwiegen wird. Die Angst vor dem (zufälligen) Verlust des eigenen Lebens und dem der Beifahrer (Freunde, Ehepartner, Kinder) wird durch einige wenige Unfälle und entsprechende Schlagzeilen sehr schnell zur Ablehnung der neuen Technik führen. Die autonome Funktion wird nicht mehr eingeschaltet werden und Menschen, die sich von Algorithmen fahren lassen, werden als egoistische Hedonisten diskreditiert. Und dann werden die ersten Städte beraten, ob man die Fahrer Autonomer Autos zwingen will, ihre Fahrzeuge vor den Toren der Stadt zu parken.

Können Abgeordnete nun über diesen Algorithmus beschließen und somit die Frage nach der Entscheidungsinstanz (a‘) beantworten? Da es weder um Kopfschmerzen noch um Restrisiken im Promillebereich geht, scheint mir der Vorschlag von Peter Michael Bak erneut ungeeignet. Dass das deutsche Parlament ein Gesetz beschließt, welches das Leben und die Unversehrtheit seiner Bürger dem utilitaristischen Zufallskalkül eines Algorithmus überantwortet, ist nicht nur politisch unwahrscheinlich, sondern auch ein klarer Verstoß gegen die verfassungsrechtliche Garantie der Menschenwürde, zu deren Schutz die Abgeordneten verpflichtet sind.

Insofern sehe bei den Kommentaren keine schlüssige Widerlegung meiner Argumente. Für eine weiterhin notwendige Debatte in der Hochschule und in der Gesellschaft über die Legitimation und die Limitation neuer Techniken bieten die Beiträge den Lesern aber hoffentlich eine Anregung.

 

Hier gibt’s die PDF-Version des Fachartikels 

Lutz Becker: Plädoyer für Prometheus und das autonome Fahren

Kommentar zu Jan Rommerskirchen: Autos, Autonomie und Algorithmen 

Die Angst vor neuer Technik und durch sie induzierte Kontrollverluste zieht sich als anthropologische Konstante durch das Weltgeschehen. Als im Jahr 1898 das Londoner Kaufhaus Harrods die erste Rolltreppe in Betrieb nahm, gab es für diejenigen, die den Todesmut aufbrachten, dieses Höllengerät zu benutzen, anschließend einen von einem Mitarbeiter gereichten Brandy zur Beruhigung.

50 Jahre zuvor, es war der 16. und 17. März 1948, war es einer meiner Vorfahren, der offensichtlich als einer der Rädelsführer am Solinger Maschinensturm mitgewirkt hat. Nach dem Vorbild der Ludditen rotteten sich aufgebrachte Bürger zusammen, um den neu aufkommenden billig und schnell arbeitenden Gießereien im Bergischen den Garaus zu machen (ausführlich Rosenthal, 1972, S. 352 ff.). Ähnlich wie in England rekrutierten sich die Bergischen Ludditen wohl weniger aus den Entrechteten, Armen und Abgehängten, sondern es handelte sich wohl eher um eine konservative Mittelschicht, die um Status, Bequemlichkeit und Privilegien fürchtete, wie ein Blick auf die Textilarbeiter („Cropper”) im England des frühen 19. Jahrhunderts zeigt: “These workers had great control over when and how they worked—and plenty of leisure. ‘The year was chequered with holidays, wakes, and fairs; it was not one dull round of labor,’ as the stocking-maker William Gardiner noted gaily at the time. Indeed, some ‘seldom worked more than three days a week.’ Not only was the weekend a holiday, but they took Monday off too, celebrating it as a drunken ‘St. Monday.'” (Thomson, 2017, o. S.)Die Angst vor neuer Technik und durch sie induzierte Kontrollverluste zieht sich als anthropologische Konstante durch das Weltgeschehen. Als im Jahr 1898 das Londoner Kaufhaus Harrods die erste Rolltreppe in Betrieb nahm, gab es für diejenigen, die den Todesmut aufbrachten, dieses Höllengerät zu benutzen, anschließend einen von einem Mitarbeiter gereichten Brandy zur Beruhigung.

Ist es vielleicht die Angst vor Kontrollverlusten, gepaart mit (Partikular-) Interesse, das Widerstände gegen das Neue, wie derzeit das Autonome Fahren, schürt? Geht es bei allen Gedanken um Robotik und Autonome Systeme nicht vorrangig darum, dass diffuse Technologieängste moralisch überhöht werden, um Pfründe und Privilegien zu sichern? Um der Ludditen neue Kleider?

Wenn wir vor dem Hintergrund dieser Fragen über autonome Verkehrssysteme sprechen, müssen wir zwei Szenarien unterscheiden. Einmal ein streng ökonomisches Szenario, vor allem die Fahrt über Land und über die Autobahn betreffend. Hier ist es das originäre Interesse von Industrie und Handel, dass der Fluss der Waren reibungslos abläuft. Es sind nicht nur die typischen LKW Unfälle, die Logistikketten stören und standortübergreifende Wertschöpfung zum Erliegen bringen. Autonome LKWs benötigen keine Ruhezeiten, schreiben keine Urlaubsanträge und werden nicht krank. Und in der Gewerkschaft sind sie erst recht nicht. Mit Aufrüstsätzen für LKWs (https://www.zf-zukunftsstudie.de/autonomer -lkw-zum-nachruesten) kommt die Logistikbranche ihrem feuchten Traum von Seamless Logistics einen gewaltigen Schritt näher, und im Zweifel setzt sich dann die Technologie durch, die den vermeintlich höchsten Rationalisierungsvorteil bietet.

Das zweite Szenario, mit dem ich mich hier näher beschäftigen möchte, betrifft die sich ändernde Stadt. Mein akademischer Lehrer Peter Ulrich spricht mit seinem Koautoren Edgar Fluri in Anlehnung an C. W. Churchman und E. Jantzsch vom „Ethos ganzer Systeme” (Fluri, 1995, 69), den ich hier als #Ethos1 bezeichnen möchte. Das Verhalten einer Institution kann demnach dann als „gut“ oder „angemessen“ gelten, wenn es eine Verbesserung des jeweils übergeordneten Systems, insbesondere im Sinne von Gesamt-Wohlfahrt, ermöglicht oder bewirkt. Der daraus resultierende Imperativ bezieht sich auf die Relativität herkömmlicher Begründungen und Rechtfertigungen unseres Handelns: dass wir alles, was wir tun, aus einer integrierten Perspektive mehrerer (Akteurs-) Ebenen betrachten und bewerten sowie Entscheidungen immer von einer höheren Warte her treffen sollen. (vgl. Becker, L., 2011).

Dies vorausgeschickt, sollten wir Mobilität nicht isoliert als Technologie, sondern in ihren sozio-ökonomischen Kontexten betrachten, denn: „Zugang, Gesundheit und Lebensqualität spielen im Wertekanon moderner Stadtbewohner eine zunehmende Rolle. Städte, die im globalen Wettbewerb um kluge Köpfe und Arbeitskräfte stehen, werden sich vor diesem Hintergrund sicher auch zu einer Art ‚Dienstleister für Daseins und Lebensqualität’ entwickeln müssen“ (Rammler 2017 S.165).

In Städten wie Kopenhagen, Oslo oder Utrecht wird die Dominanz des individuellen Autoverkehrs ganz grundsätzlich in Frage gestellt. Aus dieser Perspektive scheinen auch bei uns Helikoptereltern in SUV auf dem Bürgersteig vor dem Kindergarten genauso die Legitimation zu verlieren, wie Menschen, die mehr als 1,5 Tonnen Masse (in etwa das Leergewicht eines Passat Kombi) auf einer Strecke von vielleicht 500 Metern von A nach B  und wieder zurück in Bewegung setzen, nur um eine Tüte Brötchen von 180 Gramm von B nach A zu bekommen. Selbst wenn dieses Auto ein Tesla S wäre, bei Bedarf autonom fahren und vielleicht noch das Lenkrad wegklappen könnte, hätte solche Absurditäten in diesem Szenario keinen Platz mehr.

Stattdessen stellt sich die Frage nach intermodalen Verkehrskonzepten „zugunsten von Leitbildern der funktional gemischten, aufgelockerten und multimodalen Stadt und einer menschen- statt autogerechten Verkehrsplanung“ (Rammler 2017 S.165). Und genau dieses Denken ist es doch, das die im Sinne des von Jonas (1984, 36) eingeforderten ethischen Imperativs, die Permanenz des echten (sic!) menschlichen Lebens auf Erden wieder neu erschließt. (#Ethos2)

Es sei aber auch in Erinnerung gerufen, dass nicht nur Hans Jonas einen ethischen Imperativ formulierte. Der von Heinz von Foerster (2007) formulierte ethische Imperativ (#Ethos3) besagt, dass man stets so handeln solle, dass die Zahl der Möglichkeiten wächst, dies verstanden im Sinne einer qualitativen Freiheit (Dierksmeier 2016) des Suchens und Auswählens und nicht im Sinne quantitativer Maximierung. Denn nur so schaffen wir uns die Möglichkeit des Wählens und Entscheidens: es geht um manifestierte Freiheit. Ist es nicht die Chance der Befreiung, die Funktion des Mobilitätssystems aufrecht erhalten zu müssen, in dem man, nicht als „Dressierter Gorilla“ (um ganz bewusst den auf Fredrick Winslow Taylor, 2011, zurückgehenden Terminus zu verwenden) am Lenkrad stumpfsinnige Algorithmen, wie Schalten, Bremsen bei Rot oder Gas geben bei Grün, abarbeitet und mit der lächerlichen Machtillusion in Form des dichten Auffahrens oder des provozierend hupen Könnens belohnt wird.

Der Wuppertaler Unternehmer und Vizepräsident der Bergischen IHK, Jörg Heynkes (https://joergheynkes.de), betrachtet den Übergang von fossilen Antrieben zu elektrischen und autonomen Fahrzeugen als Übergangstechnologie zur Schwarmmobilität (vgl. Becker/Sohn, 2016). Autonomie in Verbindung mit der Trennung von Eigentum und Nutzung. Folgt man Jörg Heynkes, ist nicht der selbstfahrende Luxus-Mercedes mit Entertainment, drehbarem Fahrersitz und wegklappbarem Lenkrad (https://www.mercedes-benz.com/de/mer-cedes-benz/inno-vation/autonomes-fahren) die Zukunft, sondern das kleine kugelige Google Auto (https://de.m.wikipedia.org/wiki/ Waymo) ohne Lenkrad und viel Gedöns. Heynckes verweist dabei auf seine Heimatstadt Wuppertal, in der bei etwa 350.000 Einwohnern rund 200.000 Fahrzeuge zugelassen sind, die im Schnitt mehr als 23,6 Stunden einfach nur unbenutzt stehen. Dafür gibt es nur in Wuppertal laut Heynckes etwa 630.000 Stellplätze was in etwa einer Fläche von 7.875.000 Quadratmetern und damit mehr als tausend Fußballfelder nur für Parkraum entspricht. Die gleiche Mobilitätsleistung könne mit etwa 20-25.000 Schwarmmobilen nahezu ohne Stellplätze erbracht werden, und das bei 80 % geringeren Mobilitätskosten, umweltfreundlich und leise. Dies eröffnet uns nicht nur neue Möglichkeiten der Innenstadtgestaltung und -belebung, sondern auch eine ganz neue Mobilität, in der etwa der Kneipenbesuch keine Gefahr mehr für den Führerschein (soweit es dann noch so etwas geben sollte) darstellt, oder in der auch Senioren oder Menschen mit Beeinträchtigungen endlich individuelle und sichere Mobilität ermöglicht wird. Mehr Stille und gute Luft sind so gesehen allenfalls nur angenehme Begleiterscheinungen.

Die wahre Moral[1] des Digitalen heißt „Lernen“ (#Ethos4). Das von Jan Rommerskirchen diskutierte Trolley Problem ist, wie viele andere ethische Probleme rund um das autonome Fahren, akademisch hochinteressant, aber in der Praxis völlig irrelevant.

Niemand möchte sich heute die Folgen eines Zusammenstoßes zwischen einem Matiz und einem Q7 vorstellen. Welche Insassen da den Kürzeren ziehen, ist von vornherein klar: Sicherheit ist in der Geschichte des Autos immer eine Frage des Geldes und der Sonderausstattungen gewesen, und genau das kann sich jetzt zum Guten wenden. Vorausgeschickt sei zunächst, dass der Algorithmus selbst frei jeglicher ethischen Überlegungen ist: er tut – zumindest noch auf absehbare Zeit[2] – nur das, wofür er programmiert wurde. Genauso, wie ein Zug, der auf seinen Schienen fährt. Wenn das System die Kontrolle verliert, kann man es zwingen, in einen eingefrorenen Zustand („Not-Aus“) zu gehen oder völlig abstrakte Regeln, wie „erst rechts dann links“ zu verwenden, womit ethische Überlegungen per se außen vor bleiben. Die Sicherheit wird zudem im Rahmen der so genannten Absicherung anhand vorgegebener Testprozeduren[3] sowie anhand statistischer Methoden des Qualitätsmanagements festgelegt.  Es stellt sich gar nicht die Frage, ob Politik, Hersteller oder Fahrer, entscheiden, sondern nur die Frage, wie die Normen zustande kommen und wie ihre Einhaltung kontrolliert wird. Insofern sind Sicherheit und Schutz der Insassen keine ethische Frage, sondern vorrangig eine statistische Größe.

Zur Haftungsfrage gibt es geeignete und erweiterbare juristische Konstrukte, so wie in der „juristischen Person“, die am 1. Januar des Jahres 1900 im Bürgerlichen Gesetzbuch verankert wurde. Spätestens damit wurde die „nützliche Fiktion“, wie sie Hans Vaihinger (2007) in seiner „Philosophie des Als Ob“ ausbreitet, im Gesetz eingeführt, um einem abstrakten System quasi-menschliche Eigenschaften zu verleihen. Nicht nur, dass damit dem Fiktionalisierungsprinzip und weiteren Gestaltungsmöglichkeiten[4] Tür und Tor geöffnet wurde, sondern es stehen auch noch zahlreiche Ideen bezüglich der Versicherbarkeit des statistischen Restrisikos (https://www.heise.de/autos/artikel/Autonomes-Fahren-aendert-Versicherung-2582698.html?artikelseite=2) im Raum. Aber all das ist hier gar nicht mal entscheidend. Auch nicht entscheidend, aber dennoch wichtig zu erwähnen, ist dagegen, dass die Fahrer von der Verantwortung für andere und möglicherweise schwächere Verkehrsteilnehmer, die sie vielleicht schon aus gesundheitlichen Gründen gar nicht wahrnehmen können, befreit werden. Und möglicherweise noch wichtiger, werden sie quasi ex ante vom Stigma der Schuld befreit.

Entscheidend für die Praxis ist aber etwas ganz anderes: nämlich, dass digitale Systeme (im Gegensatz zu menschlichen Chauffeuren, man denke an alkoholisierte Wiederholungstäter oder notorische Raser[5]) auf vielen unterschiedlichen Wegen systemisch lernen. Man nehme als Beispiel den tragischen Unfall eines Tesla aus dem Jahr 2016, als ein quer zur Fahrbahn stehender LKW-Auflieger vom Autopiloten nicht als Hindernis identifiziert wurde. Ist das notwendige Update an alle Teslas verteilt, wird kein Tesla auf dieser Welt nie und niemals den gleichen Fehler wieder machen. Das heißt, autonome Systeme werden uns in die Lage versetzen, die Zahl der Unfälle gegen Null laufen zu lassen und damit die vor allem in Schweden propagierte „Vision Zero“ zu realisieren (https://www.itf-oecd.org/vision-zero-conference-2017). Denn autonome Systeme fahren zudem weder betrunken, noch unter Drogen, telefonieren nicht am Steuer und übersehen keine Stauenden, sie leiden nicht unter Hypoglykämie und missachten keine Verkehrsregeln, wenn aufgrund von Termindruck oder Testosteronschüben die Impulskontrolle aussetzt.

#Ethos5: „Unsere mögliche Moral heißt kulturelle Bildung“. So lautet der Titel eines Sammelbandes von Reinhard Pfriem (2007) und ist das leitende Argument für die Rehabilitation des (modernen) Prometheus. Zeus hat nicht nur den Menschen das Feuer und damit Gemeinschaft und Geborgenheit am Feuer, die Wärme und die Kunst der Metallverarbeitung und alle daraus resultierende Freiheiten vorenthalten. Er ist den schlichtesten und unredlichsten Weg, nämlich den das Diktats, gegangen. Zeus hat es versäumt, und das wäre seine hehre Aufgabe als Weltenlenker gewesen, inklusive Institutionen (etwa im Sinne von Acemoglu/Johnson/Robinson, 2005; Becker, L., 2017) zu schaffen[6] und stattdessen den Menschen entmündigt und ihm die Möglichkeit versagt, im Umgang mit dem Feuer kulturelle Praktiken und Kompetenzen zu entwickeln. Genauso wie uns die automobile Gesellschaft des 20. Jahrhunderts längst entmündigt hat, uns die Gelegenheit nimmt, auf unsere kulturelle Bestimmung zurückzuziehen, weil sie das Primat des Automobilen tief in unserer Kultur verankert hat, das Auto zum neuzeitlichen Golden Kalb stilisiert und die Städte und ihre Menschen dem Auto zum Untertan gemacht hat. Ist es nicht das Schalten, Lenken, Gas geben und Bremsen auf der einen Seite und die ständige Flucht des Fußgängers vor dem Auto, das uns als Teil der Maschine entmündigt? Sind es nicht die Feinstaub fressenden Kinder in unseren Städten, denen wir wieder die Freiheit zum Spiel auf der Straße geben sollten? Sollten wir autonome Systeme und Roboter nicht endlich als Chance begreifen, der Maschine zu entfliehen und unser Leben zu entfalten? Soll ein System, das seit 80 Jahren unser Leben dominiert, in unserer Jahrtausende alten Kulturgeschichte also nicht mehr als ein Wimpernschlag ist, wirklich das Ende der Fahnenstange sein?

Die autonomen Systeme sind Chance und Verpflichtung zugleich, unsere Institutionen, Regimes und kulturellen Praktiken (ausführlich: Becker, 2017) in Frage zu stellen. „The automation revolution is possible, but without a radical change in the social conventions surrounding work it will not happen“ so Paul Mason, P. (2017) – die wahre Dystopie ist eine Gesellschaft, in der wir die Techniken – oder die wenigen, die die Techniken beherrschen –- nicht beherrschen. Eine Gesellschaft, die die neuen Techniken hat, aber nach überkommenden Regeln lebt und regiert wird. Therapeutische Systemkorrekturen reichen genau so wenig aus, wie technologische Innovationen, die ein bestehendes System nur effizienter machen. Es geht letztlich um „Transformative Wirksamkeit“ (Brocchi, 2017), darum, dass am Ende im Sinne der fünf hier beschrieben Ethea die richtigen Dinge getan werden.

Die Konzentration auf das von Jan Rommerskirchen diskutierte Trolley Problem verschließt uns die Augen vor den Problemen einer höheren Ebene, vor den wirklich relevanten Fragen, wie: Was geschieht mit unseren Daten? Wer beherrscht die Algorithmen? Wem gehören die Daten[7]? Wem geben wir die Kontrolle[8]?

Es geht beim autonomen Fahren nicht darum, luxuriöse Dolce-Vita-Mobilität für besonders Begüterte zu schaffen, sondern die Mobilitätsbedürfnisse der gesamten Gesellschaft im Kontext anderer Bedürfnisse und eines gelingenden Lebens zu ermöglichen. Da sollten wir versuchen, die Lehren aus dem zu ziehen, was wir in Kopenhagen, Oslo oder Utrecht beobachten können: „The upshot of the Copenhagen story is that smart city institutions matters as much as innovative urban techniques and tactics. There is a better way to grow, govern and finance our cities that will require a burst of institutional and operational innovation not seen in decades“ (Katz, B./Noring, L., 2017).

Nicht Prometheus, so mein Gegenplädoyer zu Jan Rommerskirchen, ist der wahre Täter, sondern Zeus. Ihn sollten wird als ideologischen Wegbereiter des Ludditentums auf die Anklagebank schicken. Hat er es aus niederem Anlass, nämlich seine Privilegien und seine Pfründe zu sichern, doch fahrlässig oder vorsätzlich versäumt, den Menschen inklusive Institutionen an die Hand zu geben. Mit seinem misslungenen Versuch, dem Menschen das Feuer zu entziehen, ihnen die Entwicklung und wirtschaftlichen Wertschöpfungspotenzialen und damit die Chancen auf ein besseres Leben vorzuenthalten, handelte er kurzsichtig und verantwortungslos. Es war die typische Fehlleistung der Etablierten und der Mächtigen.

Nur das Neue gibt uns auch die Chance, die alte philosophische Frage nach einem guten und gelingenden Leben neu zu stellen. Mit der autonomen Mobilität eröffnet sich diese Chance, nutzen wir sie.

 

[1] Moral und Ethik werden hier weitestgehend synonym verwendet, zur Unterscheidung der Begriffe ausführlicher: Becker, 2012

[2] Bis zu dem Zeitpunkt, an dem Computer in der Lage sein werden, sich selbst zu verbessern – wir sprechen auch von „technologischer Singularität“ (Vinge, 1993)

[3] Als Beispiel für ein auf Absicherung spezialisiertes Unternehmen sei die Telemotive AG genannt: https://www.telemotive.de/de/engineering/leistungsspektrum/
car2road/  (04.07.17)

[4] An dieser Stelle sei darauf verwiesen, dass die Rechtswissenschaften interpretative Wissenschaft sind, die durchaus in der Lage sein sollten und sind, Jahrhunderte alte Rechtsgrundsätze aufzugeben oder zu reinterpretieren, wenn sich die gesellschaftlichen Bedingungen ändern. Die aktuelle Diskussion um die „Ehe für Alle“ sei hier als Beispiel genannt. Übrigens wurde meines Wissens noch nie ein Lokführer wegen einer Entgleisung verurteilt, allenfalls nur dann, wenn er seine Interventionsmöglichkeiten zur Vermeidung eines Unfalls fahrlässig außer Acht lies.

[5] 2015 führte in 366.448 Fällen durch ein Fehlverhalten (!) von Fahrzeugführern zu Personenschäden. Diese Zahl übersteigt zum Beispiele die Einwohnerzahlen von Bochum oder Wuppertal.  Dazu zählen unter anderem 12.660 Fälle von Alkoholeinfluss, ungenügender Abstand (50.667), nicht angepasste Geschwindigkeit (47.024), Nichtbeachten der Vorfahrt (53.361). Quelle: https://www.destatis.de/DE/ ZahlenFakten/Wirtschaftsbereiche/TransportVerkehr/Verkehrs-unfaelle/Tabellen/FehlverhaltenFahrzeugfuehrer.html (27.06.17)

[6] In dieser Beziehung war der Göttervater auf dem Olymp mit Verlaub ein gnadenloser Stümper, wie die griechische Mythologie mit ihren nie enden wollenden Machtspielen, Rankünen, Intrigen und Ungerechtigkeiten eindrucksvoll belegt. Es soll auch nicht unerwähnt bleiben, dass die Dichotomie zwischen Prometheus laisser-faire und seiner „Invisible Hand“ (um den Terminus von Adam Smith, 1977, zu verwenden) als Gegenentwurf zum Zeusschen Regime als vermeintlich intelligentem Design die ökonomische Diskussion bis heute prägt. Siehe auch Becker, 2012.

[7] Daten werden gerne als Währung der Zukunft bezeichnet, wobei „Gegenwart“ wohl treffender wäre. Wenn aber ökonomische Wertschöpfung über personenbezogene Daten geschieht, wem stehen die geschöpften Werte zu? Zum Beispiel wäre eine genossenschaftliche Verwertung der von dem Verkehrsteilnehmer erzeugten Daten ein zu diskutierendes Modell. Und was ist mit dem Staat, sollte es künftig statt der Rohölsteuer eine Daten- bzw. Transaktionssteuer auf Daten geben?

[8] Ohne an dieser Stelle im Detail darauf eingehen zu können: Um das Entstehen zentralistischer Steuerungen und wirtschaftlicher Oligopole zu verhindern, sind andere Fragen viel entscheidender. Etwa die Frage, wem die Daten gehören und wer sie wirtschaftlich verwerten darf. Dabei ist auf Datenhygiene, also Datenvermeidung und Datensparsamkeit achten. Grundsätzlich sind Schwarmsysteme (peer-to-peer) zentralistischen Lösungen der Mobilität vorzuziehen.

 

Literaturverzeichnis

Acemoglu, Daron; Johnson, Simon; Robinson, James A. (2005): Institutions as a Fundamental Cause of Long-Run Growth; In: Aghion, P./Durlauf, D. (eds.): Handbook of Economic Growth, Vol. I.: Amsterdam. Elsevier: 386-472.

Becker, L. (2011): Occupy verstehen. http://blog.karlshochschule.de/2011/10/18/occupy-verstehen/ 18. August. (25.06.17).

Becker, L. (2012): Warum Manager sich keine Gedanken über Moral machen sollten, in: Becker, L./Hakensohn, H./Witt, F. (Hg.): Unternehmen nachhaltig führen – Führung, Verantwortung und Nachhaltigkeit im Management, Düsseldorf (Symposion).

Becker, L. (2017): Transformation, Kultur und das Digitale. Transformative Wissenschaft als Grenzgang. In: Pfriem, R./Schneidewind, U.: Transformative Wissenschaft (Arbeitstitel). Erscheint 2017 bei Metropolis. Marburg.

Becker, L./Sohn, G. (2016): Utopie-Podcast #KönigVonDeutschland. Folge 01 mit Jörg Heynckes.  https://soundcloud.com/gsohn/der-utopie-podcst-konigvondeutschland-folge-01-mit-jorg-heynkes (26.01.17).

Brocchi, D. (2017): Urbane Transformation. Zum guten Leben in der eigenen Stadt. Bad Homburg VAS – Verlag für akademische Schriften.

Dierksmeier, C. (2016): Qualitative Freiheit. Selbstbestimmung in weltbürgerlicher Verantwortung. Bielefeld. Transcript.

von Foerster, H./Bröcker, M. (2007): Teil der Welt. Fraktale einer Ethik – oder Heinz von Foersters Tanz mit der Welt; 2.: Heidelberg (Carl Auer).

Jonas, H. (1984): Das Prinzip Verantwortung. Frankfurt/M. Suhrkamp.

Katz, B./Noring, L. (2017) The Secret Copenhagen Model for Regenerating Cities: https://nextcity.org/daily/entry/ copenhagen-model-regenerating-cities-norbhaven June 24 (26.06.17).

Mason, P. (2017): Automation may mean a post-work society, but we shouldn’t be afraid. https://www.theguardian.com/sustainable-business/2016/feb/17/automation-may-mean-a-post-work-society-but-we-shouldnt-be-afraid (04.07.17)

Pfriem, R. (2007) (Hrsg.): Unsere mögliche Moral heißt kulturelle Bildung, Unternehmensethik für das 21. Jahrhundert. Marburg. Metropolis-Verlag.

Rammler, St. (2017): Stadt ohne Wagen. Eine kleine Geschichte urbaner Mobilität.  In: Kursbuch 190, Juni: 127-168.

Rosenthal, H. (1972): Solingen. Geschichte einer Stadt. Band II, Duisburg. Walter Braun Verlag.

Smith, A. (1977, orig. 1776): An Inquiry into the Nature and Causes of the Wealth of Nations. Chicago. University of Chicago Press.

Frederick Winslow Taylor (1911). „The Principles of Scientific Management“ iBooks. https://itun.es/de/L_n4D.l

Thomson, C. (2017): When Robots Take Jobs, Remember the Luddites. The Smithonian Magazine. Jan.:  http://www.smithsonianmag.com/innovation/when-robots-take-jobs-remember-luddites-180961423/ (25.06.17).

Ulrich, P./Fluri, E. (1995); Management; 7.: Bern/Stuttgart/Wien. Haupt.

Vaihinger, H. (2007, orig. 1911): Die Philosophie des Als Ob. Saarbrücken. VDM Verlag Dr. Müller.

Vinge, V. (1993): O. T.: http://mindstalk.net/vinge/vinge-sing.html (29.06.17)

 

Hier gibt’s die PDF-Version des Fachartikels