Jan Rommerskirchen: Autos, Autonomie und Algorithmen

Autonome Autos versprechen eine bessere und sicherere Zukunft: entspanntes und unfallfreies Fahren, keine Verletzten und Getöteten mehr auf unseren Straßen. Die Zweifel an dieser Vision sind jedoch gewachsen und immer mehr Kritiker fragen, wie autonome Autos in Dilemma-Situationen entscheiden sollen, wer leben darf und wer sterben muss. Soll dieses ethische Problem von den Nutzern autonomer Autos, von ihren Herstellern oder von der Politik entschieden werden? Eine kritische Prüfung dieses Problems kann nur zu einem Ergebnis kommen: Es wird auch in Zukunft keine autonomen Autos geben. Der ethische Preis, den wir für den vermeintlichen Fortschritt zu zählen hätten, wäre unsere Freiheit und die menschliche Autonomie.

Die Digitalisierung soll das Fahren von Autos revolutionieren. Autonome Autos sollen es den Nutzern ermöglichen, während der Fahrt zur Arbeit die Zeitung zu lesen und Kaffee zu trinken und auf dem Weg in den Urlaub mit den Mitfahrern Ausflüge zu planen oder zu schlafen. Vor allem aber soll das Autofahren sicherer werden. Autonome Autos überschreiten keine Geschwindigkeitsvorschriften, unterschreiten keine Sicherheitsabstände und sind nie abgelenkt oder müde. Euphorisch behauptet die Bundeskanzlerin Angela Merkel im Juni 2017, dass man in zwanzig Jahren eine Sondererlaubnis beantragen müsse, wolle man sein Auto selbst fahren (vgl. Grossarth, 2017).

Der technische Fortschritt könnte nicht nur Staus und Schadstoffemissionen reduzieren, er könnte auch helfen, die meisten Unfälle im Straßenverkehr zu vermeiden. Im Jahr 2016 nahm die Polizei in Deutschland 2,6 Millionen Unfälle auf, dabei wurden fast 400.000 Menschen verletzt und mehr als 3.000 Menschen getötet (vgl. Statistisches Bundesamt, 2017). In der Europäischen Union starben im vergangenen Jahr 25.500 Menschen durch Verkehrsunfälle (vgl. European Commission, 2017), weltweit sind es rund 1,25 Millionen Menschen (vgl. WHO, 2017). Die Ursachen waren in Deutschland zumeist Fahrfehler beim Abbiegen oder ein zu geringer Abstand zum Vorausfahrenden. Zumeist also Ursachen, die autonome Autos wahrscheinlich vermieden hätten.

Dabei gibt es mehrere Stufen der Autonomie von Autos: Auf der ersten Stufe helfen Assistenzsysteme beim Einhalten der Geschwindigkeit oder des Abstands, auf der zweiten Stufe können Autos selbstständig die Fahrspur halten oder einparken, auf der dritten Stufe auch selbstständig Spurwechsel und Überholvorgänge durchführen. Das vollautomatisierte Fahren macht den Fahrer zum Nutzer eines Autos und beginnt mit Stufe vier, bei der das Auto dauerhaft die Führung der Fahrt übernimmt, und endet mit Stufe fünf, in der der Nutzer nur das Ziel bestimmt und das System startet (vgl. Ethik-Kommission, 2017, S. 14).

Die Hoffnungen auf eine sichere und sorgenfreie Mobilität durch den technischen Fortschritt sind auf Seiten der Autofahrer vermutlich ebenso groß wie die Hoffnungen der Autohersteller und ihrer Zulieferer auf wachsende Umsätze. Die Politik unterstützt die Entwicklung, sie hofft ebenfalls auf Vorteile für ihre Bürger, sinkende Belastungen der Infrastruktur und der Umwelt sowie steigende Einnahmen der einheimischen Industrie. Angesichts so vieler Hoffnungen auf eine bessere Zukunft muss aber die Frage an die Ethik erlaubt sein, ob auch gut ist, was machbar sein soll.

Der Prometheus

Die Hoffnung, dass technischer Fortschritt das Leben der Menschen verbessert, ist so alt wie die Menschheit selbst. Die Frage, welche Gefahren damit einhergehen, aber auch. Eine der bekanntesten klassischen griechischen Mythen handelt vom Titanen Prometheus. Nach einem Streit mit dem tyrannischen Göttervater Zeus verbietet dieser den Menschen den Gebrauch des Feuers. Prometheus, der die Menschen als seine Schützlinge betrachtet, widersetzt sich dem Verbot und bringt das Feuer zu den Menschen – und damit beginnt die menschliche Zivilisation, die Nutzung und die Beherrschung der Natur durch die Technik. Der erzürnte Göttervater lässt Prometheus zur Strafe für seinen Frevel an eine Felswand im Kaukasus ketten, wo ein Adler immer wieder von seiner Leber fressen soll, die sich danach ständig wieder erneuert. Prometheus, dessen Name mit ‚der Vorausdenkende‘ übersetzt werden kann, will das Gute tun und wird dafür hart bestraft. Der Titan wird somit zum mythologischen Topos eines ambivalenten Helden: Einerseits ist er ein mutiger Rebell, der sich der Unterdrückung widersetzt und die Menschen befreit, andererseits ist er jedoch ein gescheiterter Held, da er die Menschheit mit den neuen und gefährlichen Möglichkeiten der Technik allein lässt. Die Gefahren der Instrumentalisierung der Technik für Gewalt und Krieg vorauszudenken, ist ihm nicht gelungen.

Einige Jahrhunderte später verbringen vier junge Freunde einen regnerischen Sommer am Ufer des Genfer Sees. Um sich die Zeit zu vertreiben, beschließen sie, dass jeder von ihnen eine Schauergeschichte aufschreibt und diese den anderen erzählt. Die bekannteste Geschichte, die in diesem Sommer entsteht, stammt von der damals 19-jährigen Mary Shelley und wurde zwei Jahre später, im Jahr 1818, unter dem Titel Frankenstein, oder der moderne Prometheus veröffentlicht. Im Roman erzählt die Autorin die Geschichte von Viktor Frankenstein, der aus Neugier und Begeisterung für die Entdeckungen der modernen Naturwissenschaft einen besseren Menschen schaffen will: „Eine neue Menschengattung würde mich als ihren Schöpfer und Entdecker preisen; viele glückliche und vortreffliche Geschöpfe würden mir ihr Leben verdanken“ (Shelley, 1986, S. 70). Zwar will das geschaffene Wesen freundlich und hilfreich sein, doch es verbreitet nur Angst und Schrecken. Aus dem besseren Menschen wird schicksalhaft ein Dämon, der all jene tötet, die Viktor Frankenstein nahestehen, und sich schließlich aus Verzweiflung selbst verbrennt. Auch Viktor Frankenstein, der moderne Prometheus, wollte das Gute schaffen und sah nicht die Gefahren seines Tuns.

Die Figur des Prometheus wurde zum Urbild eines Menschen, den sein Wissens- und Forschungsdrang ins Unheil stürzen. Aus Hybris will er schaffen, was ihm möglich ist – ohne die Konsequenzen für sich selbst und andere zu bedenken. Der Philosoph Hans Jonas stellte den Prometheus in den 1980er Jahren deshalb ins Zentrum seiner Wirtschaftsethik und warnte, dass die technischen Entwicklungen zum Untergang der Menschheit führen könnten. Der „endgültig entfesselte Prometheus“ (Jonas, 1984, S. 7) habe sich am Ende des 20. Jahrhunderts zu einem Wesen mit nahezu unbegrenzter Macht über die Natur und die Technik entwickelt – doch könne oder wolle er immer noch nicht auf die Folgen seines Handelns schauen. Angesicht der Art und des Umfangs ihrer Macht müssten die Menschen jedoch umdenken: „Was der Mensch heute tun kann und dann, in der unwiderstehlichen Ausübung dieses Könnens, weiterhin zu tun gezwungen ist, das hat nicht seinesgleichen in vergangener Erfahrung“ (ebd.). Wenn die Menschheit sich nicht selbst durch einen Knopfdruck vernichten solle, dann, so Hans Jonas, müsse sie ihren rastlosen Antrieb zügeln lernen und ein Prinzip der Verantwortung und des verantwortlichen Handelns für sich und die Natur akzeptieren. Der neue ethische Imperativ laute daher: „Handle so, daß die Wirkungen deiner Handlungen verträglich sind mit der Permanenz echten menschlichen Lebens auf Erden“ (a. a. O, S. 36).

In der Wirtschafts- und Unternehmensethik wurden Jonas’ Warnungen und sein radikaler ökologischer Imperativ in den 1980er Jahren lebhaft diskutiert und dann durch Wirtschaftsthemen und Finanzkrisen wieder verdrängt. Die Frage, wie das gewünschte wirtschaftliche Wachstum und ein möglicher Fortschritt mit einer hierfür notwendigen Schädigung der Natur vereinbar sein können, war und ist drängender als die fundamentale Reflexion des Handelns. Prometheus hofft weiterhin darauf, dass sich dauerhaft gute Folgen aus der bloßen Absicht ergeben, gut zu handeln.

Das Dilemma

Diese Hoffnungen auf die segensreichen Früchte des Fortschritts finden sich fraglos auch bei der Entwicklung des autonomen Autos. Aber auch hier gibt es Konsequenzen, die bedacht werden sollten. Ein ethisches Problem, welches bereits mehrfach diskutiert wurde, steht auch hier im Zentrum der Überlegungen (vgl. Lin, 2013): Im Wesentlichen handelt es sich dabei um eine aktualisierte Form eines klassischen Dilemmas, welches als Trolley-Dilemma oder Weichensteller-Problem bekannt ist (vgl. Foot, 1967, Thomson, 1976 und Thomson, 1985). In diesem Gedankenspiel rast ein führerloser Zug auf eine Gruppe von Menschen zu. Der Zug könnte jedoch auf ein Nebengleis umgeleitet werden, wo er sehr wahrscheinlich einen einzelnen Menschen, der sich dort auf den Gleisen aufhält, töten wird. Soll man den Zug auf das Nebengleis umleiten oder nicht?

Hinter dem grausamen Trolley-Problem lauert eine grundsätzliche ethische Frage: Darf man einen Menschen schädigen oder gar töten, um vielen anderen Menschen zu helfen? Aus utilitaristischer Sicht ist jede Entscheidung ausschließlich davon abhängig, ob durch sie die Gesamtsumme der Freude maximiert und des Leids minimiert wird. Bei der Abwägung, ob man einen einzelnen Menschen töten darf, um eine ganze Gruppe von Menschen zu retten, spricht vieles für die Umleitung des Zuges. Für die Deontologen ist diese Entscheidung jedoch ethisch nicht zulässig, da man durch die Umleitung des Zuges einen Menschen aktiv töten würde. In diesem Fall wird das nachfolgende Geschehen kein Unfall sein, sondern die vorsätzliche Tötung eines unschuldigen Menschen durch eine bewusste Handlung. Aus deontologischer Sicht verbietet sich aber die Instrumentalisierung eines Menschen für irgendeinen Zweck.

Überträgt man das ethische Dilemma auf autonome Autos, so lautet ein mögliches Szenario: Soll ein autonomes Auto – im Falle eines unvermeidlichen Unfalls – einen (1) einzelnen Fußgänger am Straßenrand, eine (2) Gruppe von Fußgängern auf der Straße oder den (3) Nutzer des Autos töten? Nehmen wir an, dass nur eine dieser drei Optionen zur Auswahl steht, da der Unfall durch ein technisches Problem der Bremsanlage oder durch Blitzeis nicht zu verhindern und der Nutzer abgelenkt ist – für welche Option soll sich das autonome Auto nun entscheiden?

Auch wenn eine derartige Situation auf den ersten Blick unwahrscheinlich anmutet, so ist sie doch keineswegs ausgeschlossen. Es gibt Probleme mit Bremsanlagen, es gibt Blitzeis und es gibt abgelenkte Fahrer. Letzteres wird in autonomen Autos vermutlich die Regel sein, und bei Millionen Autos und vielen Millionen Verkehrssituationen täglich, werden alle möglichen Formen von Unfällen weiterhin drohen und vom Auto Entscheidungen verlangen. Auch unwahrscheinliche Situationen werden früher oder später eintreten, und kaum jemand glaubt, dass keine Unfälle mehr passieren werden. Die Versicherungsunternehmen prognostizieren in einem Bericht mehr Unfälle in der Praxis des Straßenverkehrs als man heute theoretisch vermutet und warnen sogar vor steigenden Kosten angesichts der hochpreisigen Technik (vgl. GDV, 2017).

In einer US-amerikanischen Studie wurden die drei zuvor beschriebenen Alternativen – das Auto tötet einen oder mehrere Passanten oder den Nutzer – in mehreren Szenarien zur Wahl gestellt (vgl. Bonnefon, Shariff, & Rahwan, 2016). Grundsätzlich begrüßten die meisten Probanden ein utilitaristisches Verhalten autonomer Autos: Je mehr Menschen gerettet werden könnten, desto eher sollte das Auto einen einzelnen Passanten oder auch den Nutzer opfern. Zwei von drei Probanden halten diese Entscheidung zudem für moralisch richtig. In einem Szenario, in dem die Befragten mit ihrer Familie und ihren Kindern in einem solchen Fahrzeug sitzen, sagen jedoch drei von vier Probanden, dass das autonome Auto grundsätzlich seine Insassen schützen sollte. Die meisten Befragten würden es auch ablehnen, wenn autonome Autos per Gesetz dazu gezwungen würden, den Nutzer zu opfern – selbst, wenn dadurch zehn Menschenleben gerettet werden könnten.

Mit anderen Worten: Auch, wenn die meisten Menschen eine utilitaristische Entscheidung allgemein für moralisch richtig halten, würden sie diese trotzdem faktisch ablehnen, sollte sich ihr eigenes autonomes Auto derart verhalten oder verhalten müssen. Die meisten Menschen begrüßen zwar die technische Entwicklung und erkennen ihre Nutzenvorteile, lehnen die utilitaristische Entscheidung aber ab, wenn sie ihnen zum Nachteil gereicht. Für die Autohersteller und den Gesetzgeber ist dieses Dilemma und die nur vermeintlich utilitaristische Moral der Trittbrettfahrer ein ethisches Problem.

Angesicht der Ergebnisse dieser Studie ergibt sich aber auch für die deontologische Position ein Problem. Von John Rawls stammt die kontrafaktische Überlegung eines Urzustands, in dem Gerechtigkeitsfragen vor einem Schleier des Nichtwissens entschieden werden sollen (vgl. Rawls, 1979). Ist es in dieser Situation fair, autonome Autos zu erlauben? Die Zustimmung oder Ablehnung würde sicherlich stark davon abhängen, ob man sich als Nutzer oder als Passant entscheiden sollte. Da man aber genau dies, so die Idee von Rawls, nicht wissen soll, würden sich die meisten Menschen vermutlich wieder gegen die Einführung autonomer Autos entscheiden. Im Zweifelsfall wäre die Ermöglichung einer lebensbedrohlichen Technik für die meisten Menschen vermutlich ungerecht.

Der Philosoph Julian Nida-Rümelin erinnert an die kantische These, dass Freiheit, Autonomie und Würde eng miteinander verwoben sind (vgl. ausführlich Nida-Rümelin, 2014 und 2016). Ohne die Freiheit des Individuums, eine autonome Entscheidung für (oder gegen) eine vernünftige und begründbare Handlung zu treffen, verlören Menschen ihre spezifische Würde. Wer Menschen dieser Freiheit beraube, verletze ihre Menschenwürde. Autonome Autos sollen, wie Nida-Rümelin betont, aus der „auffälligen Naivität der utilitaristischen Logik“ (Nida-Rümelin, 2016) heraus eine Entscheidung ohne den Fahrer treffen. Die Software des vollautomatischen Autos würde dann aber verhindern, dass Menschen eine freie Entscheidung für eine Handlung treffen – und für diese Entscheidung dann auch die moralische Verantwortung tragen. Die „praktischen Deliberationen durch ein Optimierungskalkül zu ersetzen“ (ebd.), sei, so Nida-Rümelin, ein Verstoß gegen die Menschenwürde. Assistenzsysteme in Autos wären zwar hilfreich und sinnvoll, aber die Verantwortung für das Handeln und das Fahren eines Autos müssten beim Fahrer bleiben.

Die Verantwortung

Nach dieser ersten Prüfung utilitaristischer und deontologischer Argumente stellt sich die Frage nach der Verantwortung für die Entscheidungen und Handlungen autonomer Autos. Faktisch ist der Begriff des autonomen Autos jedoch irreführend, da das Fahrzeug nicht autonom im Sinne einer Selbstgesetzgebung sein kann. Das Fahrzeug kann keine Entscheidungen aus sich selbst heraus generieren, es ist und bleibt auf steuernde Algorithmen angewiesen. Daher wäre die Bezeichnung ‚algorithmengesteuertes Auto‘ (AGA) zutreffender, als von einer vermeintlichen Autonomie zu sprechen.

Die Frage nach der Verantwortung verlagert sich dadurch vom Fahrzeug auf den Algorithmus und damit auf die Frage, wer über die fundamentalen Heuristiken bestimmt, die dessen Entscheidungen zugrunde liegen. Die möglichen Entscheidungen lauten: „Wähle den geringstmöglichen Schaden (Präferenz Abwägung)“ oder „Schütze den Nutzer und die Beifahrer (Präferenz Selbstschutz)“. Im ersten Fall muss der Algorithmus erkennen können, wie viele Verletzte oder Tote durch welches Fahrmanöver entstehen würden, im zweiten deutlich weniger komplexen Fall nur jenes Fahrmanöver auswählen, welches den Schaden am Fahrzeug und an den Insassen minimiert. Die Entscheidung, ob das AGA die Präferenz Abwägung oder die Präferenz Selbstschutz wählen sollen, kann von drei Gruppen getroffen werden: Vom Nutzer des Fahrzeugs, vom Hersteller oder von der Politik.

Gäbe man die Verantwortung in die Hände des Nutzers, so würden AGAs sehr wahrscheinlich immer die Insassen schützen. Wer würde ernsthaft behaupten, dass Menschen bereit wären, sich für andere im Straßenverkehr zu opfern? Dies würde aber bedeuten, dass AGAs jedes potentielle Risiko für den Nutzer und die Mitreisenden minimieren und dafür auch die Schädigung oder gar die Tötung von Passanten akzeptieren würden. Jedes AGA wäre dann für jeden Menschen außerhalb des Fahrzeugs ein lebensgefährliches Risiko und die Bürger würden vermutlich sehr schnell ein Ende dieses Horrorszenarios und ein generelles Verbot von AGAs fordern.

Die Verantwortung dem Hersteller zu übertragen, verlangt eine komplexere Überlegung. In einem ersten Schritt stellt sich die Frage, ob sich alle Hersteller auf einen Algorithmus einigen würden. Sollten sie sich für die Präferenz Selbstschutz entscheiden, würde das zuvor genannte Horrorszenario eintreten. Dass sich die Hersteller darauf verständigen, den Nutzer nicht unter allen Umständen zu schützen, würde vermutlich zu typischen Reaktionen des Marktes führen: Auf einem Schwarzmarkt würden neu programmierte Chips angeboten, die den Schutz des Nutzers gegen entsprechenden Aufpreis versprechen. Oder die Käufer könnten diesen Schutz als exklusive Sonderausstattung bei einigen Premiummarken erwerben. In jedem Fall wären Autos bald wieder zumindest potentielle Mörder, denn es spielt für die Wahrnehmung der Passanten keine Rolle, ob einige wenige oder alle Autos den Nutzerschutz unter allen Umständen präferieren würden.

In einem zweiten Schritt stellt sich die grundsätzliche Frage nach der Verantwortung von Unternehmen: Wofür sind Unternehmen verantwortlich? Diese Frage wird seit Jahren in den Forschungsbereichen der Unternehmensethik mit den Schlagworten Compliance, Corporate Citizenship oder Corporate Social Responsibility untersucht. Aus guten Gründen sind nicht nur die meisten auch in Deutschland üblichen Termini, sondern auch die allermeisten Beiträge hierzu aus dem angloamerikanischen Bereich. Insbesondere in den Vereinigten Staaten von Amerika sind diese Themen seit langem sehr populär und hierfür gibt es die erwähnten guten Gründe: Die USA folgen auch auf diesen Feldern ihrer utilitaristischen Moral- und Rechtstradition und betrachten Unternehmen ganz pragmatisch wie natürliche Personen. Vor Gericht und in der Wahrnehmung der Öffentlichkeit sollen sich Unternehmen gesamthaft nicht nur auf die Gewinnmaximierung fokussieren, sondern auch ihre Rolle als ethisch verantwortliches und rechtstreues Mitglied der Zivilgesellschaft beachten. Wer diese moralischen Erwartungen ignoriert, muss am Ende spektakulärer Gerichtsprozesse mit drastischen Geldstrafen rechnen, die das Unternehmen zu zahlen hat: Die Autohersteller Toyota, General Motors und Volkswagen sowie die Banken JP Morgan, Bank of America und die Deutsche Bank mussten jeweils Milliardenbeträge an die Staatskasse zahlen.

In vielen Ländern Europas und insbesondere in der Bundesrepublik Deutschland ist der Rahmen der Fragestellung jedoch ein anderer, da hier eine andere Moral- und Rechtstradition zugrunde liegt. Weitgehend anerkannt ist, dass in Deutschland korporativ verfasste Akteure wie Unternehmen keine ethische Verantwortung tragen können, aus der sich eine rechtliche Schuld ableiten ließe (vgl. Engelhard & Trautnitz, 2005). In deutschen Gerichten können Unternehmen als juristische Personen lediglich auf der Grundlage des Zivilrechts und somit für Ordnungswidrigkeiten für schuldig befunden und zu begrenzten Geldstrafen verurteilt werden. Das deutsche Strafrecht kennt keine rechtliche Verantwortung von juristischen Personen wie Unternehmen. Strafrechtlich verantwortlich können nur natürliche Personen sein, also Eigentümer, Manager oder Mitarbeiter des Unternehmens (vgl. Trautnitz, 2008).

Die Begründung hierfür führt zurück ins dreizehnte Jahrhundert und ins kanonische Recht, als Papst Innozenz IV. eine korporative Verantwortung ablehnte: Korporationen seien lediglich fiktive Personen und könnten, da sie keine Seele besäßen, auch nicht exkommuniziert werden (vgl. Engelhart, 2010). Eine lange Tradition des Schuldstrafrechts geht von dem Grundsatz ‚no soul to damn, no body to kick‘ aus und führte zur dogmatischen Rechtstradition, dass Korporationen keine Straftat begehen können, sondern nur Menschen, also ‚beseelte‘ und somit moralfähige Wesen.

Diese Tradition stärkt auch Immanuel Kant, indem er die Moralität von der Legalität abgrenzt und Erstere auf das moralische Gesetz, Letztere auf das bürgerliche Gesetz zurückführt. Für Kant sind Freiheit und Vernunft die wesentlichen und notwendigen Voraussetzungen für selbstgesetzgebende Urteile. Über eine derartige Autonomie können jedoch nur Menschen verfügen, weder Tiere noch Korporationen. Für alle ethischen und rechtlichen Konsequenzen, die aus einem autonomen Urteil folgen, können daher auch nur freie und vernünftige Menschen die Verantwortung übernehmen. Aus dieser deontologischen Begründung Kants folgt die bis heute allgemein anerkannte kausale Beziehung zwischen Moral und Recht (vgl. Pfordten, 2005), die sich auch in den Grundsatzentscheidungen der obersten deutschen Gerichtshöfe regelmäßig nachlesen lässt.

Zwar gibt es regelmäßig Versuche, eine Wirtschaftsethik mit einer moralischen Verantwortung von korporativen Akteuren zu begründen, doch sind diese entweder utilitaristisch-pragmatischer Natur oder sie stützen sich auf konventionelle Zuschreibungen. Im ersten Fall sind die Begründungen aus alternativen, nicht-utilitaristischen Positionen heraus zumindest strittig, im zweiten Fall sind sie oftmals lückenhaft in der Argumentation. Auch die sehr ausführliche und kenntnisreiche Arbeit von Christian Neuhäuser, der Unternehmen als moralische Akteure betrachtet, bleibt schlussendlich problematisch. Denn für Neuhäuser sind „Unternehmen vernünftige Akteure, die überlegen können und auch aus moralischen Gründen handeln können“ (Neuhäuser, 2011, S. 134). Da Unternehmen, so Neuhäuser, in „manchen Ländern sogar strafrechtlich belangt werden können“ und „wir ihnen im öffentlichen Diskurs moralische Vorwürfe [machen], und vor allem können sie selbst auf diese Vorwürfe reagieren, sie verstehen also offensichtlich die Sprache der Moral“ (a. a. O., S. 133), seien Unternehmen und Korporationen moralische Akteure.

Neuhäuser wendet sich in seiner Argumentation entschieden gegen das „Dogma des methodologischen Individualismus“ (a. a. O., S. 41) und behauptet, dass die Mitarbeiter eines Unternehmens „zwar freie und moralische Akteure“ seien, sie „davon aber keinen oder nur eingeschränkten Gebrauch machen, weil sie dem Zwang [sic!] der Unternehmen unterworfen sind“ (a. a. O., S. 168). Angesicht „der düsteren Aussicht“ (a. a. O., S. 169) auf die individuellen Folgen moralischen Handelns eines Mitarbeiters sind „Unternehmen […] als korporative Akteure schuld an dem, was geschehen ist. Die individuellen Akteure sind nicht schuld, und deswegen kann ihnen auch kein moralischer Vorwurf gemacht werden; eine gewissermaßen nachgeordnete Verantwortung haben sie aber trotzdem“ (a. a. O., S. 173).

Es fällt mir schwer, Christian Neuhäusers Argumentation hierbei zu folgen, und frage mich, ob der Vorwurf des Dogmatismus in die richtige Richtung zielt. So leichtfertig sollte man das Autonomieprinzip, welches das Fundament der Beziehung zwischen Moral und Recht bildet, nicht über Bord werfen. Vor allem in Deutschland gilt aufgrund der deontologisch geprägten Tradition: Wirtschaftsethik ist im Kern Individualethik. Der methodologische Individualismus bietet gerade hier die Chance, aus der Trias Ethik, Moral und Recht eine zuweisbare und zurechenbare Verantwortung auch in Unternehmen argumentativ zu begründen – eine Debatte, die an dieser Stelle jedoch nicht weiterverfolgt werden soll und kann.

Nach diesem Exkurs kann ich zur Frage zurückkehren, wer – also welche natürliche Person(engruppe) – im Unternehmen nun die Verantwortung für die Entscheidung der Programmierung des Algorithmus treffen sollte. Möglich wäre es, dass der Geschäftsführer, der Vorstand oder die Eigentümer die Verantwortung übernehmen und den Programmierern eine klare Vorgabe machen. Doch wer von diesen Personen würde sich tatsächlich dafür aussprechen, die eigenen Kunden zu opfern? Die Präferenz Selbstschutz gälte in diesem Fall nicht nur für die Programmierung des Algorithmus, sondern vermutlich auch für die Entscheider.

Die letzte Instanz wäre nun die Politik. Sie könnte in einem demokratischen und rechtstaatlichen Verfahren darüber bestimmen, wie der Algorithmus lauten soll. Die vom Bundesministerium für Verkehr und digitale Infrastruktur eingesetzte Ethik-Kommission ‚Automatisiertes und vernetztes Fahren‘ stellte im Juni 2017 ihren Bericht vor (vgl. Ethik-Kommission, 2017). Die Kommission erkennt an, dass teil- und vollautomatisierte Verkehrssysteme der Verbesserung der Sicherheit aller Beteiligten im Straßenverkehr dienen. Sie betont jedoch, dass „der Schutz von Menschen Vorrang hat vor allen anderen Nützlichkeitserwägungen” (a. a. O., S. 10). Es dürfe nicht zu einer „Degradierung des Subjekts zum bloßen Netzwerkelement” (a. a. O., S. 11) kommen. Ausführlich widmet sich der Bericht dem hier vorstellten Dilemma der Programmierung des Algorithmus, kommt aber zu keiner klaren Aussage: Einerseits sollen technische Systeme Unfälle so gut wie möglich vermeiden helfen und insbesondere menschliches Leben schützen, andererseits betont die Kommission aber, dass eben diese technischen Systeme „nicht so normierbar [sind], dass sie die Entscheidung eines sittlich urteilsfähigen, verantwortlichen Fahrzeugführers ersetzen oder vorwegnehmen könnten“ (ebd.).

Der Politik stellt sich damit ein fundamentales verfassungsrechtliches Problem. In seinem Urteil zum Luftsicherheitsgesetz, dass den Abschuss eines entführten Passagierflugzeugs durch die Bundeswehr erlauben sollte, stellte das Bundesverfassungsgericht unmissverständlich klar, dass ein solches Gesetz der Menschenwürdegarantie des Grundgesetzes widerspräche und nicht zulässig sei (vgl. Luftsicherheitsgesetz, 2006). Ein Gesetz, dass Menschen als Mittel zum Zweck der Gefahrenabwehr einsetze, sie also zum Instrument eines Nutzenkalküls mache, sei in Deutschland weder legal noch legitim. Die Ethik-Kommission grenzt in ihrem Bericht zwar die abstrakte Quantifizierung bei der Programmierung der AGAs von dem konkreten Kontext beim Abschussbefehl eines Flugzeugs ab und empfiehlt, dass Ersteres aus Nützlichkeitserwägungen legitim sein sollte. Diese Unterscheidung zwischen abstrakten und konkreten Quantifizierungen ist jedoch kaum nachzuvollziehen, da Politiker bei einer Abstimmung über die Frage, ob AGAs die Abwägung oder den Selbstschutz präferieren sollen, eine grundsätzliche Entscheidung über die Zulassung der Instrumentalisierung von Menschenleben treffen müssten. Auch die Kommission erkennt selbstkritisch an, sie habe in dieser zentralen Frage „ihre Diskussion noch nicht befriedigend und auch nicht in jeder Hinsicht konsensual zu Ende führen können“ (a. a. O., S. 18).

Die Ethik-Kommission überreicht der Politik somit ein Danaergeschenk. Sie unterstützt die Euphorie der Politik, erklärt aber zugleich, dass die Politik das zentrale Problem der Entscheidung in Dilemma-Situationen nicht ohne ethische Konflikte wird klären können. Sollten die Politiker hierüber befinden, wird das Bundesverfassungsgericht sehr wahrscheinlich erneut an das Autonomieprinzip Immanuel Kants erinnern und den Politikern eine gesetzliche Regelung verbieten.

In der genaueren Prüfung, wer die Verantwortung für den Algorithmus übernehmen soll, der darüber entscheiden muss, wer in einer Dilemma-Situation zu retten und wer zu opfern sei, komme ich zu keinem Ergebnis. Weder die Nutzer noch die Hersteller oder die Politik können beziehungsweise sollten diese Verantwortung tragen. Ohne eine klare und öffentliche Entscheidung zum Problem der Präferenz der Abwägung oder des Selbstschutzes von AGAs sollte sich eine Zivilgesellschaft jedoch aus moralischen Gründen gegen sogenannte autonome Autos entscheiden.

Der Kompromiss

Seit Menschen sich als Kulturwesen verstehen und die Natur nutzen wollen und können, sind sie fasziniert von der Technik. Ohne das Feuer und das Rad, ohne Waschmaschinen und Computer, die Menschen von körperlicher und geistiger Arbeit entlasten, wäre ein Leben, das wir heute als menschenwürdig bezeichnen, kaum möglich. Die sogenannten autonomen Autos sind eine neue Verheißung, sie versprechen einen hohen Nutzen und eine weitere große Entlastung.

Fraglich bleibt aber, wie weit die Entlastung gehen darf. Der moderne Prometheus steht wieder einmal vor der moralischen Frage, ob er auch wollen soll, was er kann. Von Algorithmen gelenkte Autos entlasten eben nicht nur von körperlicher und geistiger Arbeit, sondern auch von Verantwortung. Das moralische Problem lautet aber, dass Menschen nur dann Verantwortung übernehmen können, wenn sie frei entscheiden können und selbst autonom sind. Freiheit in einem positiven Sinne meint, sich für oder auch gegen eine Festlegung und eine Handlung zu entscheiden. Nur dann können Menschen einen normativen Status einnehmen, den sie verantworten können und müssen (vgl. Brandom, 2015, S. 56f.). Wer die eigene Autonomie an andere Menschen oder einen Algorithmus abgibt, verliert seine Freiheit und die Verantwortung für seine Taten. Eine derartige Heteronomie ist aus ethischer Sicht keine Verheißung, sondern eine Bedrohung.

Der neueste Zeitgeist der Digitalisierung hat viele Prediger und das sogenannte autonome Auto ist nur eines ihrer vielen Reliquien. Die eschatologischen Versprechungen der Digital-Prediger über die Zukunft der Arbeit, der Mobilität und der Lebensführung künden von glanzvollen Zeiten. Ein ehrlicher Diskurs über ihre Versprechen muss aber auch ethische Probleme der Freiheit und der Autonomie des Menschen zulassen. Diesen offenen Diskurs muss die Zivilgesellschaft auch in Schulen und Hochschulen führen und auch von der freiwilligen Beschränkung der Techniknutzung handeln.

Der moderne Prometheus sollte sich vernünftig und reflektiert überlegen, wo die Grenzen seiner entfesselten Macht liegen sollen. Kaum jemand bezweifelt, dass Unfälle auch mit AGAs geschehen werden und Menschen auch in Zukunft verletzt und getötet werden. Viele Assistenzsysteme, die einparken oder Fahrspuren und Abstände kontrollieren, sind hilfreich und nützlich – doch sie berauben den Fahrer nicht seiner Autonomie. Der moralische Preis, den wir alle zahlen, wenn Algorithmen uns die Verantwortung für unser Tun abnehmen, ist zu hoch – der Preis wäre unsere Freiheit.

 

Literaturverzeichnis

Bonnefon, J.-F., Shariff, A., Rahwan, L. (2016): The social dilemma of autonomous vehicles. In Science, 352, S. 1573 – 1576.

Brandom, R. (2015): Wiedererinnerter Idealismus. Frankfurt am Main: Suhrkamp.

Engelhard, J., & Trautnitz, G. (2005): Tragen Unternehmen Verantwortung? Überlegungen zur Fundierung des Konzepts korporativer Verantwortung. In M.-J. Oesterle & J. Wolf (Hrsg.): Internationalisierung und Institution – Klaus Macharzina zur Emeritierung, S. 517 – 541. Wiesbaden: Springer Gabler.

Engelhart, M. (2010): Sanktionierung von Unternehmen und Compliance. Berlin: Duncker & Humblot.

Ethik-Kommission (2017): Ethik-Kommission – Automatisiertes und vernetztes Fahren. Von Bundesministerium für Verkehr und digitale Infrastruktur. Unter https://www.bmvi.de/SharedDocs/DE/Anlage/Presse/084-dobrindt-bericht-der-ethik-kommission.html?nn= 12830. Abgerufen am 20. Juni 2017.

European Commission (2017): ec.europa.eu. Von Mobility and Transport – Road Safety. Unter: http://ec.europa.eu/transport/road_safety/specialist/statistics_en. Abgerufen am 20. Joni 2017.

Foot, P. (1967): The Problem of Abortion and the Doctrine of the Double Effect. Oxford Review, 5/1967.

GDV (2017): Automatisiertes Fahren. Von Gesamtverband der Deutschen Versicherungswirtschaft e.V. Unter: http://www.gdv.de/2017/06/weniger-unfaelle-teurere-reparaturen. Abgerufen am 20. Juni 2017

Grossarth, J. (2017): Selber lenken mit Sonderlizenz. In:  Frankfurter Allgemeine Zeitung, 12. Juni 2017, S. 18.

Jonas, H. (1984): Das Prinzip Verantwortung. Frankfurt am Main: Suhrkamp.

Lin, P. (2013): The Ethics of Autonomous Cars. Von The Atlantic. Unter: https://www.theatlantic.com/technology/archive/2013/10/the-ethics-of-autonomous-cars/280360. Abgerufen am 20. Juni 2017

Luftsicherheitsgesetz (2006): Bundesverfassungsgericht 115, Urteil vom 15. Februar 2006 – 1 BvR 357/05

Luhmann, N. (2000): Organisation und Entscheidung. Opladen: Westdeutscher Verlag.

Neuhäuser, C. (2011): Unternehmen als moralische Akteure. Berlin: Suhrkamp.

Nida-Rümelin, J. (2014): Selbstfahrende Autos und Trolley-Probleme: Zum Aufrechnen von Menschenleben im Falle unausweichlicher Unfälle. In D. Sturma, L. Honnefelder & M. Fuchs (Hrsg.): Jahrbuch für Wissenschaft und Ethik, Band 19, S. 5 – 23. Berlin: de Gruyter.

Nida-Rümelin, J. (2016): Lasst die Hände am Steuer. In: Frankfurter Allgemeine Zeitung, 17. Juli 2016, S. 22.

Pfordten, D. v. (2005). Rechtsethik. In J. Nida-Rümelin (Hrsg.): Angewandte Ethik. Die Bereichsethiken und ihre theoretische Fundierung, S. 202-300. Stuttgart: Kröner.

Rawls, J. (1979): Eine Theorie der Gerechtigkeit. Frankfurt am Main: Suhrkamp.

Shelley, M. (1986): Frankenstein. Stuttgart: Reclam.

Statistisches Bundesamt (2017): 7,1 % weniger Verkehrstote im Jahr 2016. Von www.destatis.de. Unter https://www.destatis.de/DE/PresseService/Presse/Pressemitteilungen/2017/02/PD17_065_46241.html;jsessionid=AA30C394EEACF111DA9648298DEA6C79.cae4. Abgerufen am 20. June 2017

Thomson, J. J. (1976): Killing, Letting Die, and the Trolley Problem. In The Monist, Band 59, S. 204 – 217.

Thomson, J. J. (1985): The Trolley Problem. In The Yale Law Journal, Band 94, No. 6, S. 1395 – 1415.

Trautnitz, G. (2008): Gewinnprinzip oder “moralische” Unternehmensführung? Das Recht als die vergessene Kategorie der Unternehmensethik. In A. G. Scherer, & M. Patzer (Hrsg.): Betriebswirtschaftslehre und Unternehmensethik, S. 145 – 167. Wiesbaden: Springer Gabler.

WHO (2017). Global status report on road safety 2013. Von World Health Organization. Unter http://www.who.int/violence_injury_prevention/road_safety_status/2013/en. Abgerufen am 20. Juni 2017

 

Hier gibt’s die PDF-Version des Fachartikels