Thomas Levermann: Wie Algorithmen eine Kultur der Digitalität konstituieren: Über die kulturelle Wirkmacht automatisierter Handlungsanweisungen in der Infosphäre

Kaum ein anderer Begriff wird häufiger mit der Digitalisierung assoziiert, wie der des Algorithmus. Sie dringen immer tiefer in unseren Lebensalltag ein, sei es beim googeln, bei der Nutzung von Sozialen Medien oder bei der Konversation mit smarten Assistenten wie Alexa von Amazon oder Siri von Apple. Mit Ehrfurcht und begleitet von einem gewissen Unbehagen nutzen wir sie, um die Komplexität des Alltags in Zeiten von Big Data zu reduzieren – alles ganz smart. Aber was genau sind Algorithmen und was vollziehen sie? Dieser Beitrag will angesichts der Wirkmächtigkeit des Begriffs das Wesensmäßige von Algorithmen, ihre Legitimation und den Einfluss auf unsere sozialen Praktiken und damit auch die medialen Praktiken reflektieren. Es wird aus kulturphilosophischer Perspektive gezeigt, dass Algorithmen als Handlungsträger performativ Bedeutung generieren und eine Kultur der Digitalität konstituieren.

Wenn wir Suchmaschinen wie Google einsetzen, um für uns relevante Informationen zu finden, wenn wir im Internet bei Amazon elektronisch einkaufen, wenn wir Onlinemedien  wie Spiegel-Online nutzen ode­r uns über das Denken, Fühlen und Handeln unserer Freunde durch Facebooks Newsfeed auf dem Laufenden halten, dann haben diese Anbieter zuvor Mengen an Daten gesammelt, analysiert, verknüpft und zum Abruf durch uns vorgehalten. Menschen und Maschinen generieren immer mehr dieser riesigen Daten- und Informationsmengen, sei es über Soziale Medien, gescannte Bücher, Überwachungskameras, diversen Sensoren, Kundenkarten, Bewegungsdaten, Reisebuchungen, Mediennutzung, Metadaten etc. Diese sind in Ihrer Komplexität nur noch durch Informations- und Kommunikationstechnologien (IKT) beherrschbar. Entsprechend nutzen wir beispielsweise Smartphones mit schnellen Prozessoren und Dienste wie Google oder Facebook. Voraussetzung für diese Form des Weltzugangs ist ein Prozess der Digitalisierung, ein Vorgang der Datencodierung und demzufolge eine informationstechnische Voraussetzung für die Informationsrückgewinnung aus Daten. Die Informatik bezeichnet das als Information Retrieval, bei der es um die Strukturierung, Organisation und Rückgewinnung von Informationen aus komplexen Datenmengen geht (vgl. Stock, 2017).

Diese Fähigkeit, riesige, in Zettabyte anfallende Datenmengen zu analysieren, zu aggregieren und Querverbindungen herzustellen wird auch als Big Data bezeichnet (Boyd/Crawford, 2013, S. 188; Baecker, 2013, S. 156 ff.; Floridi, 2015, S. 31 f.). Ein Instrument des Big Data und des Information Retrieval und damit der Komplexitätsreduktion sind Algorithmen, die jedoch für uns nicht sichtbar und selten nachvollziehbar sind. Entsprechend wird kaum ein Begriff häufiger, und begleitet von einem gewissen Unbehagen, mit Digitalisierung assoziiert als dieser. Ihnen wird eine verborgene Macht zugesprochen, weil sie uns als Black Box, zumindest aber opak erscheinen (Boyd, 2018). Aber was genau sind Algorithmen und was vollbringen sie?

Seinen Ursprung hat der Begriff in der Mathematik, später der Informatik und jetzt wird er zunehmend im kulturwissenschaftlichen Kontext verwendet. Der Kultur- und Medienwissenschaftler Felix Stalder (2016, S. 1 und 168) versteht unter Algorithmen zunächst allgemein Handlungsanweisungen, „wie mittels einer endlichen Zahl von Schritten ein bestehender Input in einen angestrebten Output überführt werden kann“, um vordefinierte Probleme zu lösen. Er sieht in seiner Definition auch Ikea-Bauanleitungen oder Kochrezepte als Algorithmen an, denn sie funktionieren ebenfalls nach dem „wenn A, dann B“-Prinzip.

In der Kultur, in der wir leben, berechnen immer mehr technische Apparate, Algorithmen und Netzwerke die riesigen Datenmengen und Handlungsanweisungen automatisiert: „[…] ohne Algorithmen wären wir blind“ (Stalder, 2016, S. 13). Für die Gesamtheit dieser automatisierten Berechnungstechniken verwendet der Medienphilosoph Frank Hartmann den Begriff der Algorithmizität und meint (2018, S. 152 f.): „Algorithmen funktionieren als Sortierroutinen des menschlichen Daseins in Zeiten der Digitalkultur.“ Entsprechend gehört die Algorithmizität zu einer wesentlichen Eigenschaft einer Kultur der Digitalität, weil sie den Informationsüberfluss reduziert und formt und infolgedessen Grundlage des singulären und gemeinschaftlichen Handelns werden können, meint Stalder (2016, S. 13).

Der italienische Philosoph und Informationstheoretiker Luciano Floridi verwendet für die damit verbundene digitale Revolution der post-industriellen Zeit den Begriff der Infosphäre. Sie zeichnet sich dadurch aus, dass der Mensch als Vernunftwesen aus dem Mittelpunkt genommen wird sowohl gegenüber anderen Menschen als auch gegenüber Maschinen und Medien. Als ‚Inforgs’ (Informationelle Organismen) teilen wir mit anderen informationellen Akteuren eine gemeinsame informationelle Umwelt (Floridi, 2015, S. 129 f.) Algorithmen sind in einer derartigen Infosphäre keine reinen Werkzeuge mehr, mit denen wir in und mit unserer Umwelt interagieren, sondern sie schaffen und prägen unsere geistige und materielle Wirklichkeit. Auch David Beer (2017), britischer Soziologe, beschäftigt sich in seinem Beitrag „The social power of algorithms“ grundsätzlich mit der Algorithmizität. Er argumentiert, dass wir über die Algorithmen selbst als eine technische und materielle Präsenz hinausschauen müssen und untersucht, wie Algorithmen auch in sozialen Ordnungsprozessen eine Rolle spielen. Damit übersteigt ein Verständnis des Algorithmus die mathematisch-informationstechnische Dimension und unterliegt einer kulturellen Logik, weil Algorithmen soziale Bedeutung generieren. Demzufolge verkörpern sie Formen der Handlungsträgerschaft und Performativität (Seyfert/Roberge, 2018, S. 10).

Algorithmen werden, wie im Fall von Suchmaschinen, digitalen Landkarten oder Sozialen Medien, milliardenfach genutzt. Sie agieren gerade deshalb performativ und dynamisierend und legitimieren dadurch ihre Bedeutung. Nicht, weil die Funktionen der Algorithmen und das, was sie hervorbringen bedeutsam sind, sondern sie selbst als Objekte und ihre Algorithmizität bedeutsamer werden (Gillespie, 2018, S. 101).

Über den konstitutiven Beitrag von Algorithmen zugunsten einer Kultur, die zunehmend als digital bezeichnet wird, will dieser Beitrag Reflexionen anstellen. Ziel ist es entsprechend, das Wesensmäßige der Algorithmen aus kulturphilosophischer Perspektive zu beschreiben und ihre performative Bedeutung als Eigenschaft einer „Kultur der Digitalität“ kritisch zu reflektieren.

Die leitenden Fragen dazu lauten mithin: Woher stammt der Begriff des Algorithmus, welche Perspektive umfasst er? Was tun Algorithmen, was bringen sie kulturell hervor? Strukturieren sie lediglich als „Sortierroutinen“ in ungeordneten Infosphären und in welcher Relation stehen sie zu Big Data? Wie erlangen sie Legitimität? Worin liegt das Bedeutsame, obwohl sie zugleich als Handlungsanweisung recht „profan“ zu sein scheinen? Wie sind sie beschaffen, wenn sie das Soziale konstituieren, zugleich aber selbst konstituiert werden? Sind sie lediglich Werkzeuge für uns Menschen oder umgekehrt? Erschaffen wir die Algorithmen oder gestalten diese uns? Wie leistungsfähig sind sie kulturell und worin liegt die Performativität? Sind Algorithmen mehr oder weniger lediglich Formen bzw. Eigenschaften einer Kultur der Digitalität, wie Stalder sie kategorisiert (2016, S. 13)? Warum und wann kann stattdessen von einer Algorithmuskultur (Seyfert/Roberge, 2018) gesprochen werden?

Geschichte und Begriffsperspektiven des Algorithmus

Der Begriff „Algorithmus“ soll auf den persisch-arabischen Gelehrten Abu Ja’far Mohammed ibn Musa al-Khowarizmi zurückgehen. Er lernte in der ersten Hälfte des 9. Jahrhunderts am Hofe des Kalifen von Bagdad die indischen Zahlen kennen, führte anschließend die 0 in das arabische Zahlensystem ein und verfasste ein einflussreiches Lehr- und Rechenbuch darüber. Nach dessen Übersetzung in das Lateinische im 12. Jahrhundert wurde es unter Bezugnahme der Ortsabstammung Abu Ja’fars zitiert: al-Khowarizmi, der aus Khowarizm stammende. Über Sprachtransformationen und Verwendung der Worte „Dixit Algorithmi…“, „Algorithmi hat gesagt…“, wurde so der Begriff Algorithmus (Ziegenbalg et. al., 2016, S. 21 f.).

Als „Chiffre“ oder „Platzhalter“ dient der Begriff des Algorithmus heute unterschiedlichen Bedeutungszuordnungen oder gar „als Leerstelle für alles, was man nicht so genau verstanden hat“ (Stiller, 2015, S. 46; Gillespie, 2016, S. 19). Dennoch, seine Bedeutung liegt in der zentralen Rolle für die Mathematik und Prädikatenlogik, die Informatik und sie liegt in seiner Verwobenheit mit der Geistes- und Kulturgeschichte.

In der Mathematik ist der Algorithmus ein Rechenverfahren oder -vorgang als Gesamtheit der verschiedenen, endlichen Rechenschritte bzw. elementaren Operationen, die nach einem genau festgelegten, wiederholbaren Schema ablaufen, z. B. Regeln zur Berechnung von Zinseszinsen. Man könnte sehr verkürzt sagen, es handelt sich um das Rechnen mit Zahlen – ganz im etymologischen Ursprungssinn. Im heutigen Sinne des Terminus Berechenbarkeit kann man einen breiteren Begriff formulieren: Algorithmen sind eine endliche Folge elementarer Anweisungen zur exakten Beschreibung eines genau definierten Problems, d. h. einer bestimmten Erwartung oder Vorstellung. Am Anfang steht demnach ein mathematisierbares Problem und als Ziel eine Problemlösung, die mittels eines mathematischen Modells formalisiert und in rechnerischen Begriffen (Zahlen und Operatoren, d. h. Rechenvorschriften oder Kalküle wie Addition oder Division) ausgedrückt werden. Das gewünschte Resultat basiert dann auf eingegebenen Daten, für deren Art das Problem gelöst werden kann (Zweig, 2016). Kowalski (1979, S. 424) definiert ergänzend einen Algorithmus im Sinne der Prädikatenlogik, der aus zwei Komponenten besteht: „Algorithm = Logic + Control“. Was meint er damit? Der Algorithmus besteht aus einer logischen Komponente, die festlegt, was getan werden soll, und einer Kontrollkomponente, die bestimmt, wie es zu tun ist, d. h., wie die in den Algorithmus einfließenden Daten verarbeitet werden.

Der informationstechnische Algorithmusbegriff schließt an der Zwei-Komponenten-Definition Kowalskis an, indem ein Programm die Abarbeitung der Anweisungen durch einen Computer formalsprachlich formuliert. Nach der Implementierung dieser sogenannten Software in einem Computer als zentralem Werkzeug, ermöglicht derselbe deren Ausführung durch einen Prozessor, also Hardware (Dourish, 2016). In der Informatik werden entsprechend Algorithmen als Problemlösungsverfahren bezeichnet, die endlich, deterministisch, klar und präzise formuliert sowie effektiv und effizient sind und zudem als Computerprogramm hardwareseitig implementiert werden können. ‚Endlich‘ bedeutet in diesem Kontext: nach einer vorgegebenen Zahl an Schritten muss ein Ergebnis produziert sein. Mit ‚effektiv und effizient’ sind Ausmaß der Zielerreichung und Aufwandsminimierung der Ausführung von Algorithmen gemeint. Elementare Algorithmen in der Informatik sind ‚Sortieren‘, ‚Suchen‘, ‚Verweisen’ (sogenannte ‚Hashfunktionen‘, z. B. für die Kryptographie oder im Datenbankmanagement) oder auch ‚Graphenalgorithmen’, wie man sie in Netzwerken verwendet (Sedgewick/Wayne, 2014, S. 20 f.; Ottmann/Widmayer, 2012, S. 1; Dourish, 2016).

Fasst man beide Perspektiven zusammen, dann könnte man folgenden Prozess beschreiben: Für ein mathematisches Problem wird ein Algorithmus entworfen, der wiederum in einen Code programmiert wird, um anschließend als Handlungsanweisung den Computer die Lösung für spezifische Eingabedaten berechnen zu lassen (vgl. Zweig, 2016). Damit sind mehrere Problemstellungen verbunden auf die Gillespie (2016) hinweist, die hier jedoch nicht gebührend gewürdigt werden können: Operationalisierung der Aufgabe, Wertvorstellungen in den Zielsetzungen, Auswahlkriterien eines „korrekten“ Algorithmus etc. – insbesondere bei der Modellierung komplexer sozialer Aktivitäten. Davon abweichend werden moderne Algorithmen des „Machine Learnings“ auf einem Korpus existierender Daten trainiert, d. h. der Algorithmus wird dadurch dynamisch entwickelt, indem Designer und/oder Benutzer Daten bewerten, die eine Mustererkennung ermöglichen. Aus Vergangenheitsdaten wird über den Algorithmus statistisch auf Zukunftsdaten geschlossen (Gillespie, 2016, S. 20; Stalder, 2016, S. 177-181).

Eine dritte kulturphilosophische Begriffsperspektive von Algorithmus ist wesentlich interessanter. Dabei geht es nicht um die technische Spezifizität der Konstruktion und Formalisierung von Algorithmen, sondern um deren Entdeckungs- und Verwendungszusammenhang in kulturellen, also bedeutungskonstituierenden Kontexten.

Es soll an dieser Stelle zunächst ein unorthodoxer Kulturbegriff verwendet werden (Stalder, 2016, S. 16): „Als Kultur werden im Folgenden all jene Prozesse bezeichnet, in denen soziale Bedeutung, also die normative Dimension der Existenz, durch singuläre und kollektive Handlungen explizit oder implizit verhandelt und realisiert wird. Bedeutung manifestiert sich aber nicht nur in Zeichen und Symbolen, sondern die sie hervorbringenden und von ihr inspirierten Praktiken verdichten sich in Artefakten, Institutionen und Lebenswelten. Mit anderen Worten, Kultur ist […] handlungsleitend und gesellschaftsformend.“ Soziotechnische Systeme und institutionelle Prozesse als Teil kultureller und sozialer Praktiken sind für Stalder somit ebenfalls Algorithmen, wenn und weil in ihnen mehr oder weniger lange Entscheidungsketten automatisiert werden (Stalder, 2017, S. 1).

Einerseits werden immer mehr soziokulturelle Praktiken entdeckt, die quantifiziert, algorithmisiert und damit automatisiert werden können. Andererseits werden mit der Quantifizierung Werte zugeordnet, in Wertigkeitsordnungen überführt und institutionalisiert: Rankings und Ratings hierarchisieren, Screenings und Scorings klassifizieren ausgewählte Entitäten (Mau, 2017, S. 23-48.; Gillespie, 2016, S. 22). Als konkretes und ethisch diskussionswürdiges Anwendungsbeispiel eines derartigen Algorithmus, kann Chinas Social Credit System angeführt werden (Creemers, 2018). Mit diesem Zwangssystem soll ab 2020 das gesamte individuelle Verhaltensrepertoire der chinesischen Bürger beobachtet, erfasst, gesammelt, analysiert und in einem summarischen Punktwert durch Algorithmen verrechnet werden. Gesellschaftspolitisch gewünschtes Verhalten wird auf diese Weise mit Punkten belohnt, unerwünschtes mit Punktabzügen sanktioniert. Entsprechend wird soziales Verhalten durch die Menschen adaptiert – wie politisch beabsichtigt. Die soziale Kontrolle und Macht wird damit totalisiert. Wie müssen Algorithmen gebildet, strukturiert und entwickelt, kurz designt werden, um solche massiven Effekte zu erzielen?

Algorithmusdesign zwischen Berechnen und Programmieren

Das Arbeiten mit Algorithmen umfasst zwei Aspekte: Einerseits den Designprozess, andererseits den Abarbeitungsprozess. Nicht alle Probleme eignen sich, um eine Problemlösung mathematisch zu erfassen, einen passenden Algorithmus zu entwerfen und eine Lösung zu berechnen, z. B. eine kreative Neuschöpfung aus dem Nichts. Die Grenzen der Algorithmisierbarkeit sind dann auch die Grenzen des Computers (Ziegenbalg et. al., 2016, S. 203 ff.; Strahm, 1999, S. 8 f.). Erste Voraussetzung ist somit das Vorhandensein eines definierten Problems, das sich mit den Werkzeugen der Mathematik und formalen Logik lösen lässt. Zu den Werkzeugen gehören die Zahlen und Operatoren bzw. die symbolische Logik und Wahrheitstafeln. Eine Grundlage dafür ist die von Gottfried Wilhelm Leibniz entwickelte logisch-mathematische Universalsprache. Entsprechend braucht es Ideen eines menschlichen Designers zur konzeptionellen Lösung des Problems in einem Algorithmus. Dabei wird das Problem letztlich in kleinste Einzelschritte zerlegt, die dann nach Vorgabe des Algorithmus durchgeführt werden (Dourish, 2016).

Die Durchführung des Algorithmus ist eine profane Handlung, während das Design eine anspruchsvolle Aufgabe darstellt. Das Befolgen der Handlungsregeln kann in Abhängigkeit von der Komplexität des Algorithmus eine äußert aufwendige Tätigkeit sein. Insofern war es schon immer ein Ziel, dafür Maschinen zu entwickeln, die zum einen effizienter als Menschen sind, also schneller, genauer, zuverlässiger und günstiger, und die zum anderen keine negativen Auswirkungen aus monotoner, eintöniger Arbeit erleiden müssen. Immerhin, im 17. und 18. Jahrhundert war ein Computer „synonym mit ‚einer Person, die Berechnungen ausführt‘ “, jetzt ist er das Synonym für Maschinen, die Arbeitskraft ersetzen (Floridi, 2015, S. 128).

Mit Hilfe von Programmiersprachen können Algorithmen, auch dynamische Algorithmen des Machine Learning in Form von Code implementiert werden. Hierbei werden den Symbolen der Mathematik Symbole einer maschinenlesbaren Sprache zugeordnet. Darin enthalten sind dann neben den Operatoren auch die Daten, die entweder endogen im Code fest verankert sind oder exogen hinzugefügt werden, z. B. aus Sensoren, Eingabedaten über Peripheriegeräte oder als Ergebnis anderer Algorithmen. Die Berechnung und Darstellung des Datenoutputs übernimmt dann ein Computer in Form von Ergebnissen, wie der Google „PageRank“, der Algorithmus der gleichnamigen Suchmaschine, über die sogenannte „Search Engine Result Page“ oder der „EdgeRank“ in den Newsfeed bei Facebook. Darüber hinaus kann der Datenoutput auch mittels Aktuatoren über elektrische Signale mechanische Steuerungen betätigen, etwa Bremsen oder Lenken in selbstfahrenden Autos (Zweig, 2016; Reichmann, 2019; Dourish, 2016). Ethische Fragestellungen oder Aspekte der Algorithmengüte können in dieser Arbeit nicht erörtert werden. Dazu gehören Fragen über richtig und falsch, gut oder böse, fair oder unfair. Vergleiche dazu etwa Zweig et. al. (2017) oder Rath et. al. (2019). Im Ergebnis kann festgehalten werden: mathematisches Problem und mathematische Lösung werden von Menschen entwickelt, mit all deren Wertungen und Wertzuordnungen, also normativ, und mit vielen subjektiven Modellierungsentscheidungen. Zudem ist der Algorithmus auch kein fixes Objekt, sondern wandelt sich dynamisch, weil er mit anderen Algorithmen vernetzt ist und er von hunderten Designern permanent verfeinert wird, z. B. Google’s PageRank (Stalder, 2016, S. 188; Gillespie, 2016, S. 22). Auch die Entscheidung über Auswahl und Einsatz von Algorithmen treffen Menschen. Dagegen berechnen die Algorithmen das Ergebnis scheinbar objektiv, weil prozessoral im Computer (Zweig, 2016). „Das ist die Magie des Profanen“, formulieren es Seyfert/Roberge (2018, S. 17) und weisen auf die Stärke der Algorithmen hin, Objektivität auf die Welt zu projizieren, z. B. in Form von Listen.

Nachdem deutlich geworden ist, in welchem Zusammenhang Rechnen und Programmieren stehen und welches Gewicht der Ausführung dabei zukommt, bleibt als nächstes die Frage, auf welche Art und Weise Algorithmen Komplexität in der Infosphäre reduzieren und was dabei als komplex bezeichnet werden kann?

Der Algorithmus im Kontext von Big Data

Die Reduzierung von Komplexität ist mit dem Erscheinen des Menschen in der Welt dessen stetige Herausforderung, um Ordnung zu schaffen und das Chaos der vielfältigen Sinneseindrücke und zwischenmenschlichen Handlungen zu überwinden. Für dieses Ordnungserfordernis müssen Informationen über Kausalitäten und Werte von Entitäten sowie die Relationen und Interdependenzen unter ihnen selektiert und analysiert werden. Mit nichtlinear steigender Informationsmenge wird diese Aufgabe komplex und überfordert das Orientierungs- und Selektionsvermögen. Als komplex (im systemtheoretischen Sinn) kann dann eine zusammenhänge Menge von Entitäten bezeichnet werden, wenn nicht mehr jede Entität dieser Menge jederzeit mit jeder anderen Entität in Beziehung gesetzt werden kann (vgl. Luhmann, 2009). Bleibt die Frage, welche kulturellen Lösungen sich zur Komplexitätsreduktion und Ordnung entwickelt haben? Unter Ordnung verstehe ich hier sozial verankerte Werte und Bedeutungen einer zunehmend differenzierten Gesellschaft und die verschiedenen Formen von Wissen. Mit der Entstehung der Sprache, der Bilder und der Schrift werden Informationen über die Lebenswirklichkeit und deren Beherrschung ausgetauscht und textuell gespeichert und weitergegeben.

Anstatt uns auf Experten und Medien, den gesunden Menschenverstand, das Wort Gottes oder wissenschaftliche Erkenntnisse zu beziehen und uns vertrauensvoll darauf zu verlassen, spielen heute Algorithmen bei der Auswahl an Informationen mit steigender Komplexität durch Vernetzung im Sinne von Big Data eine immer größere Rolle. Algorithmen nutzen wir entsprechend für Konsumpräferenzen, die Navigation durch unbekanntes Terrain oder bei der Interaktion mit Anderen in Sozialen Medien. Je mehr Big Data zur Herausforderung wird, desto intensiver erfolgt die Nutzung von Algorithmen. Ja, ohne Big Data wäre die Frage zu stellen, ob der gesunde Menschenverstand nicht ausreichend wäre und auf den massenhaften Rückgriff auf Algorithmen nicht verzichtet werden könnte. Umgekehrt: würde es zur massenhaften Produktion, Sammlung und Datenspeicherung überhaupt kommen, wenn es keine Algorithmen gäbe? Damit werden sie zu einer Schlüssellogik, die die Informationsflüsse bestimmen. Sie bekommen dadurch die Macht, Bedeutungen zuzuweisen und zu steuern und so darzustellen, wie wir Menschen Informationen wahrnehmen, so Tarleton Gillespie (2014, 2016). Algorithmen als Schlüssel der Orientierung in der Infosphäre bestimmen auch deswegen die alltägliche Lebenswelt, weil Datenbanken, Prozessoren und Speichermedien nicht nur immer besser, schneller, mächtiger und billiger geworden sind, sondern weil sie in Technik eingebettet „smart“ sind, bequem sind. Denn, so Stalder (2016, S. 96), wir sind nicht in der Lage Milliarden Websites zu lesen und ihren Sinn zu erfassen, sondern dafür benötigen wir Suchalgorithmen, die Datenmengen auf eine wahrnehmbare Dimension reduzieren. Damit machen sie menschliches Verstehen und Verhalten in der Infosphäre nicht nur erst möglich, sie beeinflussen es, indem sie eine neue Form der Bedeutungsteilung und Sinnvermittlung erzeugen.

Wie werden nun Bedeutungen erzeugt, geteilt und informationstechnisch vermittelt? Zunächst liegen Daten als „relationale Ontologie“ atomisiert und nur lose zusammenhängend in relationalen Datenbanken, im Gegensatz zu hierarchischen Datenstrukturen. Erst durch eine spezielle und materialisierte Abfrage erhalten die Daten eine Ausdruckskraft. Gleichwohl werden sie durch das Datenbankmanagement kategorisiert und unterliegen dadurch einer semantischen und politischen Intervention (Gillespie 2014, S. 171 f.). Was durch Webcrawler von Suchmaschinen an Webseiten nicht erfasst wird, existiert nicht sichtbar, höchstens im „Deep Web“. Was den Definitionsanforderungen an „gute“ Informationen nicht entspricht, wird von Facebook algorithmisch zurechtgestuft oder aussortiert, z. B. „Hate-Speech“. Und was nicht einer bestimmten Kategorie oder Klasse zugeordnet wird, taucht nicht in deren Rankings, Ratings, Scorings oder Screenings auf. Durch die Muster, nach denen Informationen zugelassen oder ausgeschlossen werden ergibt sich eine „Gatekeeper-Funktion“, wie sie aus der Medienwelt des 20. Jahrhunderts bekannt ist – nur das Algorithmen automatisiert und ohne Bewusstsein nach starren Regeln handeln. Damit verbunden ist ein weiteres Phänomen: Algorithmen können nicht erklären, warum sie zu einem bestimmten Output kommen, insbesondere gilt dies für dynamisch erzeugte Algorithmen des Machine Learnings und Big Data (Dourish, 2016, S. 6 f.; Van den Boom, 2014, S. 36; Mainzer, 2018). Aufgabe dieser Algorithmen ist die Mustererkennung auf Basis trainierter oder auch untrainierter Daten und unsichtbarer Korrelationen. Je tiefer die Algorithmen über versteckte Schichten (sog. Hidden-Layer bei Deep-Learning-Algorithmen; Mainzer, 2018, S. 22 f.) zu einem Muster gelangen, desto weniger ist erklärbar, wie es zustande kommt. Ungeachtet dessen werden sie als Entscheidungsgrundlage verwendet, z. B. bei der Strafverfolgung und im Justizwesen (O’Neil, 2018).

Der eigentliche Wert von Big Data liegt aber nicht in den Daten, sondern in den vielen Mustern, die sich daraus algorithmisch extrahieren lassen und die als Output generiert werden. Darin sehen Danah Boyd und Kate Crawford (2013, S. 188) das Phänomen ‚Big Data’ begründet: auf dem Zusammenspiel einer Technologie maximaler Rechenleistung, hoher Präzision der Algorithmen, der Fähigkeit zur Analyse und Formulierung von Mustern und einer Mythologie, die glauben macht, Zugang zu einer höheren Form des Wissens und der Intelligenz zu haben.

Schließlich erfolgt der Output von ‚Big Data Analytics’ in typischen Ordnungsformen des Digitalen. Dazu zählen typischerweise Listen (Rankings) und damit verbundene Praktiken des Auswählens (Screenings), Sortierens und Bewertens (Scorings und Ratings) oder des Empfehlens („wer diesen Song gehört hat, hat auch jenen Song gehört“). Damit eröffnen sich neue Formen des Beobachtens, der Selbst- und Fremdverortung, des Unterscheidens und des wechselseitigen Referierens. Selbstverständlich auch individualisiert, personalisiert und kategorisiert (vgl. Mau, 2017; Passoth/Wehner, 2018).

Welches Zwischenfazit lässt sich ziehen? Algorithmen habe ihre Ursprungsdomäne der mathematischen Problemlösung verlassen, haben massenhaften Einzug in den Lebensalltag durch die Verbreitung der IKT gefunden, in der sie verwendet werden, um in der Infosphäre die Komplexität zu sortieren und verlieren zugleich in Zeiten des Big Data ihre Unschuld. Dabei wird ihnen noch Objektivität zugeschrieben, obwohl deren Wirkungen häufig opak bleiben. Im selben Augenblick schlagen sie mit ihren digitalen Ordnungsformen auf die Kultur, in der wir leben, immer nachdrücklicher durch. Algorithmen scheinen mehr als nur Komplexität zu reduzieren und eine Sortierfunktion zu besitzen. Es ist dementsprechend zu analysieren, welche Wirkungen sie im Vollzug entfalten, wie sie performativ wirken.

Performativität der Kultur

Um die kulturelle Logik der Algorithmen aus der Perspektive der Performativität betrachten zu können, will ich verdeutlichen, was Performativität im Kontext einer digitalen Kultur leistet. Denn wenn Algorithmen Handlungsanweisungen sind, dann muss gefragt werden was genau ‚Handeln‘ ist, wer der ‚Akteur‘ ist und ob es einen Dualismus von Subjekt und Objekt gibt. Damit ist das gemeint, was als ‚soziale Praktik‘ bezeichnet werden kann (Reckwitz, 2003, S. 282). Soziale Praktiken ergeben sich aus Handlungsgepflogenheiten – hier Handeln verstanden, als aus der Vernunft ausgeführtes Tun –, die sich zu Mustern und Stilen verdichten und Handlungszüge für andere erwartbar machen, wobei die Lebenswirklichkeit einen stetigen Wandel dieser Handlungsroutinen durch Aushandeln erfordert (Hörning, 2004, S. 19).

Die Performativität kann demnach einer Theorie sozialer Praktiken zugeordnet werden, die in ihrem Kulturverständnis dem Mentalismus (dem Geistigen, dem Intentionalen) als auch dem Textualismus (dem Symbolischen, dem Kommunikativen) entgegensteht (Reckwitz, 2003, S. 288; Schulz-Schaeffer, 2010). Die beiden wichtigsten Grundpositionen dieser Praxistheorie oder Praxeologie sind einerseits die Materialität des Sozialen und Kulturellen und zum anderen die implizite Logik des sozialen Lebens. Was bedeutet das? Das Verhalten der Akteure hat eine materielle Struktur: zum einen der menschliche Körper, der etwas ausführt, etwas praktiziert, und zum anderen Artefakte, d. h. ‚Dinge‘ mit denen Menschen umgehen. Die Dinge oder Objekte sind dabei Gegenstände, die sinnhaft gebraucht werden und deren praktische Verwendung Teil einer sozialen Praktik ist. Und das diese Praxis ‚Sinn macht‘ und keinen expliziten Regeln unterliegt, sondern auf praktisches Wissen und Können zurückgeführt wird, ist mit der impliziten Logik des Handelns gemeint. So kann man die Nutzung eines Smartphones zur Herstellung eines „Selfies“ und das anschließende Posting mit Hashtag und Emoticon desselben in einem Sozialen Netzwerk als soziale Praktik in diesem Sinne deuten.  

Performativ meint nun, dass sich kulturelle Prozesse und Dynamiken auf eine bestimmte Weise vollziehen und nur im ganzheitlichen Vollzug zu verstehen sind, d. h. ihre Wirkung erst im Vollzug der Aufführung ihren Sinn entfaltet (Volbers, 2014, S. 29). Dabei wird die Dichotomie von Subjekt und Objekt aufgehoben. Nicht die Intention des Subjektes ist entscheidend („ich wollte nur ein Erinnerungsfoto machen“), auch nicht der semantische Gehalt des Objektes („das bin ich auf der Fotografie vor dem Brandenburger Tor“), sondern allein die im ganzheitlichen Vollzug ausgedrückte Bedeutung und Sinnhaftigkeit. Es geht im Kern um das ‚Wissen-wie’ und das implizite Wissen der körperlichen Ausführung. Es geht auch darum, dass die Körperlichkeit des Vollzugs von der sozialen Umwelt als „skillful performance“ verstanden wird (Reckwitz, 2003, S. 290). So liegt der Sinn eines Selfies vielleicht in der Selbstdokumentation und -inszenierung, vielleicht aber auch in der Aktualisierung als Mitglied einer Peer-Group, das sich als „cool“ in Erinnerung ruft, weil das Selfie auf eine bestimmte Art und Weise „kompetent“ aufgenommen und mit einem ironischen Hashtag oder passenden Emoticon sozial geteilt wurde. Auf diese Art und Weise verwebt sich der Einzelne mit seiner community of practice, seiner gemeinschaftlichen Formation, und konstituiert sich und sein Selbst kommunikativ, zeigt Präsenz und generiert zugleich Feedback über die vernetzten Strukturen der Digitalität (Stalder, 2016, S.135 ff.; Reichert, 2015).

Der algorithmische Charakter sozialer Praktiken

Wenn man das Beispiel der skizzierten Selfie Culture in bspw. einer „Traveler Community“ betrachtet, dann erkennt man, dass diese Praxis einem algorithmischen Muster folgt. Auch hier haben wir es mit einem definierten Problem und einem Input zu tun, der nach impliziten, soziokulturell definierten Regeln in endlichen Schritten prozedural in Output transformiert wird. Dabei kommt den Regeln ein Charakter von Handlungsanweisungen zu, die in repetitiven Praktiken „einprogrammiert“ werden. Dieses Programm, also der durch diese sozialen Praktiken codierte Algorithmus, mithin der „kulturelle Code“ unterliegt dabei ständigen Modifikationen, analog Google’s PageRank oder den dynamischen Algorithmen des Machine Learnings, die ja ebenfalls permanent überarbeitet werden. Wie der technische Algorithmus, ist auch der sozialpraktische Algorithmus immer nur eine Momentaufnahme eines praktischen Wissens (Reckwitz, 2003, S. 292). Dieses umfasst erstens ein Wissen im Sinne eines interpretativen Verstehens, zweitens das methodische Wissen um die skript-förmige Prozedur und drittens ein motivational-emotionales Wissen, das als impliziter Sinn dafür, was man eigentlich bezwecken will, „worum es geht“, verstanden werden kann.

Neben dieser impliziten Logik müssen wir auch den Prozess der Handlungsausführung betrachten. Dabei benötigt der Algorithmus materielle Unterstützung in Form des menschlichen Körpers oder von Artefakten. Das wäre bspw. der Kochtopf für das Kochrezept in der analogen, das Smartphone inklusive Prozessor für das Selfie oder der Computer für hochkomplexe Programme des autonomen Fahrens in der digitalen Lebenswelt.

In diesem Sinne sind digitale Kulturen performative Kulturen, in denen häufig körperliche und technische Materialien agieren. Es handelt somit ein Hybrid aus Akteur und Aktant, womit der Bezug zu Bruno Latours Akteur-Netzwerk-Theorie, der ANT, hergestellt wäre. Darin wird die performative Logik von sozialen Praktiken betont, die folgend auf Algorithmen im Kontext der Digitalität übertragen und weiterentwickelt wird (Belliger/Krieger, 2006; Wieser, 2004, S. 95 und 102).

Performative Logik und Legitimität von Algorithmen

In der ANT wird insbesondere die Symmetrie betrachtet, d. h. Akteur und Aktanten handeln nicht als Subjekt und Objekt, sondern der Vollzug der Handlung erfolgt ganzheitlich. Der Subjekt-Objekt-Dualismus ist aufgehoben, weil beide in einer untrennbaren Beziehung zueinanderstehen. In einer Kultur der Digitalität ist der Akteur ein ‚User‘, ‚Nutzer‘ oder ‚Benutzer‘, also eine Person oder ein ‚Ding‘, die bzw. das etwas verwendet. Ein Akteur kann demnach nicht Nichts benutzen, aber er benötigt Handlungsalternativen die ein situiertes Handeln ermöglichen. Umgekehrt ist ein Algorithmus ohne Daten nur eine mathematische Fiktion, die als Prozedur nicht isoliert analysiert werden kann (Schulz-Schaeffer, 1998, S. 152 f.; Willson, 2017, S. 141). Und wenn der Akteur etwas benutzt, dann einen Aktanten, der ein Programm ausführen kann, das auf digitalisierten Codes basiert. In einer zunehmend digitalisierten Lebenswelt werden Prozesse folglich zunehmend entmaterialisiert und informatisiert, um Probleme entsprechend informatorisch durch Algorithmen zu lösen. Der Aktant als Artefakt ist dann das Programm, das auf einem Rechner läuft, Informationen verarbeitet und somit als Algorithmus existiert. Daraus ergeben sich neue Möglichkeiten für performative Praktiken und Interventionen, wenn man umgekehrt berücksichtigt, dass aus einem Aktanten auch ein Agent werden kann. Dieser Agent braucht – siehe oben – Handlungsoptionen, d. h. der Algorithmus ist fähig ein emergentes Resultat aus den Inputs zu genieren, wie es fortschrittliche Algorithmen des Machine Learnings können. So agieren z. B. selbstfahrende Autos oder Roboter in der Fabrikation selbständig in Räumen und können situiert im Netzwerk mit anderen Agenten und Aktanten Entscheidungen treffen.

Diese performative Logik ist der Vollzug des Prozessierens eines Algorithmus. Dessen kulturelle Wirksamkeit zeigt Tarleton Gillespie (2018) beispielhaft an seiner Untersuchung von Trending-Algorithmen auf, die nicht nur auf Facebook, Twitter oder Google, sondern allgegenwärtig Trends ausweisen und markieren, was „populär“ ist. Sie treten als automatisierte Gatekeeper auf, d. h. sie steuern den Überfluss der Informationen aus der Pluralität der Infosphäre und nehmen Einfluss auf Geschmäcker, Präferenzen, Ängste, Diskussionen usw. So sind sie zugleich Mechanismen der Verbreitung als auch der Bewertung und es ist unklar, ob sie Bedürfnisse widerspiegeln oder fabrizieren (Seyfert/Roberge, 2018, S. 18 ff.; Gillespie, 2018, S. 77 und 95). Beispielhaft sei an Trending Topics mit Hashtags wie „#metoo“ oder „#aufschrei“ bei Twitter erinnert, die feministische Diskurse auch außerhalb von Twitter dynamisierten.

Twitter’s Trending-Algorithmus sorgt für Aufmerksamkeit, lässt Nutzer neue Themen finden – vor allem: er bringt bis dahin nicht wahrnehmbare Inhalte zum Vorschein, lenkt die Aufmerksamkeit darauf, was bei anderen Interesse und Wohlgefallen oder Missfallen auslöst, er ist ein Barometer über die öffentlichen Diskurse außerhalb gemeinschaftlicher Formationen und vermittelt kulturelle Relevanz (Gillespie, 2018, S. 85). Anders als in traditionellen Kulturen findet diese Form der algorithmischen Kuration und Evaluation von Populärem jetzt nicht mehr durch den Experten und Opinion Leader statt (Diskjockeys, Filmkritiker, Feuilleton-Journalisten, Celebrities etc.), sondern von jedermann vermittelt und metrisch ausgebeutet von Algorithmen (Gillespie, 2018, S. 89 ff.).

Woher nehmen die Algorithmen ihre Legitimität zum Gatekeeping und zur Vermittlung der kulturellen Relevanz? Während in vordigitalen Kulturen Algorithmen für einzelne Fragestellungen in abgrenzbaren Kontexten eingesetzt wurden, werden diese – und das ist das Neue – gleich millionen- oder gar milliardenfach eingesetzt. Sie agieren erst deshalb performativ und dynamisierend. Zugleich sind Algorithmen selbst in ein Netz von Algorithmen eingebunden. Sie sind demzufolge bedeutsam, weil sie performativ sind und sie sind performativ, weil sie bedeutsam sind. Sie beziehen Ihre Legitimität aus dieser Performanz heraus, die in Echtzeit ganz funktional Lösungen liefern. Aus dieser Profanität resultiert zugleich eine unterstellte, geglaubte Objektivität und Autorität (Seyfert/Roberge, 2018, S. 12 und 16 f.). Der technische Charakter des Algorithmus wird als eine Garantie der Unparteilichkeit von Designern positioniert. Dieser soziotechnische Akteur verleiht den Ergebnissen Relevanz und Glaubwürdigkeit. Zugleich ist er eine Black Box oder zumindest opak, dessen Inneres häufig genug mythologisiert wird, anstatt es zu verstehen (Beer, 2017, S. 13; Gillespie, 2014, S. 179 ff.).

Kultur der Digitalität

Damit der Zusammenhang zwischen Algorithmizität und digitaler Kultur diskutiert werden kann, soll auf vier Kulturbedeutungen zurückgegriffen werden, die Hubertus Busche beschreibt (2018): Auf der einen Seite entwickelt er zwei individualistische Perspektiven einer „Kultur 1“, die man betreibt sowie einer „Kultur 2“, die man hat, und auf der anderen Seite zwei gesellschaftliche Perspektiven einer „Kultur 3“, in der man lebt und einer „Kultur 4“, die man schafft, fördert und gegebenenfalls verehrt. Diese Grundbedeutungen sind miteinander verschränkt und müssen in ein gesamthaftes Kulturverständnis integriert werden, denn Individuen prägen ganz unterschiedlich die Kulturen 1 und 2 und bringen diese in die Gesellschaft ein, umgekehrt formatiert eine eingespielte Kultur 3 und 4 mit ihren symbolischen Formen die Individuen und kanalisiert ihr Gestaltungsvermögen. Sozialwissenschaftliche Disziplinen orientieren sich häufig an der Kultur 3, so Busche (2018, S. 26). Aus dieser Perspektive heraus kennt Kultur 3 in Bezug auf die menschlichen Tätigkeiten kaum Grenzen. Sie reicht von den für eine bestimmte Gesellschaft typischen Formen der Arbeit, des Gütertausches und deren jeweiligen Konventionen über Gewohnheiten des Essens, Trinkens, Kleidens, Wohnens und Kommunizierens bis hin zur Religion und den Denkmustern in Weltbild und Weltdeutung. In den letzten 30 Jahren haben die Menschen wesentliche Teile der Kulturarbeit – das Sortieren, Klassifizieren und Hierarchisieren von Menschen, Orten, Objekten und Ideen – zunehmend an Rechenprozesse delegiert (Striphas, 2015, S. 395). Daraus sind eine Reihe von Kultur-Komposita entstanden, die im Umfeld der Digitalität verwendet werden: Digitale Kultur, Netzkultur, Onlinekultur, Umsonstkultur, Algorithmuskultur, New Media Culture und eben eine Kultur der Digitalität, wie Felix Stalder ihn verwendet. Sein Kulturverständnis ist praxeologisch und performativ ausgerichtet: „Mit anderen Worten, Kultur ist […] handlungsleitend und gesellschaftsformend.“ (Stalder, 2016, S. 16). Durch Materialisierung und Wiederholung wird Bedeutung sichtbar gemacht und sozial verhandelt. Die Aushandlungspraktiken finden dabei vor allem in gemeinschaftlichen Formationen statt. Sein Digitalitätsverständnis schließt daran an: Auf Basis digitaler Technologien und Netzwerke wird ein „Set von Relationen“ genutzt, um persönliches und kollektives Handeln zu realisieren. Zugleich verweist ‚Digitalität’ auf Konstitutionen und Verknüpfungen sowohl menschlicher als auch nicht-menschliche Akteure.

Eine Erweiterung dieser Kulturperspektive der Digitalität lässt sich mit dem ebenfalls praxeologischen Kulturverständnis nach Andreas Reckwitz (2018) entwickeln. Er siedelt ‚Kultur’ zwischen Kultur 3 und Kultur 4 an bzw. erweitert den „schwachen“ Kulturbegriff 3“ um Besonderheiten einer „starken“ Kultur 4, wonach kulturelle Akteure und Artefakte – „Entitäten“ – einen eigenen Wert haben, der in ihnen selbst verankert und nicht nur instrumentell zu denken ist. Diese Werte bilden sich performativ immer wieder neu in einem Prozess der „Kulturalisierung“ und nicht mehr in einem der Rationalisierung (Reckwitz, 2018, S. 52 und 2017, S. 233; Busche, 2018, S. 26 f.). Die Kulturalisierung erfolgt wesentlich durch Prozesse einer affektiven Valorisierung, durch den Werte zugeschrieben und gesichert werden. Entitäten werden damit vor allem einzigartig, nicht austauschbar, sie werden singulär, und digitale Technologien sind die allgemeine Infrastruktur zu ihrer Fabrikation, das digitale Netz ist die „Kulturmaschine“, so Reckwitz (2017, 229). Ähnlich der ANT, hebt auch diese Kulturmaschine den Dualismus von Subjekt und Objekt auf.

Ein eigener Wert kann auch Algorithmen attestiert werden. Keine Erweiterung, aber eine Vertiefung des Kulturbegriffs im Kontext der Digitalisierung und Infosphäre lässt sich bei Tarleton Gillespie (2018, S. 75 ff.) nachvollziehen, der speziell in seinem Verständnis von digital ausgebreiteter Performativität Algorithmen einen eingebetteten, „geheimen“ Wert zuschreibt. Auch ihm greift es dabei zu kurz, ein Einwirken der Algorithmen in kulturelle Dynamiken als Ursache-Wirkungs-Beziehung zu sehen. Er will zeigen, wie Algorithmen selbst zur Kultur werden, und diese nicht nur attributiv prägen, wie es bei Felix Stalder der Fall ist. Mit seiner Studie über Trending-Algorithmen, aber auch nachvollziehbar bei Google, Facebook und anderen Diensten, legt er dar, wie diese selbst aus sich heraus kulturell bedeutsam werden, „[…] wenn ihre spezifischen Arten von Behauptungen lesbar, deutbar und strittig werden.“ (Gillespie, 2018, S. 100). Damit und mit der Sichtbarkeit des Outputs von Algorithmen und ihrem erheblichen funktionalen Bedeutungszuwachs werden sie zugleich als Kultur bedeutsam. Paul Dourish meint (2016, S. 1): „When digital processes become more visible as elements that shape our experience, then algorithms in particular become part of the conversation about how our lives are organized.“ Beobachtbar ist das an den Diskussionen über Filterblasen oder der ökonomisch ausgerichteten Suchmaschinenoptimierung zur besseren Platzierung auf den Suchergebnisseiten.

Postmoderne Kulturtechniken, die eng mit fortgeschrittenen Leistungen der materiellen IKT verwoben sind – Mashup, Remix, Sampling etc. – ermöglichen eine Referenzierung bzw. Rekombination vorhandener Entitäten, die neue Bedeutungen schaffen. Darüber hinaus sind IKT an der Bildung und Dynamik von gemeinschaftlichen Formationen beteiligt. Wenn man jetzt berücksichtigt, dass sowohl Referenzierung, als auch Gemeinschaftlichkeit als Formen einer digitalen Kultur nur auf Basis von Algorithmen möglich sind, dann kommt ihnen mehr zu, als nur eine Form oder einfache Eigenschaft einer Kultur der Digitalität zu sein, wie es Stalder (2016, S. 13) wertet. Dann begründen Algorithmen performative Kulturen in der Digitalität. Der Vollzug von Handlungen ist aus praxeologischer Sicht ohne eine algorithmische Rahmung nicht möglich. Algorithmen sind konstitutiv und eine Möglichkeitsbedingung für Performativität – das gilt in der Infosphäre notwendigerweise mehr denn je.

Fazit

Angesichts der Bedeutung und ihres konstitutiven Charakters, die Algorithmen in einer Infosphäre haben, wäre zu fragen, ob nicht spezifischer von einer Algorithmuskultur der Digitalität gesprochen werden sollte. Galloway (2006) deutete die postmoderne Kultur als Kultur des Algorithmus, die Seyfert und Roberge (2018) übernehmen, aber um zugleich auf die Pluralitäten hinzuweisen, die damit verbunden sind. Es gibt nicht eine Kultur der Algorithmen, es gibt nur multiple Kulturen einer Algorithmizität, die aufgrund ihrer Opazität nicht weiter abgegrenzt werden können (Dourish, 2016, S. 6 ff.). Zugleich zeigt die zunehmende Dichte an Veröffentlichungen zu diesem Thema (siehe auch: Social Media Collective, 2016), den Bedarf an Aufklärung angesichts der Wirkmächtigkeit des Begriffs „Algorithmus“. Aus kulturphilosophischer Perspektive gilt es, die unterschiedlichen Perspektiven aus Kultur- und Wissenssoziologie sowie Medien- und Technikphilosophie und den Science and Technology Studies (STS) zu durchdringen und eine dichtere Begrifflichkeit einer algorithmischen Kultur der Digitalität zu entwickeln. Damit wir Algorithmen besser verstehen lernen und nicht selbstverschuldet unmündig werden.

Literaturverzeichnis

Baecker, D. (2013).
Metadaten. Eine Annäherung an Big Data, in: Geiselberger, H., & Moorstedt, T. (Hg.). (2013). Big Data: das neue Versprechen der Allwissenheit. Suhrkamp Verlag, S. 156-186.

Barad, K. (2017).
Agentieller Realismus, in: Bauer, S., Heinemann, T., & Lemke, T. (Hg.). (2017). Science and technology studies: klassische Positionen und aktuelle Perspektiven. Berlin: Suhrkamp Taschenbuch Wissenschaft, S. 574-644.

Beer, D. (2017).
The social power of algorithms, in: Information, Communication & Society, Vol. 20, No. 1, 2017, S. 1–13.

Belliger, A., & Krieger, D. J. (Hg.) (20069).
ANThology. Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie, Bielefeld: transcript verlag.

Boyd, D. (2018).
Wider die digitale Manipulation, Teil I, in: Blätter für deutsche und internationale Politik, Nr. 8, 2018. Im Internet verfügbar: https://www.blaetter.de/archiv/jahrgaenge/2018/august/wider-die-digitale-manipulation (28.08.2018).

Boyd, D., & Crawford, K. (2013).
Big Data als kulturelles, technologisches und wissenschaftliches Phänomen, in: Geiselberger, H., & Moorstedt, T. (Hg.). (2013). Big Data: das neue Versprechen der Allwissenheit. Suhrkamp Verlag, S. 187-213.

Busche, H. (2018).
„Kultur“: ein Wort, viele Begriffe, in: Busche, H., Heinze, Th., Hillebrandt, F., & Schäfer, F. (Hg.), Kultur – Interdisziplinäre Zugänge, Wiesbaden: Springer Fachmedien Wiesbaden, S. 3-41.

Capurro, R. (2017).
Homo Digitalis, Anthropologie – Technikphilosophie –
Gesellschaft, Wiesbaden: Springer Fachmedien.

Creemers, R. (2018).
China’s Social Credit System: An Evolving Practice of Control, im Internet: verfügbar unter Social Science Research Network (SSRN) https:// papers.ssrn.com/sol3/papers.cfm? abstract_id=3175792 (07.07.2018).

Dourish, P. (2016).
Algorithms and their others: Algorithmic culture in context, in: Big Data & Society, Vol. 3, No. 2, 2016, S. 1-11.

Floridi, L. (2015).
Die 4. Revolution. Wie die Infosphäre unser Leben verändert, Berlin: Suhrkamp Verlag.

Galloway, A.R. (2006).
Gaming: Essays on Algorithmic Culture, in: Electronic Mediations, Vol. 18, Minneapolis: University of Minnesota Press, S. 1-143.

Gillespie, T. (2014).
The Relevance of Algorithms, in: Gillespie, T., Boczkowski, P. J., & K. A. Foot (Hg.). Media Technologies: Essays on Communication, Materiality, and Society, Cambridge, MA: The MIT Press, S. 167-194.

Gillespie, T. (2016).
Algorithm, in: Peters, B. (Hg.). Digital Keywords: A Vocabulary of Information Society and Culture (Princeton Studies in Culture and Technology), S. 18-30, Princeton and Oxford: Princeton University Press.

Gillespie, T. (2018).
#trendingistrending. Wenn Algorithmen zu Kultur werden, in: Seyfert, R., & J. Roberge (2018).  Algorithmuskulturen – Über die rechnerische Konstruktion der Wirklichkeit, Bielefeld: transcript Verlag, S. 75-106.

Hartmann, F. (2018).
Medienmoderne. Philosophie und Ästhetik, Wiesbaden: Springer VS.

Hörning, K. H. (20014).
Soziale Praxis zwischen Beharrung und Neuschöpfung. Ein Erkenntnis- und Theorieproblem, in: Hörning, K. H., & Reuter, J. (Hg.). Doing Culture, Bielefeld: transcript Verlag, S. 19-39.

Kowalski, Robert (1979).
Algorithm = logic + control, in: Communications of the ACM, Vol. 22, Nr. 7, S. 424-436.

Luhmann, N. (2009).
Zur Komplexität von Entscheidungssituationen, in: Soziale Systeme Nr. 15, Heft 1, 2009, S. 3-35.

Mainzer, K. (2018).
Wie berechenbar ist unsere Welt? Wiesbaden: Springer Fachmedien Essential

Mau, S. (2017).
Das metrische Wir. Über die Quantifizierung des Sozialen. Berlin: Suhrkamp verlag.

O’Neil, C. (2018).
Angriff der Algorithmen. Wie sie Wahlen manipulieren, Berufschancen zerstören und unsere Gesundheit gefährden, 2. Aufl., München: Hanser Verlag.

Ottmann, Th., & Widmayer, P. (2017).
Algorithmen und Datenstrukturen, 6. Aufl., Berlin, Heidelberg: Springer.

Passoth, J.-H., & Wehner, J. (2018).
Listen, Daten, Algorithmen. Ordnungsformen des Digitalen, in: Mämecke, T., Passoth, J.-H., & Wehner, J. (Hg.) Bedeutende Daten: Modelle, Verfahren und Praxis der Vermessung und Verdatung im Netz, Wiesbaden: Springer Fachmedien, S. 51-68.

Rath, M., Krotz, F., & Karmasin, M. (Hg.) (2019).
Maschinenethik. Normative Grenzen autonomer Systeme, Wiesbaden: Springer Fachmedien, S. 135-153.

Reckwitz, A. (2003).
Grundelemente einer Theorie sozialer Praktiken. Eine sozialtheoretische Perspektive, in: Zeitschrift für Sozologie, Jg. 32, Nr. 4, 2003, S. 282-301.

Reckwitz, A. (2017).
Die Gesellschaft der Singularitäten, Berlin: Suhrkamp Verlag.

Reckwitz, A. (2018).
Die Gesellschaft der Singularitäten in: Busche, H., Heinze, Th., Hillebrandt, F., & Schäfer, F. (Hg.), Kultur – Interdisziplinäre Zugänge, Wiesbaden: Springer Fachmedien Wiesbaden, S. 45-62.

Reichert, R. (2015).
Selfie Culture. Kollektives Bildhandeln 2.0, in: POP. Kultur und Kritik, Jg. 5, Heft 2 Herbst, 2015, Bielefeld: transcript, S. 86-96.

Reichmann, W. (2019).
Die Banalität des Algorithmus, in: Rath, M., Krotz, F., & Karmasin, M. (Hg.) (2019): Maschinenethik. Normative Grenzen autonomer Systeme, Wiesbaden: Springer Fachmedien, S. 135-153.

Schulz-Schaeffer, I. (1998).
Akteure, Aktanten und Agenten, in: Malsch, Th. (Hg.): Sozionik. Soziologische Ansichten über künstliche Sozialität, Berlin: Edition Sigma, S. 128-167.

Schulz-Schaeffer, I. (2008).
Technik, in: Baur, N. et. al. (Hg.): Handbuch Soziologie, Wiesbaden: VS Verlag für Sozialwissenschaften, S. 445–463.

Schulz-Schaeffer, I. (2010).
Praxis, handlungstheoretisch betrachtet, in: Zeitschrift für Soziologie, Jg. 39, Nr. 4, 2010, S. 319-336.

Sedgewick, R., & Wayne, K. (2014).
Algorithmen. Algorithmen und Datenstrukturen, 4., Aufl., Halbermoos: Pearson Deutschland.

Seyfert, R., & Roberge, J. (Hg.) (2018).
Algorithmuskulturen – Über die rechnerische Konstruktion der Wirklichkeit, Bielefeld: transcript Verlag.

Social media Collective (2016).
Critical Algorithm Studies: a Reading List, im Internet: https://socialmediacollective.org/reading-lists/critical-algorithm-studies (16.08.2018)

Stalder, F. (2016).
Kultur der Digitalität, Berlin: Suhrkamp Verlag.

Stiller, S. (2015).
Planet der Algorithmen, München: Albert Knaus Verlag.

Stock, W. G. (2007).
Information retrieval: Informationen suchen und finden, München: Oldenbourg Verlag.

Strahm, T. (1999).
Logik in Informatik, Mathematik und Philosophie. Vortrag an der Universität Bern, im Internet: https://www.iam.unibe.ch/~strahm/ download/pdf/talk_kocher_99.pdf (12.08.2018).

Striphas, T. (2015).
Algorithmic culture, in: European Journal of Cultural Studies Vol. 18, No. 4–5, S. 395–412.

Van den Boom, H. (2014).
Big Data: Eine neue Grundlage für Design?, in: Öffnungszeiten, Vol. 28, Nr. 14, 2014, S. 34-42.

Volbers, J. (2014).
Performative Kultur. Eine Einführung, Wiesbaden: Springer.

Wieser, M. (2004).
Inmitten der Dinge. Zum Verhältnis von sozialen Praktiken und Artefakten, in: Hörning, K. H., & Reuter, J. (Hg.). Doing Culture, Bielefeld: transcript Verlag, S. 92-107.

Willson, M. (2017).  
Algorithms (and the) everyday, in: Information, Communication & Society, Vol. 20, No. 1, 137-150.

Ziegenbalg, J., Ziegenbalg, O., & Ziegenbalg, B. (2016).
Algorithmen: von Hammurapi bis Gödel. Texte zur Didaktik der Mathematik (4. Auflage), Wiesbaden: Springer Fachmedien.

Zweig, K. A. (2016).
Arbeitspapier: Was ist ein Algorithmus?, Im Internet: https://algorithmwatch.org/de/arbeitspapier-was-ist-ein-algorithmus/ (04.08.2018).

Zweig, K. A., Deussen, O., & Krafft, T. D. (2017).
Algorithmen und Meinungsbildung, in: Informatik-Spektrum, Vol. 40, Nr. 4, 2017, S. 318-326.

 

Hier gibt’s die PDF-Version des Fachartikels 

Lena Alexandra Gieling: Konsument und Algorithmus – eine Beziehung?

Der vorliegende Beitrag beschäftigt sich mit dem Einsatz von künstlicher Intelligenz in der Kundenkommunikation und soll herausstellen, inwiefern durch die Verwendung von Chatbots eine Marken-Konsumenten-Beziehung etabliert werden kann. Zudem wird untersucht, welche Auswirkungen die Kommunikation mit einem Chatbot auf das Kaufverhalten der Konsumenten hat. Die Unternehmenskommunikation sowie das Relationship Marketing bieten viele Optionen zur Gestaltung einer Marken-Konsumenten-Beziehung. Der Chatbot stellt dabei eine moderne Interaktionsmöglichkeit dar, die einen Austausch zwischen Konsument und Marke ermöglicht und nicht mehr eine rein parasoziale Interaktion darstellt. Zum Verständnis des Konsumenten und dessen Handlungen werden sowohl soziologische, kollektivistische Theorien wie die Habitustheorie von Bourdieu herangezogen, als auch die These der Individualisierung des Einzelnen von Beck vorgestellt. Anschließend werden mittels des Konzepts der Erfolgskette die einzelnen Komponenten der Beziehung und die aus den Unternehmensaktivitäten resultierenden Wirkweisen auf den Konsumenten vorgestellt.

Mittels vier einzelner Hypothesen wird im Rahmen einer Online Umfrage untersucht, ob die hypothetische Annahme zutrifft, dass der Homo Oeconomicus durch eine rationale, mit einem Chatbot geführte Interaktion zufriedengestellt wird und so eine höhere Preisbereitschaft zeigt. Im Kontrast dazu wird der Homo Sociologicus in den Fokus gestellt und die Annahme, dass dieser die emotionale, persönliche Kommunikation präferiert und dies förderlich für dessen Vertrauensbildung ist, welche sich in der geringeren Preissensibilität niederschlägt.

Neben dem Schlüsselbund und dem Geldbeutel darf heutzutage bei den meisten Deutschen ein weiterer alltäglicher Begleiter beim Verlassen des Hauses nicht fehlen: das Smartphone. 78% der Deutschen ab 14 Jahren nutzen ein Smartphone – etwa doppelt so viele wie noch vor 5 Jahren. Während die Telefonie sowie die Kamerafunktionen die Spitzenreiter unter den Anwendungen sind, nutzen 72% der Smartphone-Besitzer Kurznachrichtendienste (vgl. bitkom e.V. 2017a). Eine Entwicklung, die sich auch im allgemeinen Nutzungsverhalten des Internets wiederspiegelt: zwei von drei Internetnutzern (69%) verwenden Messenger Anwendungen wie WhatsApp oder den Facebook Messenger (vgl. bitkom e.V. 2016, o.S.).

Diese schnelle und kostengünstige Möglichkeit der Interaktion ist nicht nur in der privaten Kommunikation weit verbreitet, sondern findet auch bei den Unternehmen immer mehr Anklang. Neben dem klassischen Kundenservice, der über Messenger Dienste erreichbar ist, ergeben sich auch ganz neue Geschäftsmodelle auf Basis der Kommunikation via Messenger. Die niederländische Airline KLM ermöglicht ihren Kunden in neun verschiedenen Sprachen einen Service, der das gesamte Flugerlebnis begleitet: von der Zusendung der Flugunterlagen via Facebook Messenger über die Information zu Check-In Zeiten, bis hin zur Änderung von Sitzplätzen kann alles über den Facebook Messenger abgewickelt werden. Dabei ist KLM rund um die Uhr erreichbar und antwortet dank der Verwendung von künstlicher Intelligenz, und somit dem Verzicht auf den Einsatz von Servicemitarbeitern, unmittelbar (vgl. KLM 2017b, o.S.). Inzwischen wurde der Service auch auf die Messenger Dienste WhatsApp, WeChat und das Netzwerk Twitter ausgeweitet (vgl. KLM 2017a, o.S.). Auch im Bereich des E-Commerce wird die individuelle Kundenbetreuung und vor allem Kundenberatung immer relevanter. Viele Konsumenten vermissen beim Online-Shopping die persönliche Beratung (vgl. Reinhardt 2015, S. 52.). Der Online Shop Zalando bietet mit Zalon eine Stylingberatung an, die eine Brücke zwischen E-Commerce und persönlicher, menschlicher Beratung schlägt. Die Beratung soll dabei helfen, das perfekte Outfit für den individuellen Kunden zu finden. Dazu wird zunächst ein Fragebogen ausgefüllt und ein persönliches Telefonat mit einem der Stylisten geführt, welcher von dort an für die Modeberatung des Kunden zuständig ist. So soll das optimale Ergebnis erzielt und dem Kunden ein Outfit zugeschickt werden, welches bestmöglich zu seiner Persönlichkeit passt. Die weiteren Einkäufe, die womöglich getätigt werden, basieren dann auf der reinen Online-Kommunikation im Rahmen des Shopsystems (vgl. Zalon 2017, o.S.). Während Zalon auf Manpower und die Kenntnisse der Stylisten setzt, um den Kunden die Produkte von Zalando zu verkaufen, wählt das 2015 gegründete Start Up Chatshopper eine andere Basis für die Beratung: der auf künstlicher Intelligenz basierende Chatbot Emma tritt in eine von Algorithmen gesteuerte Interaktion mit dem Kunden und verwendet gesammelte Daten, um das bestmögliche Resultat zu erzielen. (vgl. Gründerszene 2017, o.S.) Neben den fachlichen und in diesem Falle auch modischen Kenntnissen, die beide Anbieter dem Kunden entgegenbringen müssen, bedarf es seitens des Kunden primär die Bereitschaft, seine persönlichen Wünsche und Vorstellung einer fremden Person oder gar einem Roboter mitzuteilen und auf dessen Kenntnisse und Fähigkeiten in der Erfüllung persönlicher Vorstellungen zu vertrauen.  Ob dieses Vertrauen bei einer Interaktion mit einem von künstlicher Intelligenz gesteuerten Roboter aufgebaut werden kann und zu einem Kauf führen kann, ist Gegenstand dieser Arbeit. Da bisher keine Studien vorliegen, die auf die Möglichkeiten der künstlichen Intelligenz in der Kundenkommunikation mittels eines sprachlichen Codes eingehen und die Auswirkungen der Interaktion auf die Beziehung zwischen den Akteuren und die Preisbereitschaft des Konsumenten eingehen, obliegt es dieser Arbeit, diese Forschungslücke zu schließen. Die sich ergebende Forschungsfrage lautet: Inwieweit können virtuelle Interaktionen in von Algorithmen gesteuerten sozialen Medien die Marken-Konsumenten-Beziehung und damit das Kaufverhalten beeinflussen?

Die bisherigen Forschungen zur grundsätzlichen Akzeptanz von Chatbots in der Interaktion von Kunden und Unternehmen sind bislang noch stark konträr. Eine Studie von Fittkau & Maaß Consulting zeigt, dass Konsumenten die Beratung durch einen Chatbot bislang tendenziell eher ablehnen, während die Aktivitäten der Airline KLM (vgl. KLM 2017c) sowie eine YouGov Studie aus 2017 nachwies, dass die Befragten durchaus zur Nutzung von Chatbots bereit sind.

Holzwarth et al. untersuchten bereits im Jahr 2006 die Auswirkungen von Avataren auf das Kaufverhalten. Dabei wurde ein positiver Einfluss auf die Zufriedenheit, die Einstellung zum Produkt sowie Unterhaltungs- und Informationswerte der Websites erkannt, die sich schließlich im Kaufverhalten wiederspiegelten. Jedoch wurden die Avatare in Form von gezeichneten Menschen, ähnlich wie Comic Figuren, dargestellt und visuell präsentiert. So lag der Fokus der Untersuchung primär auf den Auswirkungen der Attraktivität der Avatare oder dem Expertenwissen, weniger auf der Beziehung zwischen Konsument und Avatar sowie der Wirkung der sprachlichen Kommunikation. Aufgrund der ständig weiter voranschreitenden Entwicklung der Chatbots und den sich dadurch erweiternden Fähigkeiten ist es notwendig, die Entwicklung der Akzeptanz in Relation zu den Weiterentwicklungen zu beobachten. Dabei ist es Ziel dieser Arbeit zu erfahren, ob die Interaktion mit dem vom Algorithmus gesteuerten Chatbot Auswirkungen auf die Marken-Konsumenten-Beziehung hat, oder ob der Kunde keinen Transfer der Interaktionserfahrung auf die Marke vornimmt. Eine Untersuchung, welche dieser Fragestellung nachgeht, liegt bislang nicht vor. Der Fachartikel untersucht zunächst das Unternehmen als Beziehungspartner und stellt anschließend die Möglichkeiten sowie Vor- und Nachteile eines Chatbots vor. Um die Möglichkeiten der Verwendung von Chatbots zu verstehen, wird nach dessen Einführung auf die Interaktion eingegangen. Getrieben von der Frage, wie es Unternehmen möglich sein kann, jeden Kunden möglichst zielgerichtet anzusprechen, werden verschiedene Ansätze zur Strukturierung der Gesellschaft und zum Verständnis des Konsumenten vorgestellt. Sind die beiden Beziehungspartner beleuchtet, so wird auf die Beziehung zwischen diesen genauer eingegangen. Dabei wird sich an der aus dem beziehungsorientierten Marketing stammenden Erfolgskette orientiert, um den Verlauf einer Beziehung zwischen Unternehmen und Konsument anhand der notwendigen Aufwendungen und deren Wirkungen, sowohl psychologisch als auch verhaltensbezogen, bis hin zum Resultat für das Unternehmen, zu untersuchen. Mittels einer Online-Umfrage wird versucht, die Forschungslücke zu schließen und die zugrundeliegende Forschungsfrage zu beantworten.

Die Beziehung zwischen Unternehmen und Konsument

Unternehmen sind in die Umwelt eingebundene Akteure, welche viele Anspruchsgruppen bedienen müssen und zeitlich dem ständig wachsenden Wettbewerbsdruck standhalten müssen, um den Konsumenten zu erreichen (vgl. Kroeber-Riel/Esch 2015, S. 18f.). Diese konträre Entwicklung von steigendem Werbedruck sowie einem stetig wachsenden Angebot und der endlichen Aufnahmekapazität der Konsumenten fordert von den Unternehmen ein Umdenken, um sich als charakterstarker Beziehungspartner der Konsumenten zu positionieren (vgl. Fournier 1998, S. 343). Als Basis für eine Beziehung dienen wiederkehrende Interaktionen, welche sich durch ein hohes Maß in Subjektivität auszeichnen (vgl. Asendorpf/Banse 2000, S.4) Kognitive Bindungsmotive, also psychologisch begründete, emotionale Anlässe sowie affektive Motive begründen die Eröffnung und Erhaltung einer Beziehung aus Sicht des Kunden (vgl. Eggert 2000, S. 122). Fournier erkannte, dass Konsumenten ihre Markenwahl nicht aus rein rationalen Gründen treffen, sondern eine Identifikation mit der Marke und der durch diese verkörperte Lebenswelt notwendig ist (vgl. Fournier 1998, S. 367). So konstruieren Marken für den Konsumenten einen symbolischen Nutzen, wie beispielsweise die Gruppenzugehörigkeit oder die soziale Anerkennung, um affektive Bindungsmotive zu schaffen (vgl. Burmann/Meffert 2005, S. 55). Konative Bindungsmotive hingegen können finanzielle Anreize sowie verschiedene Ausprägungen der Gebundenheit sein und basieren somit auf dem rein funktionalen Nutzen der Marke. Die Unternehmenskommunikation sowie das Relationship Marketing sind geeignete Möglichkeiten, die Konsumenten zu erreichen, ihr Wissen zu beeinflussen und an das Unternehmen zu binden (vgl. Zerfaß 2014, S. 28). Die Unternehmenskommunikation sowie das Relationship Marketing bieten Möglichkeiten, die Interaktionen mit den Kunden zu gestalten, welche auf Basis von umfassenden Analysen ausgewählt werden. Schnell, persönlich und individuell – die Traumvorstellung einer jeden Marken-Konsumenten-Beziehung, die für das Unternehmen einen hohen Ressourcenaufwand bedeuten. Doch durch die Digitalisierung bilden sich nicht nur die Ansprüche der Kunden stetig weiter aus, sondern auch die Möglichkeiten der Unternehmen, wie die Implementierung von Chatbots. Hinter dem Begriff Chatbot, welcher eine Abkürzung von „chat robot“ darstellt, verbirgt sich ein Dialogsystem, welches basierend auf Algorithmen auf textuelle oder auditive Anfragen von Nutzern reagiert (vgl. Bendel 2016, S. 28). Während einfachere Chatbots nur auf vorgegebene Befehle oder Muster reagieren, verfügen andere über künstliche Intelligenz und nutzen so maschinelles Lernen. Diese lernenden Bots erweitern mit jeder Interaktion ihren Sprachschatz sowie ihr Wissen und können so immer komplexer werdende Konversationen führen (vgl. Tröger 2017, o.S.). 1966 wurde erstmals mit ELIZA am Massachusetts Institute of Technology eine natürliche Mensch-Maschine-Kommunikation über geschriebene Sprache im Rahmen einer Psychotherapie ermöglicht (vgl. Weizenbaum 1966, S. 39.). Was damals noch eine außergewöhnliche Dialogform war, ist heute schon massentauglich. Im E-Commerce finden Chatbots heute ihre Anwendung und bieten dort eine schnelle Kontaktoption zu dem Anbieter, um Fragen zu Produkten und Dienstleistungen zu beantworten. Sie treten häufig in Kombination mit Avataren auf. Insbesondere über Facebook binden Unternehmen Chatbots ein. Der Nutzer muss daher nicht mehr die Website des Unternehmens oder des Online-Shops aufrufen, sondern kann direkt den Facebook Messenger nutzen. Ein Chatbot bietet das Maximum an Einfachheit für den Kunden und ermöglicht einen ständig verfügbaren Kundenservice ohne Wartezeiten, schlecht gelaunte Mitarbeiter und garantiert eine kurze Reaktionszeit (vgl. Jehmlich 2017, o.S.). Dies wirkt sich positiv auf die Interaktion und das vom Nutzer empfundene Markenerlebnis aus und erhöht die Wechselbarrieren (vgl. Esch/Kiss 2006, S. 100f.). Für Unternehmen bietet sich zudem der Vorteil der Skalierbarkeit und die bessere Erreichbarkeit der Nutzer, welche sonst den Newsletter im Spam übersieht oder direkt löscht. Der Chat erscheint in der Regel direkt auf dem privaten Lockscreen und erlangt so eine erhöhte Aufmerksamkeit (vgl. Tantau 2017, S. 72ff.). Wie eine Studie von Holzwarth et al. zeigte, wirkt sich der vermeintlich persönliche Kontakt zwischen Marke (Chatbot) und dem Konsumenten positiv auf die Glaubwürdigkeit der Marke und der von ihr übermittelten Informationen sowie auf das Nutzenempfinden des Kunden aus. Dieses Zusammenspiel der positiven Auswirkungen auf Glaubwürdigkeit und Nutzenempfinden schlägt sich letzten Endes auf die Zufriedenheit des Kunden und schlussfolgernd auf dessen Kaufbereitschaft nieder (vgl. Holzwarth et al. 2006, S. 25f.).

Interaktionen zur Etablierung einer Beziehung

Die Eröffnung einer Interaktion stellt den ersten Schritt einer Konsumenten-Marken-Beziehung dar. Eine Interaktion liegt per Definition dann vor, wenn zwei oder mehr Personen ein aufeinander bezogenes Handeln an den Tag legen und so eine Wechselbeziehung zwischen den Interagierenden entsteht (vgl. Duden o.J.). Während Hillmann eine Interaktion dann erkennt, wenn einer der Akteure sich an den Erwartungen und Einschätzungen – egal ob positiv oder negativ – orientiert und somit nicht nur das sofort erkenntliche Handeln mit einbezieht und darauf reagiert (vgl. Hillmann 1994, S. 381f.), setzt Homans die Auslösung einer Aktivität beim Gesprächspartner voraus. Somit wird im Rahmen der Austauschtheorie von einem Tausch von materiellen und nicht-materiellen Gütern, wie Anerkennung, gesprochen (vgl. Homans 1958, S.597ff.). Als soziale Interaktion wird eine Interaktion dann verstanden, wenn das Verhalten von mindestens zwei Menschen voneinander abhängig ist und aufeinander reagiert (vgl. Asendorpf/Banse 2000, S. 3). Aus einer Folge von Interaktionen, die in einem inhaltlichen Bezug zueinanderstehen und somit zukünftiges Verhalten vorhersagbar machen, ergibt sich eine Beziehung (vgl. Bruhn/Eichen 2007, S. 226).

Von der parasozialen zur pseudo-sozialen Beziehung

Die Voraussetzung der gegenseitigen Reaktion aufeinander erfüllt die Interaktion im Umgang mit Medien nicht immer: während ein Rezipient Fernsehen schaut und auf eine Medienperson (Persona) reagiert, scheint er eine Interaktion einzugehen. Die Persona hingegen nimmt diese Reaktion nicht wahr und kann dementsprechend nicht darauf reagieren – es entsteht eine Illusion eines Gesprächs oder eines Austausches (vgl. Horton/Wohl 1956, S. 215). Durch diese Interaktionen, die den Rezipienten zu einer Reaktion verleiten, welche aber durch die mangelnden Rückkanäle der Massenmedien, nicht die Persona erreicht, entsteht eine parasoziale Interaktion (vgl. ebd.). Wie Erkenntnisse der Markenkommunikation zeigen, schreiben Menschen Marken Eigenschaften zu und bauen anhand dieser eine Beziehung zu ihnen auf. Die Animismustheorie untermauert diese Annahme (vgl. Fournier 1998, S. 344f.). Studien zeigen, dass der bewusste Einsatz von Subjekten wie Testimonials, zu denen eine parasoziale Beziehung aufgebaut werden kann, Einfluss auf die Einstellung gegenüber der Marke und der Kaufabsicht hat. Je attraktiver und sympathischer ein Subjekt wahrgenommen wird, desto positiver wirkt sich dies auf die Beziehung aus (vgl. Knoll/Schramm/Schallhorn/Wynistorf 2015). Transferiert man diese Erkenntnis auf die Markenkommunikation, so ist davon auszugehen, dass eine emotional geprägte Kommunikation positiv zur Marken-Konsumenten-Beziehung beiträgt. Da die parasoziale Beziehung sich jedoch nur auf die unidirektionale Art der Kommunikation bezieht, scheint diese Definition in Zeiten sozialer Medien nicht mehr ausreichend. Der Chatbot bietet die reale Möglichkeit zur Interaktion, welcher aufgrund seiner Fähigkeiten und seines Verhaltens vorgibt, eine natürliche Beratung zu sein, die einem Menschen gleichkommt. Die Interaktion scheint sozial zu sein, da sich die Partner in der Interaktion aufeinander beziehen, jedoch gibt der Chatbot nur vor, ein realer Interaktionspartner zu sein. Da er tatsächlich nur ein rein technisches Objekt ist, welches aufgrund seiner Programmierung variabel reagiert und interagiert, scheint es angebracht, die Interaktion zwischen einem Chatbot und einem Menschen als pseudo-soziale Interaktion zu beschreiben. Je intensiver die Interaktion zwischen dem Kunden und der Marke ist, desto förderlicher ist dies für den Aufbau der Beziehung zwischen den beiden Partnern. Diese erhöhte Interaktionsdichte bestärkt zudem das Vertrauen ineinander (vgl. Burmann/Meffert 2005, S. 65ff.).

Der Konsument – Resultat des Kollektivs oder Individuum?

Im Rahmen des Kollektivismus, welchem auch Pierre Bourdieu zuzuordnen ist, wird die Annahme vertreten, dass nicht der Einzelne als freier Akteur die Gesellschaft mitgestaltet und prägt, sondern von dieser geprägt wird und aufgrund des ihn umgebenden sozialen Raums vorbestimmte Verhaltensmuster aufweist (vgl. Bourdieu 1976, S. 165.). Mittels seiner Positionierung in den einzelnen Feldern kämpft der Einzelne um Ansehen und Distinktionen, um so seinen individuellen Marktwert zu schaffen.  Zur Erreichung dieses Ziels stehen dem Akteur als Handlungsressourcen das ökonomische, das soziale sowie das kulturelle Kapital zur Verfügung, welche sich zum symbolischen Kapital verdichten und eine soziale Funktion tragen. Der von den Kapitalien geprägte Lebensstil des Einzelnen wird von Bourdieu als Habitus bezeichnet und beschreibt neben dem offensichtlichen Verhalten auch die Einstellungen sowie den Geschmack (vgl. Bourdieu 2014, S. 278.). Insbesondere durch die ästhetischen Werturteile grenzt der Habitus Gruppen durch Stilisierung voneinander ab. Er bringt Praktiken hervor, beispielsweise des Konsums oder des Tragens von Kleidung, und drückt sich somit in symbolischen Handlungen aus, welche den Einzelne in der gesellschaftlichen Matrix, den Feldern, positioniert. Der Mensch ist, so Bourdieu, ein Gemeinschaftswesen und nicht individualistisch geprägt. In den Ansätzen von Linton (vgl. Linton 1973, S. 311f.) und Parsons (vgl. Vgl. Parsons 1937, S. 11) wird die Übernahme von gesellschaftlich Auferlegten Erwartungen als Rolle verstanden, welche durch die soziale Ordnung gelenkt wird. Mead versteht die Übernahme von Rollen als ein Spiel (vgl. Mead 1973, S. 216ff.) und schreibt den Menschen die Fähigkeit des role-takings zu, also der bewussten Einnahme der Rolle, insbesondere der Perspektive, des Gegenübers. Dieses Konzept ist vor allem für den Chatbot und dessen zugrundeliegenden künstlichen Intelligenz von Bedeutung. Dieser kann somit die Einstellungen des Anderen internalisieren und sich somit so verhalten, wie es für die Interaktion am förderlichsten ist. Das role-taking ermöglicht es dem Akteur, sich auf den Interaktionspartner einzustellen (vgl. Mead 1973, S. 254). Dieser von der Gesellschaft geprägte Akteur wird als Homo Sociologicus verstanden, welcher der Träger von sozial vorgeformten Rollen ist (vgl. Dahrendorf 2006, S. 24.). Entgegen diesen von der Gesellschaft und ihren Normen und Werten getriebenen Rollenträgern steht der Handlungstypus des Homo Oeconomicus. Der Konsument wurde aus dem Blickwinkel der Ökonomie viele Jahrzehnte immer nur als rein rationales Wesen angesehen, welches unabhängig von seinen sozialen Beziehungen und seiner Position in der Gesellschaft agiert. Dieses Menschenbild des Homo Oeconomicus sieht den Einzelnen als ein wirtschaftlich denkendes und handelndes Wesen, welcher lediglich die eigene materielle Nutzenmaximierung fokussiert. Entscheidungen werden rein rational getroffen und ohne Einbeziehung von emotionalen Komponenten oder Rücksicht auf Werte und Normen gefällt (vgl. Kron/Winter 2009, S. 45). Eine Bindung zu einer Marke aufzubauen liegt einem Homo Oeconomicus fern, denn er wägt vor einer Kaufentscheidung stets neu ab und entscheidet nicht aufgrund seiner Erfahrungen, sondern aufgrund des aktuell gegebenen Kosten-Nutzen-Verhältnisses. Dem schließt sich die Individualisierungsthese von Beck an, welche ihren Ursprung in dem stetigen Zuwachs an Wohlstand, Bildung und Freizeit in der reflexiven Moderne um 1960 fand (vgl. Schimank 2012, o.S.). Während fremd- und gottbestimmte Lebensweisen im Zuge einer Endtraditionalisierung wegfallen, gewinnen Routinen des direkten Miteinanders an Bedeutung. Das Individuum muss sich und seine Handlungen reflektieren, da es für seine Biographie, entgegen der Annahme des Habitus, nun selbst verantwortlich ist. Für Beck ist dies die neugewonnene Zwangsfreiheit: Entscheidungen müssen in Eigenverantwortung getroffen werden, ohne die Hilfe Gottes und die Einrahmung durch das Soziale, sondern lediglich mit Hilfe der eigenen Vernunft. Diese ständige Auswahl der Möglichkeiten, losgelöst von jeglichen sozialen Strukturen, macht den Menschen zum Homo Optionis (vgl. Beck/Beck-Gernsheim 1994, S. 13ff.) Gerhard Schulze betrachtet im Rahmen seiner empirisch-mikrosoziologischen Untersuchung die Auflösung von Traditionen und gesellschaftlichen Verpflichtungen als Anstoß hin zur Erlebnisorientierung des Einzelnen, um einen schönen, genussvollen Gegenpol zu dem auferlegten Zwang zur Entscheidung zu bilden. Die Menschen streben immer weiter danach, ihr Leben mittels schönen Erlebnissen zu verschönern und somit durch äußere Einflüsse die inneren Konflikte, welche die Individualisierung ihnen auferlegt, zu kompensieren (vgl. Copray 1993, S.3). Überträgt man diese Erkenntnisse auf die Unternehmenskommunikation, so wird schnell deutlich, dass der Konsument nicht mit reinen Produktinformationen zum treuen Kunden wird. „Konsumenten wollen heutzutage unterhalten, stimuliert, emotional berührt und kreativ herausgefordert werden“ (Bauer/Heinrich/Samak 2012, S.4). Die Interaktion kann zur positiveren Wahrnehmung einer Marke beitragen und (Werbe-) Botschaften einprägsamer und somit langlebiger vermitteln (vgl. Bauer/Heinrich/Samak 2012, S. 5).

Das Konzept der Erfolgskette

Die Erfolgskette als ein Konzept aus dem beziehungsorientierten Marketing bietet die Möglichkeit, die Wirkweisen der Unternehmensaktivitäten auf den Konsumenten zu strukturieren und zu erfassen. Dabei gibt die Beziehungsqualität als beziehungsbezogene und psychologische Dimension Auskunft darüber, inwieweit das Unternehmen fähig ist, die Beziehung zum Konsumenten dessen Vorstellungen und Anforderungen entsprechend zu gestalten (vgl. Hadwich 2003, S. 22). Die Beziehungsqualität setzt sich aus Dimensionen wie Vertrauen, Vertrautheit, Kundenzufriedenheit und dem wahrgenommenen Wert zusammen. Die Entwicklung dieser Dimensionen wirkt sich auf die Gesamtbeurteilung der Beziehung durch den Konsumenten gegenüber dem Unternehmen und dessen Akteuren aus, welche wiederum die Verhaltenswirkungen der Konsumenten beeinflusst (vgl Bruhn 2016b, S. 92ff.).

Ein ähnliches Konzept wie das der Beziehungsqualität, allerdings aus einer pragmatischen Perspektive, zieht auch der Philosoph Robert Brandom heran, um die Beziehung zwischen zwei Akteuren erklären zu können. Das voluntative Einhalten von Regeln, welche dem Akteur durch Normen und Werte vermittelt wurden, bezeichnet er als den normativen Status, welcher dazu beiträgt, die soziale Ordnung des Kollektivs aufrecht zu erhalten (vgl. Brandom 2000, S. 99ff.) Alle Interaktionen und Austauschprozesse zwischen Akteuren wirken sich auf das deontische Konto aus. Dieses führen die Akteure innerhalb einer Beziehung und verwalten dieses aufgrund kommunikativer Handlungen. Sprechakte wirken sich dabei nicht nur auf den deontischen Status der sozialen Beziehung der beiden Akteure aus, sondern auch auf den normativen Status des Einzelnen (vgl. ebd., S. 818.). Der Kontostand ist zugleich für die gemeinsame Zukunft entscheidend, denn ist das Konto nicht positiv gefüllt, so fehlt es an Vertrauen und minimiert somit den Handlungsspielraum (vgl. ebd., S. 274).

Bei Unternehmen werden die Handlungen und insbesondere die kommunikativen Maßnahmen, die seitens der Unternehmenskommunikation ergriffen werden, als normative Einstellungen erfasst. Durch die normativen Einstellungen können Mitglieder einer Gruppe oder Unternehmen untereinander verbunden werden (vgl. ebd., S. 75), sodass diese sich der Marke oder dem Unternehmen zuwenden und eine In-Group entsteht (vgl. Tajfel/Turner 1986, S. 9). Die normative Einstellung des Konsumenten kann als Basis dieser mentalen und emotionalen Vorleistung folglich mit dem Image sowie daraus resultierend der Reputation eines Unternehmens gleichgesetzt werden.

Empirische Überprüfung

Durch diese Kenntnisse lassen sich zwei Argumentationspfade bilden, welche sich zunächst in der Klassifizierung eines Homo Oeconomicus sowie eines Homo Sociologicus unterscheiden. Der erste Pfad beruht auf der Annahme, dass der Mensch ein Homo Oeconomicus ist und eine ökonomisch bestmögliche Lösung präferiert. Er würde somit einen Chatbot, der lediglich auf Fakten basiert und rein rational agiert, bevorzugen. Folglich präferiert dieser Homo Oeconomicus eine sachliche Kommunikation mit einem Unternehmen oder einer Marke. Dies steigert seine Zufriedenheit und führt im letzten Schritt zu einer stärkeren Zahlungsbereitschaft aufgrund eines Kosten-Nutzen-Vergleiches. Eine auf Emotionen basierende Interaktion würde ihn nicht im gleichen Maße zufriedenstellen und somit eine geringere Zahlungsbereitschaft hervorbringen. Im Gegenzug dazu würde ein Homo Sociologicus die Interaktion mit einem Menschen bevorzugen und die persönliche Kommunikation mit einem realen Mitarbeiter des Unternehmens der Konversation mit einem Chatbot vorziehen. Diese persönliche und emotionale Kommunikation führt beim Homo Sociologicus zu Vertrauen gegenüber dem Unternehmen und beeinflusst die Preistoleranz.

Aus diesen Argumentationspfaden resultieren vier Hypothesen:

Hypothese 1:      Emotionale Menschen möchten mit einem Menschen kommunizieren,

rationale Menschen bevorzugen die Kommunikation mit einem Chatbot.

Hypothese 2:      Emotionale Menschen bevorzugen eine persönliche Kommunikation,

rationale Menschen bevorzugen eine sachliche Kommunikation.

Hypothese 3:      Eine persönliche Kommunikation fördert das Vertrauen,

durch eine sachliche Kommunikation entsteht Zufriedenheit.

Hypothese 4:      Je größer das Vertrauen, desto größer ist die Preistoleranz.

Je höher die Zufriedenheit, desto größer ist die Preistoleranz.

 

Die Online-Befragung haben im Zeitraum vom 17.10.2017 bis zum 25.10.2017 180 Personen vollständig beantwortet. Dabei waren 57 der Teilnehmer männlich (31,7%) und 123 (68,3%) weiblich. Neben der Abfrage über 5 Items zur Zugehörigkeit zu einem der vorgestellten Handlungstypen sowie demographischen Angaben wurde zudem das Online Kaufverhalten abgefragt. Mittels vier beispielhafter Interaktionszenarien wurde überprüft, welche Wirkung eine sachliche oder emotionale Kommunikation sowie die Interaktion mit einem Menschen oder einem Chatbot auf die Befragten hat. Dies wurde mittels 5 Items abgefragt, welche nach jedem Szenario beantwortet werden mussten. Zudem wurde die Preisbereitschaft erfragt.

Die Zugehörigkeit zu einem Handlungstypus des Homo Oeconomicus konnte nur bei 8 Personen erkannt werden, sodass die Überprüfung der Hypothesen lediglich für den Homo Sociologicus repräsentativ ist. Die Hypothese, dass affektive Menschen eine Konversation mit einem Menschen der Konversation mit einem Chatbot bevorzugen, konnte verifiziert werden, da die durchschnittliche Bewertung durch emotionale Menschen bei Interaktionen mit Menschen positiver war (2,2297) als bei der mit einem Chatbot (2,6826). Im Kontrast dazu stand im Umkehrschluss die Hypothese, dass kognitiv agierende Menschen hingegen die Konversation mit einem Chatbot bevorzugen. Diese beruht auf der Annahme, dass der Homo Oeconomicus rationale Ergebnisse möchte, also Resultate und Services, die das beste Kosten-Nutzen-Verhältnis hervorbringen. Die acht Personen, die im Rahmen der durchgeführten Online-Umfrage als Homo Oeconomicus eingestuft werden konnten, falsifizieren diese Hypothese jedoch. Auch sie bewerten die Interaktionen mit dem Menschen besser (M = 2,625) als die mit dem Chatbot (M = 3,15). Es sei jedoch an dieser Stelle angemerkt, dass die Hypothese mit einer größeren Grundgesamtheit an rational agierenden Menschen erneut überprüft werden sollte, da n=8 für diesen Zweck als nicht ausreichend repräsentativ gewertet werden. Mit Blick auf die Grundgesamtheit wurde jedoch deutlich, dass insbesondere Befragte der Altersgruppe 46-54 und darüber hinaus die Interaktionen mit einem Menschen besser bewerteten. Bei den jüngeren Teilnehmern hingegen war keine Tendenz zu der Präferenz einer Interaktion mit dem Algorithmus oder einem Mitarbeiter zu erkennen.

Auch bei H2 zeichnet sich ein ähnliches Ergebnis wie bei H1 ab: die Hypothese konnte mit Blick auf die affektiven Menschen bestätigt werden, während die Aussage über rationale Menschen nicht bestätigt wurde. So beurteilten emotionale Menschen die persönliche Kommunikation im Schnitt um 0,5 Einheiten besser (M = 2,1163), als die sachliche Kommunikation (M = 2,6826). Die acht weiteren Personen bevorzugten entgegen der hypothetischen Annahme ebenfalls die persönliche Kommunikation (M = 2,725) gegenüber der sachlichen (M = 3,15). Jedoch muss darauf hingewiesen werden, dass die Standardabweichung bei der persönlichen Interaktion bei 1,01524 liegt, während diese bei der sachlichen Konversation nur bei 0,54772 liegt. Die Spanne der Bewertung einer persönlichen Interaktion innerhalb dieser Gesamtheit ist somit sehr groß und weist starke Unterschiede auf.

Korrelationen zeigen, dass Menschen, die eine Konversation mit einem Chatbot präferieren, auch die sachliche Interaktion bevorzugen. Menschen die hingegen lieber mit einem Menschen interagieren, bevorzugen tendenziell eher eine persönliche Kommunikation. So kann die Kausalität angenommen werden, dass emotionale Menschen eine persönliche Kommunikation bevorzugen und auch bevorzugt mit einem Menschen kommunizieren. Eine Kommunikation mit einem Menschen sollte daher stets persönlich sein. Die Interaktion mit einem Chatbot wird ebenfalls besser bewertet, wenn sie persönlich gestaltet wird. Menschen, die jedoch grundsätzlich eine Interaktion mit einem Chatbot präferieren, beurteilten zudem auch die sachlichen Szenarien positiver. Die dritte Hypothese hingegen, dass eine sachliche Kommunikation die Zufriedenheit fördert, konnte nicht bestätigt werden. Der konträre Teil der dritten Hypothese besagt, dass die emotionale Kommunikation zur Entstehung von Vertrauen beiträgt. Diese konnte hingegen anhand der Mittelwerte sowie dem gruppierten Median der Interaktionsbeispiele einer persönlichen Kommunikation verifiziert werden. Sowohl bei der Interaktion mit einem Chatbot, als auch mit einem Menschen, waren die Werte im zustimmenden Bereich (M = 2,57 und M = 2,24). Erfolgt eine Konversation auf persönlicher Ebene mit einem Algorithmus, so ist das Vertrauen im gleichen Maße existent wie bei einer sachlichen Kommunikation mit einem Menschen. In beiden Kommunikationsstilen wird das Vertrauen in einer Konversation mit dem Chatbot jedoch schlechter bewertet, als die mit einem Menschen. Das Vertrauen ist insgesamt also stärker ausgeprägt, wenn die Interaktion mit einem realen Menschen erfolgt. Grundsätzlich sei jedoch angemerkt, dass die Marke zuvor unbekannt war und keinerlei Erfahrungen bestehen. Die Befragten gaben jedoch an, dass sie der Marke vertrauen. Dies bestätigt zudem die Annahme, dass Vertrauen durch Interaktion entsteht, da dies in der durchgeführten Befragung die einzig verfügbare Information über das Unternehmen war. Die Korrelation zwischen dem Vertrauen und der Preisbereitschaft war bei allen Szenarien signifikanter als die zwischen der Zufriedenheit und der Preisbereitschaft. Bei der separaten Betrachtung des Homo Oeconomicus bei einer sachlichen Interaktion mit einem Menschen konnte eine signifikante negative Korrelation zwischen der Zufriedenheit des Befragten und seiner Preisbereitschaft erkannt werden. Je höher die Zufriedenheit des Homo Oeconomicus’ ist, desto höher ist ebenfalls seine Preisbereitschaft. Dies bestätigt die Annahme, dass der kognitiv geprägte Akteur primär den Nutzen bewertet, welcher sich im Zufriedenheitsempfinden äußert. Emotionale Erfahrungen würden auf eine Beziehung hindeuten, welche mit der Annahme von Vertrauen einhergeht. Zudem zeigte sich, dass je persönlicher die Kommunikation ist, desto größer ist die Preisbereitschaft. Eine persönliche Interaktion steigert nicht nur die Glaubwürdigkeit, sondern beeinflusst auch das Nutzenempfinden des Konsumenten. Dies konnte auch im Rahmen der durchgeführten Online-Befragung bestätigt werden. Die Beratung wurde besser bewertet sowie als hilfreicher empfunden, wenn die Interaktion persönlich gestaltet wurde, obwohl die vermittelten Inhalte und Informationen keine Unterschiede aufwiesen. Dieses Ergebnis unterstützt zudem die Ansprüche, die das Relationship Marketing an die Kundenkommunikation stellt. So bestätigten die Befragten, dass ihre Bedürfnisse und Anforderungen im Rahmen einer persönlichen Kommunikation besser beantwortet wurden, als auf sachlicher Ebene. Durch eine persönliche Kommunikation können zudem Wechselbarrieren geschaffen werden, die den Kunden auf einer freiwilligen Basis an das Unternehmen oder die Marke binden. Zudem scheint die Animismustheorie zu greifen. Indem der Algorithmus, also ein rein technisches Objekt, vermenschlicht wird, kann eine Beziehung eröffnet werden. Diese Vermenschlichung erfolgt im Falle eines Chatbots nicht durch die Zuschreibung von Eigenschaften oder durch die Abbildung einer Gestalt, sondern sie äußert sich vielmehr im Laufe der Interaktion und somit auch erst im weiteren Verlauf der Beziehung. Insgesamt wurde keiner der vier gezeigten Gesprächsverläufe negativ bewertet. Alle vier Gespräche wiesen eine 1:1 Philosophie auf, was zunächst anhand der Form der Interaktion in einem Chat, welcher grundsätzlich nur zwischen einem Kunden und dem Unternehmen erfolgt, basiert. Alternative Kundenservices wie Foren oder reine Informationswebsites würden dem Anspruch der 1:1 Philosophie, welche einen hohen Stellenwert für das Relationship Marketing hat, nicht gerecht werden. Da im Rahmen der Arbeit eine fiktive Marke geschaffen wurde, konnten die Befragten auf keine Erfahrungen mit dieser Marke und ihr dadurch entstandenes Image oder die Reputation der Marke zurückgreifen, um die Leistung zu bewerten. Ein Vergleich mit anderen Chatverläufen, welche der Befragte selber erlebt hat, kann jedoch nicht ausgeschlossen werden. Versteht man die Online-Umfrage als Verlauf der Marken-Konsumenten-Beziehung, so kann eine abfallende Tendenz der Bewertung der ersten beiden Items erkannt werden, welche die Beratung und damit verbundene Hilfestellung durch die Marke beurteilen. Dabei werden die persönlichen sowie die sachlichen Interaktionen getrennt betrachtet. Während die Differenz der Bewertungen beider persönlicher Interaktionen noch sehr gering ist, findet bei der sachlichen Interaktion ein deutlicher Rückschlag in der Bewertung statt. Dabei liefern alle Interaktionen im gleichen Maße die geforderten und notwendigen Informationen. Es scheint, als würden die Befragten die erste persönliche Interaktion, also den ersten Kontakt mit der Marke, für die weiteren Konversationen als Maßstab nehmen und die Gesprächsverläufe mit diesem vergleichen. Sie ziehen die erste Interaktion als Soll-Leistung, also den Vergleichsstandard heran um die tatsächlich erfahrene Leistung, die Ist-Leistung, in Form der weiteren Interaktionen an ersterer zu bemessen. Haben die Befragten einmal gesehen, welcher Service geboten werden kann, so wird sich an diesem orientiert. Diese Beobachtung lässt sich auch anhand der abnehmenden Preisbereitschaft im Verlauf der Befragung weiter feststellen.

Fazit und Ausblick

Die Untersuchung hat gezeigt, dass der Einsatz von Chatbots ein geeignetes Mittel darstellt, um mit den Konsumenten in Interaktion zu treten. Die Interaktion via Chats offeriert dem Kunden die Möglichkeit, den Kundenservice unproblematisch und über seine bekannten Kommunikationskanäle zu erreichen. Die Ergebnisse machen deutlich, dass nach einer persönlich gestalteten Interaktion der ökonomische Output für das Unternehmen am größten ist. Diese Beobachtungen knüpfen an die Erkenntnisse von Gerhard Schulz und dessen Konzept der Erlebnisgesellschaft an. Den Konsumenten ist es wichtig, neben den reinen Informationen ein positives Umfeld zu erfahren und im Rahmen einer persönlichen Ansprache die Marke und ihre Leistungen zu erfahren. Die rein rationale Ansprache, die dem Kunden zwar dieselben Informationen bietet, erfüllt dessen Ansprüche jedoch nicht im gleichen Maße.

Das Unternehmen bietet mit der Bereitstellung eines Chats die Basis für den Beziehungsaufbau, welcher jedoch durch den Kunden aktiv angestoßen wird. Für die Unternehmen bringt die Implementierung eines Chatbots somit eine Vielzahl an Vorteilen mit sich. Die endlose Skalierbarkeit nach einmaliger Entwicklung und aufgrund des maschinellen Lernens ständige Weiterentwicklung des Chatbots stellt ein für die Entscheidungsträger zentrales Argument dar. Trotz der Verwendung von Algorithmen ist es möglich, jeden Kunden individuell und persönlich zu betreuen und aufgrund des role-takings eine individuelle Ansprache zu garantieren. Zudem ist keine Abnutzung zu befürchten, die eine Inkonsistenz des Kundenservice bewirken kann. Der Chatbot ist zu jeder Zeit verfügbar und liefert stets Informationen in gleicher Qualität. Dies ist ein besonderer Mehrwert für den Kunden, welcher grundsätzlich einen persönlichen Kontakt mit dem Unternehmen positiv wahrnimmt. Wird der Chatbot zudem so programmiert, dass er dem menschlichen Verhalten nahekommt und eine emotionale Interaktion ermöglicht wird, steigert dies die Zufriedenheit sowie folglich die Preistoleranz. Diese Erkenntnisse zeigen, dass die Verwendung von durch Algorithmen gesteuerten sozialen Medien, im untersuchten Fall der Einsatz von Chatbots, einen positiven Einfluss auf die Marken-Konsumenten-Beziehung haben kann. Die Umfrage hat gezeigt, dass sich diese durch eine positive Wahrnehmung, Zufriedenheit sowie Vertrauen der Konsumenten eröffnet, wenn eine persönliche Beratung erfolgt, die im Idealfall auch noch emotional und persönlich gestaltet wird. Wird diese Beziehung eröffnet, da aufgrund der fiktiven Markenschaffung zuvor keine Beziehung möglich war, so wirkt sich die positive Ausgestaltung dieser auch auf die Preisbereitschaft der Befragten auf. Die zu Beginn formulierte Forschungsfrage kann somit bestätigt werden, da die Erkenntnis gewonnen wurde, dass ein Algorithmus die Marken-Konsumenten-Beziehung und folglich das Kaufverhalten, insbesondere die Preisbereitschaft, beeinflusst. Dennoch, so zeigte es die Arbeit, müssen die Unternehmen die Möglichkeiten, welche der Einsatz von künstlicher Intelligenz bietet, insbesondere mit Blick auf die analytischen Fähigkeiten der Technologien nutzen. Eine Analyse des Gesprächspartners zur Identifikation dessen Präferenzen und demographischen Angaben ist notwendig, um die Ansprache nach dessen Wünschen auszusteuern. Dabei sind Alter, Bildungsstand und Online-Kaufverhalten Indikatoren dafür, inwieweit das Gespräch persönlich oder sachlich gestaltet werden darf. Aber auch für die Ausspielung von Angeboten ist eine solche Analyse unumgänglich, damit Produktvorschläge nicht das Budget übersteigen und die Marke von dem Kunden als zu teuer und nicht zum Einkommen passend deklariert werden. Die Verwendung von Algorithmen in der Kundenkommunikation bietet nicht nur die Möglichkeit zum Beziehungsaufbau sowie dessen Erhaltung, sondern ermöglicht dem Unternehmen zugleich Ansätze der Marktforschung sowie der Sortimentsoptimierung. Durch Analysen werden Trends, Präferenzen und finanzielle Möglichkeiten der Zielgruppen sichtbar, die unmittelbar in die Produktentwicklung mit einfließen können. Der Einsatz von Chatbots sollte in ihrer Anwendung dem Zyklus der Kundenbeziehung angepasst werden. Zunächst muss sich die Interaktion über einen Chat anbahnen und festigen. Die Bindung findet statt, wenn es häufiger zu Interaktionen kommt und der Konsument beispielsweise aktiv mit Fragen an den Chatbot herantritt oder weitere Services dessen ausprobiert. Eine rückgehende Interaktionsquote kann auf eine Gefährdung der Beziehung hindeuten. Es empfiehlt sich daher, die Interaktionsfrequenzen zu überwachen und bei Bedarf eigene Interaktionen mit dem sich abwendenden Kunden zu eröffnen. Dabei sollte stets auf die generierten Informationen zurückgegriffen werden, um eine Relevanz für den Kunden zu garantieren. Die Relevanz kann insbesondere für das Cross-Selling genutzt werden, um den Kunden passende Zusatzprodukte oder Services anzubieten. Für die Unternehmen bietet es sich also an, vor der Implementierung eines Chatbots eine umfassende Analyse durchzuführen, welche für ihre Branche relevanten Informationen aus dem Nutzungsverhalten der Kunden generiert werden können, die anschließend im Zuge von Serviceangeboten zielgerichtet angewendet werden können.

Kritische Betrachtung

Im Rahmen der Befragung konnte der zeitliche Verlauf einer Beziehung und die unterschiedlichen Episoden dieser nicht untersucht werden und somit nicht in die Beurteilung mit aufgenommen werden. Die Wirkung von deontischen Konten und dem Konzept des Vertrauens oder gar der Vertrautheit ist somit nur schwer zu erfassen gewesen. Es wäre sinnvoll, die Studie weiter auszubauen und im Rahmen eines realen Beziehungsverlaufes zwischen mehreren Konsumenten und Marken zu untersuchen. Dafür sollten Experimente herangezogen werden, in denen die Kommunikation zwischen einem Konsumenten als Teilnehmer und einer Marke über einen längeren Zeitraum beobachtet wird. Wie in der durchgeführten Untersuchung sollte hierfür eine fiktive Marke geschaffen werden, um nicht durch vorherige Erfahrungen beeinflusst zu werden. Im Rahmen des Experiments soll der Befragte die Interaktion eröffnen, um eine reale Erfahrung darzustellen und den eigenen Interaktionsstil zu wahren. Durch mehrfache Abfrage der Einstellung gegenüber der Marke, teilweise nach dem Hinweis, dass die Interaktion mit einem Chatbot geführt wurde, können präzisere Aussagen über die Auswirkungen auf die Marken-Konsumenten-Beziehung getroffen werden.

Ein länger andauerndes Experiment würde zudem die Möglichkeit bieten, die Befragung zum Handlungstypus zu umgehen und lediglich anhand von Beobachtungen die Zuordnung zum Homo Oeconomicus oder Homo Sociologicus zu treffen. Durch die offensive Befragung zum Kaufverhalten kann nicht ausgeschlossen werden, dass die soziale Erwünschtheit und eine Reflektion des eigenen Handelns die Ergebnisse beeinflussen. Es lässt sich vermuten, dass die Befragten nicht offen darlegen möchten, dass sie ihr Handeln von der Meinung Dritter abhängig machen.

Literaturverzeichnis

Asendorpf, J.B./Banse, R. (2000).
Psychologie der Beziehung. Bern.

Bauer, H./Heinrich,D./Samak, M. (2012):
Eine Einführung in das Konzept der Erlebniskommunikation. In: Bauer, H./ Heinrich,D. / Samak, M. [2012]: Erlebniskommunikation. Erfolgsfaktoren für die Marketingpraxis. Berlin, Heidelberg. S. 3-11.

Beck, U./Beck-Gernsheim, E. (1994).
Individualisierung in modernen Gesellschaften – Perspektiven und Kontroversen einer subjektorientierten Soziologie. In: Beck, U./ Beck-Gernsheim, E. [Hrsg.]: Riskante Freiheiten. Frankfurt am Main. S. 10-43.

Bendel, O. (2016).
300 Keywords Informationsethik: Grundwissen aus Computer-, Netz- und Neue-Medien-Ethik sowie Maschinenethik. Wiesbaden.

Bitkom e.V. (2016).
Zwei von drei Internetnutzern verwenden Messenger, verfügbar unter: https://www.bitkom.org/Presse/Presseinformation/Zwei-von-drei-Internetnutzern-verwenden-Messenger.html (21.08.2017)

Bitkom e.V. (2017a).
Mobile Steuerungszentrale für das Internet of Things, verfügbar unter: https://www.bitkom.org/Presse/Presseinformation/Mobile-Steuerungszentrale-fuer-das-Internet-of-Things.html (21.08.2017)

Bourdieu, P. (1976).
Entwurf einer Theorie der Praxis. Frankfurt am Main.

Bourdieu, P. (2014).
Die feinen Unterschiede. 24. Aufl. Frankfurt am Main.

Brandom, R. (2000).
Expressive Vernunft: Begründung, Repräsentation und diskursive Festlegung. 2. Aufl. Frankfurt am Main.

Bruhn, M./Eichen, F. (2007).
Marken-Konsumenten-Beziehungen: Bestandsaufnahme, kritische Würdigung und Forschungsfragen aus Sicht des Relationship Marketing. In: Florack, A./ Scarabis, M./ Primosch, E. [Hrsg]., Psychologie der Markenführung, München. S. 221-256.

Bruhn, M. (2016b).
Relationship Marketing – Das Management von Kundenbeziehungen. 5. Aufl. München.

Burmann, C./Meffert, H. (2005).
Theoretisches Grundkonzept der identitätsorientierten Markenführung. In: Meffert, H./ Burmann, C./ Koers, M. [Hrsg.]: Markenmanagement: identitätsorientierte Markenführung und praktische Umsetzung; mit Best Practice-Fallstudien, 2. Aufl., Wiesbaden. S. 37-72.

Copray, N. (1993).
Von der Risikogesellschaft zur Erlebnisgesellschaft. Wenn satte Bürger die schöne Welt suchen. In: Publik-Forum Nr. 5., 12.03.1993.

Dahrendorf, R. (2006).
Homo Sociologicus, 16. Aufl. Wiesbaden.

Eggert, A. (2000).
Konzeptualisierung und Operationalisierung der Kundenbindung aus Kundensicht. In: Marketing Journal of Research and Management (ZFB). Bd. 22, Nr. 2. S. 119-130.

Esch, F./Kiss, G. (2006).
Wirkung interaktiver Markenauftritte im Internet – Theoretische Grundlagen und empirische Ergebnisse. In: Marketing ZFP. Jg. 28, Nr. 2. S. 99-115.

Fittkau & Maaß Consulting (2017).
Chatbots werden von jedem zweiten Online-Käufer abgelehnt. 08.02.2017. verfügbar unter: http://www.fittkaumaass.de/news/chatbots-von-jedem-zweiten-online-kaeufer-abgelehnt (05.10.2017)

Fournier, S. (1998).
Consumers and their Brands: Developing Relationship Theory in Consumer Research. In: Journal of Consumer Research, 24. Jg. S. 343-373.

Gründerszene (2017).
https://www.gruenderszene.de/datenbank/unternehmen/chatshopper (21.08.2017)

Hadwich, K. (2003).
Beziehungsqualität im Relationship Marketing. Konzeption und empirische Analyse eines Wirkungsmodells. Wiesbaden.

Hillmann, K.-H. (1994).
Wörterbuch der Soziologie. 4. Aufl. Stuttgart.

Holzwarth, M./Janiszewski, C./Neumann, M.M. (2006):
The Influence of Avatars on Online Consumer Shopping Behavior. In: Journal of Marketing, Vol. 70, Nr. 10, S.19-36.

Homans, G.C. (1958).
Social Behavior as Exchange. In: American Journal of Sociology. Vol. 63, Nr. 6. S. 597-606.

Horton, D./Wohl, R. R. (1956).
Mass communication and para-social interaction: Observations on intimacy at a distance. In Psychiatry 19, S. 215–229.

Jehmlich, D. (2017).
Kundenkommunikation: Warum wir Chatbots eine Chance geben sollten. In: wundv.de, 23.01.2017, verfügbar unter: https://www.wuv.de/digital/kunden-kommunikation_warum_wir_chatbots_eine_chance_geben_sollten (02.08.2017)

KLM Royal Dutch Airlines (2017a).
https://social.klm.com/flightinfo/messenger/ (21.08.2017)

KLM Royal Dutch Airlines (2017b).
KLM first airline with verified WhatsApp business account, 08.09.2017, verfügbar unter: http://news.klm.com/klm-first-airline-with-verified-whatsapp-business-account/ (05.10.2017)

KLM Royal Dutch Airlines (2017c).
KLM takes next strategic social media step with WeChat Pay (24.08.2017), verfügbar unter: http://news.klm.com/klm-takes-next-strategic-social-media-step-with-wechat-pay/ (05.10.2017)

Knoll, J./Schramm, H./Schallhorn,C./Wynistorf,S. (2015).
Good guy vs. bad guy: The in uence of parasocial interactions with media characters on brand placement effects,. In: International Journal of Advertising, 34, 5/2015, S. 720-743.

Kroeber-Riel, W./Esch, F.-R. (2015).
 Strategie und Technik der Werbung. Stuttgart.

Kron, T./Winter, L. (2009).
Aktuelle soziologische Akteurtheorien. In: Kneer, G./ Schroer, M. [Hrsg.]: Handbuch Soziologische Theorien. Wiesbaden. S. 41-66.

Linton, R. (1973).
Rolle und Status. In: H. Hartmann, Moderne amerikanische Soziologie,       Stuttgart. S. 310–315.

Mead, G. H. (1973).
Geist, Identität und Gesellschaft. Frankfurt am Main 1973.

Parsons, T. (1937).
The Structure of Social Action.

Reinhardt, U. (2015).
Service macht den Unterschied. In: Markenartikel –  Das Magazin für Markenführung. 77. Jg., Nr. 6. S. 52-53.

Schimank, U. (2012).
Individualisierung der Lebensführung, verfügbar unter: http://www.bpb.de/politik/grundfragen/deutsche-verhaeltnisse-eine-sozialkunde/137995/individua-lisierung-der-lebensfuehrung?p=all (28.09.2017)

Tajfel, H./Turner, J. C. (1986).
The social identity theory of intergroup behaviour. In: Worchel, Stephen/Austin, William [Hrsg.]: Psychology of intergroup relations, Chicago 1986, S. 7-24.

Tantau, B. (2017).
Die Macht der Chatbots: Chancen und Risiken. In: Website Boosting, Ausgabe 43, S. 72 –77.

Tröger, D. (2017).
Chatbots – Der ultimative Übersichtsartikel der digitalen Revolution. In: LinkedIn, 13.02.2017, verfügbar unter: https://de.linkedin.com/pulse/chatbots-der-ultimative-übersichtsartikel-digitalen-tröger-

Weizenbaum, J. (1966).
Eliza: A Computer Programm for the Study of Natural Language Communication between Man and Machine. In: Communications of the ACM 9, S. 36-45.

YouGov (2017).
Kommunikation per Chatbot: Für jeden Zweiten vorstellbar, (04.09.2017), verfügbar unter: https://yougov.de/news/2017/09/04/kommunikation-chatbot-fur-jeden-zweiten-vorstellba/ (05.10.2017)

Zalon (2017).
https://www.zalon.de/how-it-works (12.12.2017)

Zerfaß, A. (2014).
Unternehmenskommunikation und Kommunikationsmanagement: Strategie, Management und Controlling. In: Zerfaß, A./M. Piwinger. Handbuch der Unternehmenskommunikation, Wiesbaden 2014, S. 21-79.

 

Hier gibt’s die PDF-Version des Fachartikels

Peter Michael Bak: Automatisiertes Fahren: Warum nicht?

Kommentar zu Jan Rommerskirchen: Autos, Autonomie und Algorithmen 

Jan Rommerskirchen widmet sich in seinem Beitrag einem aktuellen Thema. Gerade erst (Juni 2017) hat die von Bundesminister Alexander Dobrindt eingesetzte Ethik-Kommission zum automatisierten Fahren dazu einen umfassenden Bericht vorgelegt, auf den Rommerskirchen auch kurz eingeht und in dem anhand von 20 Thesen Leitlinien für den Umgang mit einem automatisierten und vernetzten Fahren formuliert werden. Grundsätzlich befürworten die Autoren des Berichts den Einsatz dieser Zukunftstechnologie, „wenn sie im Vergleich zu menschlichen Fahrleistungen zumindest eine Verminderung von Schäden im Sinne einer positiven Risikobilanz verspricht“ (Ethik-Kommission, 2017, S. 10). Die Technik ist also dann zu vertreten, wenn sie zu einer Verbesserung der gegenwärtigen Situation beiträgt. Das von Jan Rommerskirchen angesprochene Dilemma, wie ein algorithmusgesteuertes Fahrzeug entscheiden soll, wenn es die Wahl zwischen mindestens zwei Übeln hat, wird in den Thesen dadurch zum Teil umgangen, dass gefordert wird, „dass kritische Situationen gar nicht erst entstehen“ sollen, wozu auch Dilemma-Situationen gehören, „also eine Lage, in der ein automatisiertes Fahrzeug vor der ‚Entscheidung‘ steht, eines von zwei nicht abwägungsfähigen Übeln notwendig verwirklichen zu müssen“ (Ethik-Kommission, 2017, S. 10). Echte dilemmatische Entscheidungen sind zudem „nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar“ (Ethik-Kommission, 2017, S. 11). Weiter wird in dem Bericht die Ansicht vertreten, dass eine „allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden“ vertretbar sein kann (Ethik-Kommission, 2017, S. 11). Gleichzeitig wird zu bedenken gegeben, dass eine “Unterwerfung unter technische Imperative“ bedenklich ist (Ethik-Kommission, 2017, S. 11). Die 20 Thesen folgen demnach einer utilitaristischen Position mit diskussionsoffenen Vorbehalten, die sich mit folgendem Satz auf den Punkt bringen lässt: „Eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden kann vertretbar sein“. Allerdings bietet der Kommissionsbericht keine Ausformulierung konkreter Randbedingungen für etwaige Programmierungen etc. und räumt zudem offene Fragen ein. Dennoch lassen sich die Thesen insgesamt im Sinne einer allgemeinen Befürwortung des autonomen Fahrens interpretieren. Ist das nun also der Anfang der „entfesselten Macht“, von der Jonas und auch Rommerskirchen in seinem Beitrag sprechen? Bedeutet der Einsatz autonomer Systeme tatsächlich das Ende unserer Freiheit? Sollten wir auf den Einsatz autonomer Technologien verzichten? Ja und Nein lautet meine Antwort. Es hängt eben von der Betrachtungsweise ab, an welcher Stelle wir unsere Freiheit bewahren möchten. Ja, es bedeutet Freiheitsverlust beispielsweise in dilemmatischen Situationen, wie Rommerskirchen sie beschreibt, wenn es darum geht, selbst und verantwortlich eine Entscheidung zu treffen, ob wir nun links oder rechts fahren. Nein, es raubt uns nicht die Freiheit, zu entscheiden, ob wir generell eine Technologie verwenden wollen, von der wir bereits im Vorhinein wissen, dass sie uns in bestimmten Situationen die Entscheidung abnehmen wird, mit allen Folgen, die das haben kann. Das ist aber keine neuartige Situation, die wir nun anhand der Aussicht auf den Einsatz autonomer Fahrsysteme zum ersten Mal führen müssten. Wir tun das ständig und obendrein ohne ethischen Diskurs. Wir benutzen permanent Technologien, die versagen können und sich dann auf nicht mehr kontrollierbare Weise auf uns und unsere Mitmenschen oder die Umwelt auswirken können. Ob Kernkraft, Flugzeug oder Computer, die Freiheit mit diesen Technologien zu tun, wofür wir auch Verantwortung übernehmen können, besitzen wir nur solange, solange die Technologie wie vorgesehen arbeiten. Tun sie es nicht, sind wir auch nicht mehr frei zu entscheiden, welche Folgen das mit sich bringt. Wir können nach Abwägen des Für und Widers nur frei entscheiden, ob wir denn die Technologien überhaupt zum Einsatz bringen wollen. Das Gleiche gilt bereits bei einer so alltäglichen Angelegenheit wie der Einnahme einer Tablette, sagen wir gegen Kopfschmerzen. Denken wir an ein so „harmloses“ Präparat wie Ibuprofen, das gerne gegen leichte und mittlere Schmerzen eingenommen wird. Schaut man sich die möglichen Nebenwirkungen an, so taucht da unter anderem auf: häufig Magenschmerzen, Übelkeit und Durchfall. Aber auch Schwindel und reversibler Verlust der Sehschärfe (www.apotheker-rundschau.de). Nehmen wir an, ich nehme aus freien Stücken das Medikament gegen Kopfschmerzen, dann bedeutet das aber nicht, dass ich auch frei wäre zu entscheiden, welche Nebenwirkungen damit verbunden sind. Und was nun, wenn mir beim Autofahren plötzlich schwindlig wird und ich dadurch einen Verkehrsunfall verursache? Bin ich selbst dann dafür verantwortlich oder der Hersteller oder die Politik, die beim Zulassungsverfahren andere Regeln hätte auferlegen müssen? Ich denke, wir würden in diesem Fall anders entscheiden. Wir wissen um die Risiken, die mit bestimmten Verhaltensweisen und dem Einsatz von Technologien (und Medikamenten) verbunden sind. Auch, dass wir im Falle des Falles die Kontrolle und damit die Entscheidungsfreiheit verlieren können. Hin und wieder sprechen wir dann auch von „technischem Versagen“ und meinen damit, dass einer Person keine Verantwortung zugeschrieben werden kann. Daraus zu folgern, dass wir besser gar keine Medikamente einnehmen sollten oder Technologien nutzen sollten, die prinzipiell auch negative Folgen nach sich ziehen können, wäre das Kind mit dem Bade auszuschütten. Es liegt nun einmal im Wesen freier Entscheidungen, dass sie a priori ein Mindestmaß an Unsicherheit bezüglich der damit verbundenen Folgen besitzen, andernfalls gäb es nichts mehr abzuwägen oder frei zu entscheiden. Die Entscheidung wäre längst und ohne Diskurs klar. Die Diskussion zum autonomen Fahren sollte also nicht bei dilemmatischen Situationen beginnen, in denen eine richtige Lösung naturgemäß nicht anzugeben ist. Vielmehr müssen wir uns fragen, welches Risiko wir generell bereit sind einzugehen, wenn wir zum Beispiel neue Technologien einsetzen möchten. Wenn sich im vorliegenden Fall sagen und empirisch bestätigen ließe, dass algorithmusgesteuerte Systeme zu einer deutlichen Verminderung von Personenschäden beitragen können, warum sollten wir uns dann für deren Benutzung nicht frei entscheiden, wenn wir das denn wollen, auch dann, wenn die Folgen nicht in jedem Einzelfall vorhergesagt werden können. Mehr noch, das Pochen darauf, in jeder Situation, also auch einer dilemmatischen, den Menschen als verantwortlichen Entscheider vorziehen zu wollen, besitzt beinahe zynische Züge. Nach welchen Kriterien würden wir die Entscheidung einer Person bewerten wollen, die vor der Wahl steht, eine oder mehrere Personen oder sich selbst aufgrund situativer Umstände opfern zu müssen? Solange wir das a priori nicht allgemeingültig angeben können, sondern erst im Nachhinein und unter Berücksichtigung der besonderen Umstände im Diskurs beurteilen möchten, bedeutet die freie Entscheidung und die damit verbundene Verantwortlichkeit letztlich nichts anderes, als ein Stochern im Nebel ohne zu wissen, welches Ziel getroffen werden soll. Jemanden dafür dann zur Rechenschaft ziehen zu wollen, das kann nicht in unserem Sinne sein. Letztlich handelt es sich dann auch nicht um eine freie Entscheidung, sondern maximal um einen juristischen Trick, um unserem Bedürfnis nach Schuldzuschreibung gerecht zu werden. Wenn wir aber einem Menschen in solchen Situationen keine Kriterien nennen können, wie er sich zu entscheiden hat, wie sollen wir das dann einer Software beibringen? So zu tun, als wäre ein menschlicher Entscheider angesichts der drei unmittelbar bevorstehenden Optionen selbst zu sterben, eine andere Person oder gar eine Gruppe anderer Personen zu töten, tatsächlich frei und könnte noch unter Abwägung aller Argumente zu einer vertretbaren Entscheidung kommen, ist aus meiner Sicht kein reales Szenario, sondern kommt am Ende einer Lotterieentscheidung vermutlich näher. Dies zumindest könnte man dann auch einer Maschine zugestehen.
Was bedeutet das nun für das von Rommerskirchen beschriebene Dilemma? Rufen wir es uns noch einmal in Erinnerung. Eine Person fährt mit einem algorithmusgesteuerten Fahrzeug auf eine Kreuzung und aus irgendeinem Grund gibt es kein Entrinnen mehr. Es muss eine Entscheidung getroffen werden. Fährt das Auto nach links, dann wird dadurch eine Person getötet. Fährt es nach rechts, werden gleich mehrere Personen getötet. Fährt es geradeaus, dann wird der Fahrer selbst zum Opfer. Mit Rommerskirchen fragen wir uns: Wer soll eigentlich hier die Entscheidung treffen? Der Nutzer, der Hersteller oder die Politik? Wie kann man sich den Implementierungsprozess einer solchen Entscheidung vorstellen? Dazu lässt sich ganz im Einklang mit der bisher geführten Argumentation sagen, dass es zunächst darum geht, die Wahrscheinlichkeit des Eintreffens solcher Situationen zu minimieren gilt. Sollte dann doch eine solche Situation entstehen, dann entscheidet der Algorithmus des Fahrzeugs nach dem Zufallsprinzip. Das Zufallsprinzip ist in diesem Fall das überlegene Prinzip, da erstens die Frage, wer zu opfern ist, a priori nicht für jeden Fall eindeutig festgelegt werden kann und zweitens auch die die menschliche Entscheidung in einer solchen Extremsituation eher durch zufällige Prozesse, Gedanken, Gefühle, Geistesblitze etc. getroffen wird und mit einer freien Entscheidung unter Abwägung aller Möglichkeiten nichts zu tun hat. Der Nutzer entscheidet demnach in der Situation selbst zwar nicht mehr, aber er entscheidet sich im Vorfeld für die Nutzung eines solchen Fahrzeugs. Er nimmt die Zufallsentscheidung also in Kauf, wobei er nicht für die Entscheidung des Fahrzeugs verantwortlich gemacht werden kann. Das mag auf den ersten Blick wie ein Trick aussehen, um Verantwortung aus dem Weg zu gehen. Aber können wir in solch einer ausweglosen Situation überhaupt von Verantwortung sprechen? Ich behaupte mit dem Verweis auf die Unentscheidbarkeit und die nicht vorhandene Entscheidungsfreiheit nein. Es stellt sich nur noch die Frage, wer für die Programmierung des Zufallsgenerators zuständig ist und wer überhaupt darüber entscheidet, wann er zur Anwendung kommen soll. Wie beispielsweise bei der Marktzulassung von Medikamenten muss das die Legislative regeln. Der Gesetzgeber entscheidet hier, welche Randbedingungen erfüllt sein müssen, damit ein Medikament auf dem Markt zugelassen werden darf. Die Hersteller müssen sich entsprechend daranhalten und z. B. eine Reihe klinischer Studien vorlegen. Wenn dabei bestimmte Kriterien erfüllt sind, dann darf das Medikament auf den Markt. Über die Einnahme des Medikaments ist damit jedoch noch nicht entschieden. Dies bleibt dem Patienten vorbehalten. Eine ähnliche Regelung wäre auch beim algorithmusgesteuerten Auto denkbar. Der Gesetzgeber gibt die Randbedingungen vor, unter denen ein solches Auto zugelassen werden darf, unter welchen Umständen welcher Algorithmus greifen muss und wie hoch überhaupt die Wahrscheinlichkeit sein darf, dass ein solcher Fall auftritt. Die Hersteller setzen diese Vorgaben um. Der Nutzer entscheidet für sich, ob er das Fahrzeug nutzen möchte oder nicht (oder ob er bei nächstbester Gelegenheit gleich eine andere Legislative wählt). Das ist in vielen Kontexten ein völlig üblicher Vorgang. Denken wir kurz an die pränatale Diagnostik. Bei der Fruchtwasseruntersuchung zur Vorhersage bestimmter Krankheiten, die in der Regel zwischen der 15. und 18. Schwangerschaftswoche durchgeführt wird, wird mit einer dünnen Nadel durch die Bauchdecke Fruchtwasser entnommen, das Zellen des Kindes enthält. Diese werden dann z. B. auf Chromosomenabweichungen untersucht. Das Risiko einer Fehlgeburt wird zwischen 0,2 und 1% angegeben (www.pnd-beratung.de). Zwar wird es im Nachhinein Erklärungen geben, warum es zu einer Fehlgeburt kam, im Vorhinein ist es eine Frage des Zufalls. Die meisten sehen den Zufall als geringeres Übel an und entscheiden sich für die Untersuchung. Weiter ist der Einwand, dass wegen der Implementierung des Zufallsprinzips kein Mensch ein algorithmusgesteuertes Fahrzeug nutzen würde oder auch nur wünscht, einem solchen Fahrzeug im Straßenverkehr zu begegnen, zwar durchaus nachvollziehbar, sollte aber mit der richtigen Alternative kontrastiert werden. Denn, so unangenehm der Gedanke sein mag, dass in manchen Situationen der Zufall über Leben und Tod entscheidet, so unangenehm ist die gegenwärtige Situation, denkt man nur kurz darüber nach. Ständig begegnen wir nämlich Personen im Straßenverkehr, von denen wir nicht wissen, wie sie sich gleich entscheiden werden, wenn sie auf uns treffen. Bleiben sie in der Spur? Lassen sie uns durch oder handelt es sich womöglich doch um einen selbstmordgefährdeten Menschen? Wird der Fahrer gleich zum Handy greifen oder sich eine Zigarette anzünden und mich dabei übersehen? Zieht man also reine Wahrscheinlichkeiten zu Rate, dann kann unser Verkehrswesen mit algorithmusgesteuerten Fahrzeugen deutlich sicherer werden und die Wahrscheinlichkeit, zufälliges Opfer eines schlechten, abgelenkten, übermüdeten Fahrers zu werden, deutlich gesenkt werden, was für ethische Fragen zwar nicht unbedingt eine Maßgabe ist, aber durchaus sein kann, zumal, wenn wir hinnehmen, dass ethische Fragen ohnehin im Diskurs beantwortet werden müssen. Was uns heute noch als unvorstellbar erscheint, das wird morgen schon als Normalität angesehen werden. Warum sollte das im vorliegenden Fall anders sein als bei der Einführung anderer Technologien. Anstatt Entscheidungsalgorithmen also a priori und kategorisch auszuschließen, könnte es fruchtbarer sein, sich über den Ablauf, Kriterien und Randbedingungen Gedanken zu machen, die den Einsatz dieser Technologie ermöglichen könnten. In diesem Sinne hat die Ethikkommission einen ersten Schritt gemacht. Der Teufel steckt dabei im Detail. Ob die dann allerdings noch ethische Fragen betreffen oder nur noch praktische, dass mag der Leser nun gerne selbst beurteilen.

 

Literaturverzeichnis

Ethik-Kommission (2017): Ethik-Kommission – Automatisiertes und vernetztes Fahren. Von Bundesministerium für Verkehr und digitale Infrastruktur. Unter https:// www.bmvi.de/SharedDocs/DE/Anlage/Presse/084-dobrindt-bericht-der-ethik-kommission.html?nn=12830. Abgerufen am 22. Juni 2017

http://www.apotheken-umschau.de/Medikamente/Ibuprofen-Wirkung-Anwendung-Nebenwirkungen-530943.html. Abgerufen am 22. Juni 2017

http://www.pnd-beratung.de/was-ist-pnd/invasive-untersuchungen/fruchtwasseruntersuchung/. Abgerufen am 22. Juni 2017

 

Hier gibt’s die PDF-Version des Fachartikels 

Jan Rommerskirchen: Autos, Autonomie und Algorithmen – eine Erwiderung

Ich danke den Kollegen Peter Michael Bak und Lutz Becker für ihre Kommentare zu meinem Beitrag Autos, Autonomie und Algorithmen. Beide Kollegen sprechen sich für eine Zulassung sogenannter Autonomer Auto aus und widersprechen meiner kritischen Position in dieser Frage. Zu den Kommentaren möchte ich an dieser Stelle eine kurze Erwiderung geben.

Meine beiden Kernargumente gegen die Zulassung Autonomer Autos lauten: a) Es ist nicht ersichtlich, wer die Verantwortung für die Programmierung der Algorithmen übernehmen kann und darf, und b) gibt keine ethisch vertretbare Programmierung für Dilemma-Situationen. Die Kommentatoren müssten somit die aus diesen Kernargumenten folgenden Fragen schlüssig beantworten: a‘) Wer darf über die Programmierung des Algorithmus entscheiden? b‘) Wie soll der Algorithmus in einer Dilemma-Situation entscheiden?

Die erste Frage (a‘) beantwortet Bak mit dem Vorschlag, die Legislative mit der Entscheidungsfindung zu beauftragen. Damit die Abgeordneten eine Entscheidung über mögliche Optionen treffen können, muss daher die zweite Frage (b‘) zuerst beantwortet werden.

Hierzu antwortet der Kollege Bak mit dem Vorschlag, den Zufall entscheiden zu lassen. Angesichts der Kontingenz menschlicher Entscheidungen ein praktikabler Vorschlag. Der Algorithmus soll also mal für den Schutz der Passanten, mal für den Schutz des Fahrers und seiner Beifahrer entscheiden. Mit anderen Worten: In einer gefährlichen Fahrsituation entscheidet der Algorithmus nicht begründet über Leben und Tod, sondern er würfelt. Die Passanten haben ebenso wie der Fahrer und seine Beifahrer eine fünfzigprozentige Chance zu überleben.

Peter Michael Bak verweist in seinem Kommentar auf die Medizintechnik und Medikamente. Hier geht es aber nicht um Kopfschmerzen, sondern um Leben und Tod. Ehrlicherweise müsste die Analogie dann lauten: Wenn ein Patient an einer lebensgefährlichen Krankheit leidet und ein neues Medikament würde eine fünfzig prozentige Chance auf Heilung versprechen – und eine fünfzig prozentige Chance, an dem Medikament zu sterben -, wer würde dieses Medikament dann zulassen, welcher Arzt würde es verschreiben und welcher Patient würde es einnehmen? Jeder muss diese Frage für sich entscheiden, aber in ethischen Fragen ist ein solches russisches Roulette zynisch und keinesfalls ein ernsthaftes Angebot für technischen oder medizinischen Fortschritt.

Hinzu kommt ein zweites Problem: Nachdem die Begeisterung über den Komfortvorteil Autonomer Autos abgeklungen sein wird und die Menschen nach einem Unfall die Schlagzeile „Auto tötet Fahrer“ auf den Titelseiten der Zeitungen gelesen haben werden, wird die Skepsis einsetzen. Und ein psychologischer Effekt: die Verlustaversion. Die Erkenntnisse der Neuen Erwartungstheorie lassen zumindest erwarten, dass der gewonnene Komfort die Risiken eines würfelnden Algorithmus nicht aufwiegen wird. Die Angst vor dem (zufälligen) Verlust des eigenen Lebens und dem der Beifahrer (Freunde, Ehepartner, Kinder) wird durch einige wenige Unfälle und entsprechende Schlagzeilen sehr schnell zur Ablehnung der neuen Technik führen. Die autonome Funktion wird nicht mehr eingeschaltet werden und Menschen, die sich von Algorithmen fahren lassen, werden als egoistische Hedonisten diskreditiert. Und dann werden die ersten Städte beraten, ob man die Fahrer Autonomer Autos zwingen will, ihre Fahrzeuge vor den Toren der Stadt zu parken.

Können Abgeordnete nun über diesen Algorithmus beschließen und somit die Frage nach der Entscheidungsinstanz (a‘) beantworten? Da es weder um Kopfschmerzen noch um Restrisiken im Promillebereich geht, scheint mir der Vorschlag von Peter Michael Bak erneut ungeeignet. Dass das deutsche Parlament ein Gesetz beschließt, welches das Leben und die Unversehrtheit seiner Bürger dem utilitaristischen Zufallskalkül eines Algorithmus überantwortet, ist nicht nur politisch unwahrscheinlich, sondern auch ein klarer Verstoß gegen die verfassungsrechtliche Garantie der Menschenwürde, zu deren Schutz die Abgeordneten verpflichtet sind.

Insofern sehe bei den Kommentaren keine schlüssige Widerlegung meiner Argumente. Für eine weiterhin notwendige Debatte in der Hochschule und in der Gesellschaft über die Legitimation und die Limitation neuer Techniken bieten die Beiträge den Lesern aber hoffentlich eine Anregung.

 

Hier gibt’s die PDF-Version des Fachartikels 

Jan Rommerskirchen: Autos, Autonomie und Algorithmen

Autonome Autos versprechen eine bessere und sicherere Zukunft: entspanntes und unfallfreies Fahren, keine Verletzten und Getöteten mehr auf unseren Straßen. Die Zweifel an dieser Vision sind jedoch gewachsen und immer mehr Kritiker fragen, wie autonome Autos in Dilemma-Situationen entscheiden sollen, wer leben darf und wer sterben muss. Soll dieses ethische Problem von den Nutzern autonomer Autos, von ihren Herstellern oder von der Politik entschieden werden? Eine kritische Prüfung dieses Problems kann nur zu einem Ergebnis kommen: Es wird auch in Zukunft keine autonomen Autos geben. Der ethische Preis, den wir für den vermeintlichen Fortschritt zu zählen hätten, wäre unsere Freiheit und die menschliche Autonomie.

Die Digitalisierung soll das Fahren von Autos revolutionieren. Autonome Autos sollen es den Nutzern ermöglichen, während der Fahrt zur Arbeit die Zeitung zu lesen und Kaffee zu trinken und auf dem Weg in den Urlaub mit den Mitfahrern Ausflüge zu planen oder zu schlafen. Vor allem aber soll das Autofahren sicherer werden. Autonome Autos überschreiten keine Geschwindigkeitsvorschriften, unterschreiten keine Sicherheitsabstände und sind nie abgelenkt oder müde. Euphorisch behauptet die Bundeskanzlerin Angela Merkel im Juni 2017, dass man in zwanzig Jahren eine Sondererlaubnis beantragen müsse, wolle man sein Auto selbst fahren (vgl. Grossarth, 2017).

Der technische Fortschritt könnte nicht nur Staus und Schadstoffemissionen reduzieren, er könnte auch helfen, die meisten Unfälle im Straßenverkehr zu vermeiden. Im Jahr 2016 nahm die Polizei in Deutschland 2,6 Millionen Unfälle auf, dabei wurden fast 400.000 Menschen verletzt und mehr als 3.000 Menschen getötet (vgl. Statistisches Bundesamt, 2017). In der Europäischen Union starben im vergangenen Jahr 25.500 Menschen durch Verkehrsunfälle (vgl. European Commission, 2017), weltweit sind es rund 1,25 Millionen Menschen (vgl. WHO, 2017). Die Ursachen waren in Deutschland zumeist Fahrfehler beim Abbiegen oder ein zu geringer Abstand zum Vorausfahrenden. Zumeist also Ursachen, die autonome Autos wahrscheinlich vermieden hätten.

Dabei gibt es mehrere Stufen der Autonomie von Autos: Auf der ersten Stufe helfen Assistenzsysteme beim Einhalten der Geschwindigkeit oder des Abstands, auf der zweiten Stufe können Autos selbstständig die Fahrspur halten oder einparken, auf der dritten Stufe auch selbstständig Spurwechsel und Überholvorgänge durchführen. Das vollautomatisierte Fahren macht den Fahrer zum Nutzer eines Autos und beginnt mit Stufe vier, bei der das Auto dauerhaft die Führung der Fahrt übernimmt, und endet mit Stufe fünf, in der der Nutzer nur das Ziel bestimmt und das System startet (vgl. Ethik-Kommission, 2017, S. 14).

Die Hoffnungen auf eine sichere und sorgenfreie Mobilität durch den technischen Fortschritt sind auf Seiten der Autofahrer vermutlich ebenso groß wie die Hoffnungen der Autohersteller und ihrer Zulieferer auf wachsende Umsätze. Die Politik unterstützt die Entwicklung, sie hofft ebenfalls auf Vorteile für ihre Bürger, sinkende Belastungen der Infrastruktur und der Umwelt sowie steigende Einnahmen der einheimischen Industrie. Angesichts so vieler Hoffnungen auf eine bessere Zukunft muss aber die Frage an die Ethik erlaubt sein, ob auch gut ist, was machbar sein soll.

Der Prometheus

Die Hoffnung, dass technischer Fortschritt das Leben der Menschen verbessert, ist so alt wie die Menschheit selbst. Die Frage, welche Gefahren damit einhergehen, aber auch. Eine der bekanntesten klassischen griechischen Mythen handelt vom Titanen Prometheus. Nach einem Streit mit dem tyrannischen Göttervater Zeus verbietet dieser den Menschen den Gebrauch des Feuers. Prometheus, der die Menschen als seine Schützlinge betrachtet, widersetzt sich dem Verbot und bringt das Feuer zu den Menschen – und damit beginnt die menschliche Zivilisation, die Nutzung und die Beherrschung der Natur durch die Technik. Der erzürnte Göttervater lässt Prometheus zur Strafe für seinen Frevel an eine Felswand im Kaukasus ketten, wo ein Adler immer wieder von seiner Leber fressen soll, die sich danach ständig wieder erneuert. Prometheus, dessen Name mit ‚der Vorausdenkende‘ übersetzt werden kann, will das Gute tun und wird dafür hart bestraft. Der Titan wird somit zum mythologischen Topos eines ambivalenten Helden: Einerseits ist er ein mutiger Rebell, der sich der Unterdrückung widersetzt und die Menschen befreit, andererseits ist er jedoch ein gescheiterter Held, da er die Menschheit mit den neuen und gefährlichen Möglichkeiten der Technik allein lässt. Die Gefahren der Instrumentalisierung der Technik für Gewalt und Krieg vorauszudenken, ist ihm nicht gelungen.

Einige Jahrhunderte später verbringen vier junge Freunde einen regnerischen Sommer am Ufer des Genfer Sees. Um sich die Zeit zu vertreiben, beschließen sie, dass jeder von ihnen eine Schauergeschichte aufschreibt und diese den anderen erzählt. Die bekannteste Geschichte, die in diesem Sommer entsteht, stammt von der damals 19-jährigen Mary Shelley und wurde zwei Jahre später, im Jahr 1818, unter dem Titel Frankenstein, oder der moderne Prometheus veröffentlicht. Im Roman erzählt die Autorin die Geschichte von Viktor Frankenstein, der aus Neugier und Begeisterung für die Entdeckungen der modernen Naturwissenschaft einen besseren Menschen schaffen will: „Eine neue Menschengattung würde mich als ihren Schöpfer und Entdecker preisen; viele glückliche und vortreffliche Geschöpfe würden mir ihr Leben verdanken“ (Shelley, 1986, S. 70). Zwar will das geschaffene Wesen freundlich und hilfreich sein, doch es verbreitet nur Angst und Schrecken. Aus dem besseren Menschen wird schicksalhaft ein Dämon, der all jene tötet, die Viktor Frankenstein nahestehen, und sich schließlich aus Verzweiflung selbst verbrennt. Auch Viktor Frankenstein, der moderne Prometheus, wollte das Gute schaffen und sah nicht die Gefahren seines Tuns.

Die Figur des Prometheus wurde zum Urbild eines Menschen, den sein Wissens- und Forschungsdrang ins Unheil stürzen. Aus Hybris will er schaffen, was ihm möglich ist – ohne die Konsequenzen für sich selbst und andere zu bedenken. Der Philosoph Hans Jonas stellte den Prometheus in den 1980er Jahren deshalb ins Zentrum seiner Wirtschaftsethik und warnte, dass die technischen Entwicklungen zum Untergang der Menschheit führen könnten. Der „endgültig entfesselte Prometheus“ (Jonas, 1984, S. 7) habe sich am Ende des 20. Jahrhunderts zu einem Wesen mit nahezu unbegrenzter Macht über die Natur und die Technik entwickelt – doch könne oder wolle er immer noch nicht auf die Folgen seines Handelns schauen. Angesicht der Art und des Umfangs ihrer Macht müssten die Menschen jedoch umdenken: „Was der Mensch heute tun kann und dann, in der unwiderstehlichen Ausübung dieses Könnens, weiterhin zu tun gezwungen ist, das hat nicht seinesgleichen in vergangener Erfahrung“ (ebd.). Wenn die Menschheit sich nicht selbst durch einen Knopfdruck vernichten solle, dann, so Hans Jonas, müsse sie ihren rastlosen Antrieb zügeln lernen und ein Prinzip der Verantwortung und des verantwortlichen Handelns für sich und die Natur akzeptieren. Der neue ethische Imperativ laute daher: „Handle so, daß die Wirkungen deiner Handlungen verträglich sind mit der Permanenz echten menschlichen Lebens auf Erden“ (a. a. O, S. 36).

In der Wirtschafts- und Unternehmensethik wurden Jonas’ Warnungen und sein radikaler ökologischer Imperativ in den 1980er Jahren lebhaft diskutiert und dann durch Wirtschaftsthemen und Finanzkrisen wieder verdrängt. Die Frage, wie das gewünschte wirtschaftliche Wachstum und ein möglicher Fortschritt mit einer hierfür notwendigen Schädigung der Natur vereinbar sein können, war und ist drängender als die fundamentale Reflexion des Handelns. Prometheus hofft weiterhin darauf, dass sich dauerhaft gute Folgen aus der bloßen Absicht ergeben, gut zu handeln.

Das Dilemma

Diese Hoffnungen auf die segensreichen Früchte des Fortschritts finden sich fraglos auch bei der Entwicklung des autonomen Autos. Aber auch hier gibt es Konsequenzen, die bedacht werden sollten. Ein ethisches Problem, welches bereits mehrfach diskutiert wurde, steht auch hier im Zentrum der Überlegungen (vgl. Lin, 2013): Im Wesentlichen handelt es sich dabei um eine aktualisierte Form eines klassischen Dilemmas, welches als Trolley-Dilemma oder Weichensteller-Problem bekannt ist (vgl. Foot, 1967, Thomson, 1976 und Thomson, 1985). In diesem Gedankenspiel rast ein führerloser Zug auf eine Gruppe von Menschen zu. Der Zug könnte jedoch auf ein Nebengleis umgeleitet werden, wo er sehr wahrscheinlich einen einzelnen Menschen, der sich dort auf den Gleisen aufhält, töten wird. Soll man den Zug auf das Nebengleis umleiten oder nicht?

Hinter dem grausamen Trolley-Problem lauert eine grundsätzliche ethische Frage: Darf man einen Menschen schädigen oder gar töten, um vielen anderen Menschen zu helfen? Aus utilitaristischer Sicht ist jede Entscheidung ausschließlich davon abhängig, ob durch sie die Gesamtsumme der Freude maximiert und des Leids minimiert wird. Bei der Abwägung, ob man einen einzelnen Menschen töten darf, um eine ganze Gruppe von Menschen zu retten, spricht vieles für die Umleitung des Zuges. Für die Deontologen ist diese Entscheidung jedoch ethisch nicht zulässig, da man durch die Umleitung des Zuges einen Menschen aktiv töten würde. In diesem Fall wird das nachfolgende Geschehen kein Unfall sein, sondern die vorsätzliche Tötung eines unschuldigen Menschen durch eine bewusste Handlung. Aus deontologischer Sicht verbietet sich aber die Instrumentalisierung eines Menschen für irgendeinen Zweck.

Überträgt man das ethische Dilemma auf autonome Autos, so lautet ein mögliches Szenario: Soll ein autonomes Auto – im Falle eines unvermeidlichen Unfalls – einen (1) einzelnen Fußgänger am Straßenrand, eine (2) Gruppe von Fußgängern auf der Straße oder den (3) Nutzer des Autos töten? Nehmen wir an, dass nur eine dieser drei Optionen zur Auswahl steht, da der Unfall durch ein technisches Problem der Bremsanlage oder durch Blitzeis nicht zu verhindern und der Nutzer abgelenkt ist – für welche Option soll sich das autonome Auto nun entscheiden?

Auch wenn eine derartige Situation auf den ersten Blick unwahrscheinlich anmutet, so ist sie doch keineswegs ausgeschlossen. Es gibt Probleme mit Bremsanlagen, es gibt Blitzeis und es gibt abgelenkte Fahrer. Letzteres wird in autonomen Autos vermutlich die Regel sein, und bei Millionen Autos und vielen Millionen Verkehrssituationen täglich, werden alle möglichen Formen von Unfällen weiterhin drohen und vom Auto Entscheidungen verlangen. Auch unwahrscheinliche Situationen werden früher oder später eintreten, und kaum jemand glaubt, dass keine Unfälle mehr passieren werden. Die Versicherungsunternehmen prognostizieren in einem Bericht mehr Unfälle in der Praxis des Straßenverkehrs als man heute theoretisch vermutet und warnen sogar vor steigenden Kosten angesichts der hochpreisigen Technik (vgl. GDV, 2017).

In einer US-amerikanischen Studie wurden die drei zuvor beschriebenen Alternativen – das Auto tötet einen oder mehrere Passanten oder den Nutzer – in mehreren Szenarien zur Wahl gestellt (vgl. Bonnefon, Shariff, & Rahwan, 2016). Grundsätzlich begrüßten die meisten Probanden ein utilitaristisches Verhalten autonomer Autos: Je mehr Menschen gerettet werden könnten, desto eher sollte das Auto einen einzelnen Passanten oder auch den Nutzer opfern. Zwei von drei Probanden halten diese Entscheidung zudem für moralisch richtig. In einem Szenario, in dem die Befragten mit ihrer Familie und ihren Kindern in einem solchen Fahrzeug sitzen, sagen jedoch drei von vier Probanden, dass das autonome Auto grundsätzlich seine Insassen schützen sollte. Die meisten Befragten würden es auch ablehnen, wenn autonome Autos per Gesetz dazu gezwungen würden, den Nutzer zu opfern – selbst, wenn dadurch zehn Menschenleben gerettet werden könnten.

Mit anderen Worten: Auch, wenn die meisten Menschen eine utilitaristische Entscheidung allgemein für moralisch richtig halten, würden sie diese trotzdem faktisch ablehnen, sollte sich ihr eigenes autonomes Auto derart verhalten oder verhalten müssen. Die meisten Menschen begrüßen zwar die technische Entwicklung und erkennen ihre Nutzenvorteile, lehnen die utilitaristische Entscheidung aber ab, wenn sie ihnen zum Nachteil gereicht. Für die Autohersteller und den Gesetzgeber ist dieses Dilemma und die nur vermeintlich utilitaristische Moral der Trittbrettfahrer ein ethisches Problem.

Angesicht der Ergebnisse dieser Studie ergibt sich aber auch für die deontologische Position ein Problem. Von John Rawls stammt die kontrafaktische Überlegung eines Urzustands, in dem Gerechtigkeitsfragen vor einem Schleier des Nichtwissens entschieden werden sollen (vgl. Rawls, 1979). Ist es in dieser Situation fair, autonome Autos zu erlauben? Die Zustimmung oder Ablehnung würde sicherlich stark davon abhängen, ob man sich als Nutzer oder als Passant entscheiden sollte. Da man aber genau dies, so die Idee von Rawls, nicht wissen soll, würden sich die meisten Menschen vermutlich wieder gegen die Einführung autonomer Autos entscheiden. Im Zweifelsfall wäre die Ermöglichung einer lebensbedrohlichen Technik für die meisten Menschen vermutlich ungerecht.

Der Philosoph Julian Nida-Rümelin erinnert an die kantische These, dass Freiheit, Autonomie und Würde eng miteinander verwoben sind (vgl. ausführlich Nida-Rümelin, 2014 und 2016). Ohne die Freiheit des Individuums, eine autonome Entscheidung für (oder gegen) eine vernünftige und begründbare Handlung zu treffen, verlören Menschen ihre spezifische Würde. Wer Menschen dieser Freiheit beraube, verletze ihre Menschenwürde. Autonome Autos sollen, wie Nida-Rümelin betont, aus der „auffälligen Naivität der utilitaristischen Logik“ (Nida-Rümelin, 2016) heraus eine Entscheidung ohne den Fahrer treffen. Die Software des vollautomatischen Autos würde dann aber verhindern, dass Menschen eine freie Entscheidung für eine Handlung treffen – und für diese Entscheidung dann auch die moralische Verantwortung tragen. Die „praktischen Deliberationen durch ein Optimierungskalkül zu ersetzen“ (ebd.), sei, so Nida-Rümelin, ein Verstoß gegen die Menschenwürde. Assistenzsysteme in Autos wären zwar hilfreich und sinnvoll, aber die Verantwortung für das Handeln und das Fahren eines Autos müssten beim Fahrer bleiben.

Die Verantwortung

Nach dieser ersten Prüfung utilitaristischer und deontologischer Argumente stellt sich die Frage nach der Verantwortung für die Entscheidungen und Handlungen autonomer Autos. Faktisch ist der Begriff des autonomen Autos jedoch irreführend, da das Fahrzeug nicht autonom im Sinne einer Selbstgesetzgebung sein kann. Das Fahrzeug kann keine Entscheidungen aus sich selbst heraus generieren, es ist und bleibt auf steuernde Algorithmen angewiesen. Daher wäre die Bezeichnung ‚algorithmengesteuertes Auto‘ (AGA) zutreffender, als von einer vermeintlichen Autonomie zu sprechen.

Die Frage nach der Verantwortung verlagert sich dadurch vom Fahrzeug auf den Algorithmus und damit auf die Frage, wer über die fundamentalen Heuristiken bestimmt, die dessen Entscheidungen zugrunde liegen. Die möglichen Entscheidungen lauten: „Wähle den geringstmöglichen Schaden (Präferenz Abwägung)“ oder „Schütze den Nutzer und die Beifahrer (Präferenz Selbstschutz)“. Im ersten Fall muss der Algorithmus erkennen können, wie viele Verletzte oder Tote durch welches Fahrmanöver entstehen würden, im zweiten deutlich weniger komplexen Fall nur jenes Fahrmanöver auswählen, welches den Schaden am Fahrzeug und an den Insassen minimiert. Die Entscheidung, ob das AGA die Präferenz Abwägung oder die Präferenz Selbstschutz wählen sollen, kann von drei Gruppen getroffen werden: Vom Nutzer des Fahrzeugs, vom Hersteller oder von der Politik.

Gäbe man die Verantwortung in die Hände des Nutzers, so würden AGAs sehr wahrscheinlich immer die Insassen schützen. Wer würde ernsthaft behaupten, dass Menschen bereit wären, sich für andere im Straßenverkehr zu opfern? Dies würde aber bedeuten, dass AGAs jedes potentielle Risiko für den Nutzer und die Mitreisenden minimieren und dafür auch die Schädigung oder gar die Tötung von Passanten akzeptieren würden. Jedes AGA wäre dann für jeden Menschen außerhalb des Fahrzeugs ein lebensgefährliches Risiko und die Bürger würden vermutlich sehr schnell ein Ende dieses Horrorszenarios und ein generelles Verbot von AGAs fordern.

Die Verantwortung dem Hersteller zu übertragen, verlangt eine komplexere Überlegung. In einem ersten Schritt stellt sich die Frage, ob sich alle Hersteller auf einen Algorithmus einigen würden. Sollten sie sich für die Präferenz Selbstschutz entscheiden, würde das zuvor genannte Horrorszenario eintreten. Dass sich die Hersteller darauf verständigen, den Nutzer nicht unter allen Umständen zu schützen, würde vermutlich zu typischen Reaktionen des Marktes führen: Auf einem Schwarzmarkt würden neu programmierte Chips angeboten, die den Schutz des Nutzers gegen entsprechenden Aufpreis versprechen. Oder die Käufer könnten diesen Schutz als exklusive Sonderausstattung bei einigen Premiummarken erwerben. In jedem Fall wären Autos bald wieder zumindest potentielle Mörder, denn es spielt für die Wahrnehmung der Passanten keine Rolle, ob einige wenige oder alle Autos den Nutzerschutz unter allen Umständen präferieren würden.

In einem zweiten Schritt stellt sich die grundsätzliche Frage nach der Verantwortung von Unternehmen: Wofür sind Unternehmen verantwortlich? Diese Frage wird seit Jahren in den Forschungsbereichen der Unternehmensethik mit den Schlagworten Compliance, Corporate Citizenship oder Corporate Social Responsibility untersucht. Aus guten Gründen sind nicht nur die meisten auch in Deutschland üblichen Termini, sondern auch die allermeisten Beiträge hierzu aus dem angloamerikanischen Bereich. Insbesondere in den Vereinigten Staaten von Amerika sind diese Themen seit langem sehr populär und hierfür gibt es die erwähnten guten Gründe: Die USA folgen auch auf diesen Feldern ihrer utilitaristischen Moral- und Rechtstradition und betrachten Unternehmen ganz pragmatisch wie natürliche Personen. Vor Gericht und in der Wahrnehmung der Öffentlichkeit sollen sich Unternehmen gesamthaft nicht nur auf die Gewinnmaximierung fokussieren, sondern auch ihre Rolle als ethisch verantwortliches und rechtstreues Mitglied der Zivilgesellschaft beachten. Wer diese moralischen Erwartungen ignoriert, muss am Ende spektakulärer Gerichtsprozesse mit drastischen Geldstrafen rechnen, die das Unternehmen zu zahlen hat: Die Autohersteller Toyota, General Motors und Volkswagen sowie die Banken JP Morgan, Bank of America und die Deutsche Bank mussten jeweils Milliardenbeträge an die Staatskasse zahlen.

In vielen Ländern Europas und insbesondere in der Bundesrepublik Deutschland ist der Rahmen der Fragestellung jedoch ein anderer, da hier eine andere Moral- und Rechtstradition zugrunde liegt. Weitgehend anerkannt ist, dass in Deutschland korporativ verfasste Akteure wie Unternehmen keine ethische Verantwortung tragen können, aus der sich eine rechtliche Schuld ableiten ließe (vgl. Engelhard & Trautnitz, 2005). In deutschen Gerichten können Unternehmen als juristische Personen lediglich auf der Grundlage des Zivilrechts und somit für Ordnungswidrigkeiten für schuldig befunden und zu begrenzten Geldstrafen verurteilt werden. Das deutsche Strafrecht kennt keine rechtliche Verantwortung von juristischen Personen wie Unternehmen. Strafrechtlich verantwortlich können nur natürliche Personen sein, also Eigentümer, Manager oder Mitarbeiter des Unternehmens (vgl. Trautnitz, 2008).

Die Begründung hierfür führt zurück ins dreizehnte Jahrhundert und ins kanonische Recht, als Papst Innozenz IV. eine korporative Verantwortung ablehnte: Korporationen seien lediglich fiktive Personen und könnten, da sie keine Seele besäßen, auch nicht exkommuniziert werden (vgl. Engelhart, 2010). Eine lange Tradition des Schuldstrafrechts geht von dem Grundsatz ‚no soul to damn, no body to kick‘ aus und führte zur dogmatischen Rechtstradition, dass Korporationen keine Straftat begehen können, sondern nur Menschen, also ‚beseelte‘ und somit moralfähige Wesen.

Diese Tradition stärkt auch Immanuel Kant, indem er die Moralität von der Legalität abgrenzt und Erstere auf das moralische Gesetz, Letztere auf das bürgerliche Gesetz zurückführt. Für Kant sind Freiheit und Vernunft die wesentlichen und notwendigen Voraussetzungen für selbstgesetzgebende Urteile. Über eine derartige Autonomie können jedoch nur Menschen verfügen, weder Tiere noch Korporationen. Für alle ethischen und rechtlichen Konsequenzen, die aus einem autonomen Urteil folgen, können daher auch nur freie und vernünftige Menschen die Verantwortung übernehmen. Aus dieser deontologischen Begründung Kants folgt die bis heute allgemein anerkannte kausale Beziehung zwischen Moral und Recht (vgl. Pfordten, 2005), die sich auch in den Grundsatzentscheidungen der obersten deutschen Gerichtshöfe regelmäßig nachlesen lässt.

Zwar gibt es regelmäßig Versuche, eine Wirtschaftsethik mit einer moralischen Verantwortung von korporativen Akteuren zu begründen, doch sind diese entweder utilitaristisch-pragmatischer Natur oder sie stützen sich auf konventionelle Zuschreibungen. Im ersten Fall sind die Begründungen aus alternativen, nicht-utilitaristischen Positionen heraus zumindest strittig, im zweiten Fall sind sie oftmals lückenhaft in der Argumentation. Auch die sehr ausführliche und kenntnisreiche Arbeit von Christian Neuhäuser, der Unternehmen als moralische Akteure betrachtet, bleibt schlussendlich problematisch. Denn für Neuhäuser sind „Unternehmen vernünftige Akteure, die überlegen können und auch aus moralischen Gründen handeln können“ (Neuhäuser, 2011, S. 134). Da Unternehmen, so Neuhäuser, in „manchen Ländern sogar strafrechtlich belangt werden können“ und „wir ihnen im öffentlichen Diskurs moralische Vorwürfe [machen], und vor allem können sie selbst auf diese Vorwürfe reagieren, sie verstehen also offensichtlich die Sprache der Moral“ (a. a. O., S. 133), seien Unternehmen und Korporationen moralische Akteure.

Neuhäuser wendet sich in seiner Argumentation entschieden gegen das „Dogma des methodologischen Individualismus“ (a. a. O., S. 41) und behauptet, dass die Mitarbeiter eines Unternehmens „zwar freie und moralische Akteure“ seien, sie „davon aber keinen oder nur eingeschränkten Gebrauch machen, weil sie dem Zwang [sic!] der Unternehmen unterworfen sind“ (a. a. O., S. 168). Angesicht „der düsteren Aussicht“ (a. a. O., S. 169) auf die individuellen Folgen moralischen Handelns eines Mitarbeiters sind „Unternehmen […] als korporative Akteure schuld an dem, was geschehen ist. Die individuellen Akteure sind nicht schuld, und deswegen kann ihnen auch kein moralischer Vorwurf gemacht werden; eine gewissermaßen nachgeordnete Verantwortung haben sie aber trotzdem“ (a. a. O., S. 173).

Es fällt mir schwer, Christian Neuhäusers Argumentation hierbei zu folgen, und frage mich, ob der Vorwurf des Dogmatismus in die richtige Richtung zielt. So leichtfertig sollte man das Autonomieprinzip, welches das Fundament der Beziehung zwischen Moral und Recht bildet, nicht über Bord werfen. Vor allem in Deutschland gilt aufgrund der deontologisch geprägten Tradition: Wirtschaftsethik ist im Kern Individualethik. Der methodologische Individualismus bietet gerade hier die Chance, aus der Trias Ethik, Moral und Recht eine zuweisbare und zurechenbare Verantwortung auch in Unternehmen argumentativ zu begründen – eine Debatte, die an dieser Stelle jedoch nicht weiterverfolgt werden soll und kann.

Nach diesem Exkurs kann ich zur Frage zurückkehren, wer – also welche natürliche Person(engruppe) – im Unternehmen nun die Verantwortung für die Entscheidung der Programmierung des Algorithmus treffen sollte. Möglich wäre es, dass der Geschäftsführer, der Vorstand oder die Eigentümer die Verantwortung übernehmen und den Programmierern eine klare Vorgabe machen. Doch wer von diesen Personen würde sich tatsächlich dafür aussprechen, die eigenen Kunden zu opfern? Die Präferenz Selbstschutz gälte in diesem Fall nicht nur für die Programmierung des Algorithmus, sondern vermutlich auch für die Entscheider.

Die letzte Instanz wäre nun die Politik. Sie könnte in einem demokratischen und rechtstaatlichen Verfahren darüber bestimmen, wie der Algorithmus lauten soll. Die vom Bundesministerium für Verkehr und digitale Infrastruktur eingesetzte Ethik-Kommission ‚Automatisiertes und vernetztes Fahren‘ stellte im Juni 2017 ihren Bericht vor (vgl. Ethik-Kommission, 2017). Die Kommission erkennt an, dass teil- und vollautomatisierte Verkehrssysteme der Verbesserung der Sicherheit aller Beteiligten im Straßenverkehr dienen. Sie betont jedoch, dass „der Schutz von Menschen Vorrang hat vor allen anderen Nützlichkeitserwägungen” (a. a. O., S. 10). Es dürfe nicht zu einer „Degradierung des Subjekts zum bloßen Netzwerkelement” (a. a. O., S. 11) kommen. Ausführlich widmet sich der Bericht dem hier vorstellten Dilemma der Programmierung des Algorithmus, kommt aber zu keiner klaren Aussage: Einerseits sollen technische Systeme Unfälle so gut wie möglich vermeiden helfen und insbesondere menschliches Leben schützen, andererseits betont die Kommission aber, dass eben diese technischen Systeme „nicht so normierbar [sind], dass sie die Entscheidung eines sittlich urteilsfähigen, verantwortlichen Fahrzeugführers ersetzen oder vorwegnehmen könnten“ (ebd.).

Der Politik stellt sich damit ein fundamentales verfassungsrechtliches Problem. In seinem Urteil zum Luftsicherheitsgesetz, dass den Abschuss eines entführten Passagierflugzeugs durch die Bundeswehr erlauben sollte, stellte das Bundesverfassungsgericht unmissverständlich klar, dass ein solches Gesetz der Menschenwürdegarantie des Grundgesetzes widerspräche und nicht zulässig sei (vgl. Luftsicherheitsgesetz, 2006). Ein Gesetz, dass Menschen als Mittel zum Zweck der Gefahrenabwehr einsetze, sie also zum Instrument eines Nutzenkalküls mache, sei in Deutschland weder legal noch legitim. Die Ethik-Kommission grenzt in ihrem Bericht zwar die abstrakte Quantifizierung bei der Programmierung der AGAs von dem konkreten Kontext beim Abschussbefehl eines Flugzeugs ab und empfiehlt, dass Ersteres aus Nützlichkeitserwägungen legitim sein sollte. Diese Unterscheidung zwischen abstrakten und konkreten Quantifizierungen ist jedoch kaum nachzuvollziehen, da Politiker bei einer Abstimmung über die Frage, ob AGAs die Abwägung oder den Selbstschutz präferieren sollen, eine grundsätzliche Entscheidung über die Zulassung der Instrumentalisierung von Menschenleben treffen müssten. Auch die Kommission erkennt selbstkritisch an, sie habe in dieser zentralen Frage „ihre Diskussion noch nicht befriedigend und auch nicht in jeder Hinsicht konsensual zu Ende führen können“ (a. a. O., S. 18).

Die Ethik-Kommission überreicht der Politik somit ein Danaergeschenk. Sie unterstützt die Euphorie der Politik, erklärt aber zugleich, dass die Politik das zentrale Problem der Entscheidung in Dilemma-Situationen nicht ohne ethische Konflikte wird klären können. Sollten die Politiker hierüber befinden, wird das Bundesverfassungsgericht sehr wahrscheinlich erneut an das Autonomieprinzip Immanuel Kants erinnern und den Politikern eine gesetzliche Regelung verbieten.

In der genaueren Prüfung, wer die Verantwortung für den Algorithmus übernehmen soll, der darüber entscheiden muss, wer in einer Dilemma-Situation zu retten und wer zu opfern sei, komme ich zu keinem Ergebnis. Weder die Nutzer noch die Hersteller oder die Politik können beziehungsweise sollten diese Verantwortung tragen. Ohne eine klare und öffentliche Entscheidung zum Problem der Präferenz der Abwägung oder des Selbstschutzes von AGAs sollte sich eine Zivilgesellschaft jedoch aus moralischen Gründen gegen sogenannte autonome Autos entscheiden.

Der Kompromiss

Seit Menschen sich als Kulturwesen verstehen und die Natur nutzen wollen und können, sind sie fasziniert von der Technik. Ohne das Feuer und das Rad, ohne Waschmaschinen und Computer, die Menschen von körperlicher und geistiger Arbeit entlasten, wäre ein Leben, das wir heute als menschenwürdig bezeichnen, kaum möglich. Die sogenannten autonomen Autos sind eine neue Verheißung, sie versprechen einen hohen Nutzen und eine weitere große Entlastung.

Fraglich bleibt aber, wie weit die Entlastung gehen darf. Der moderne Prometheus steht wieder einmal vor der moralischen Frage, ob er auch wollen soll, was er kann. Von Algorithmen gelenkte Autos entlasten eben nicht nur von körperlicher und geistiger Arbeit, sondern auch von Verantwortung. Das moralische Problem lautet aber, dass Menschen nur dann Verantwortung übernehmen können, wenn sie frei entscheiden können und selbst autonom sind. Freiheit in einem positiven Sinne meint, sich für oder auch gegen eine Festlegung und eine Handlung zu entscheiden. Nur dann können Menschen einen normativen Status einnehmen, den sie verantworten können und müssen (vgl. Brandom, 2015, S. 56f.). Wer die eigene Autonomie an andere Menschen oder einen Algorithmus abgibt, verliert seine Freiheit und die Verantwortung für seine Taten. Eine derartige Heteronomie ist aus ethischer Sicht keine Verheißung, sondern eine Bedrohung.

Der neueste Zeitgeist der Digitalisierung hat viele Prediger und das sogenannte autonome Auto ist nur eines ihrer vielen Reliquien. Die eschatologischen Versprechungen der Digital-Prediger über die Zukunft der Arbeit, der Mobilität und der Lebensführung künden von glanzvollen Zeiten. Ein ehrlicher Diskurs über ihre Versprechen muss aber auch ethische Probleme der Freiheit und der Autonomie des Menschen zulassen. Diesen offenen Diskurs muss die Zivilgesellschaft auch in Schulen und Hochschulen führen und auch von der freiwilligen Beschränkung der Techniknutzung handeln.

Der moderne Prometheus sollte sich vernünftig und reflektiert überlegen, wo die Grenzen seiner entfesselten Macht liegen sollen. Kaum jemand bezweifelt, dass Unfälle auch mit AGAs geschehen werden und Menschen auch in Zukunft verletzt und getötet werden. Viele Assistenzsysteme, die einparken oder Fahrspuren und Abstände kontrollieren, sind hilfreich und nützlich – doch sie berauben den Fahrer nicht seiner Autonomie. Der moralische Preis, den wir alle zahlen, wenn Algorithmen uns die Verantwortung für unser Tun abnehmen, ist zu hoch – der Preis wäre unsere Freiheit.

 

Literaturverzeichnis

Bonnefon, J.-F., Shariff, A., Rahwan, L. (2016): The social dilemma of autonomous vehicles. In Science, 352, S. 1573 – 1576.

Brandom, R. (2015): Wiedererinnerter Idealismus. Frankfurt am Main: Suhrkamp.

Engelhard, J., & Trautnitz, G. (2005): Tragen Unternehmen Verantwortung? Überlegungen zur Fundierung des Konzepts korporativer Verantwortung. In M.-J. Oesterle & J. Wolf (Hrsg.): Internationalisierung und Institution – Klaus Macharzina zur Emeritierung, S. 517 – 541. Wiesbaden: Springer Gabler.

Engelhart, M. (2010): Sanktionierung von Unternehmen und Compliance. Berlin: Duncker & Humblot.

Ethik-Kommission (2017): Ethik-Kommission – Automatisiertes und vernetztes Fahren. Von Bundesministerium für Verkehr und digitale Infrastruktur. Unter https://www.bmvi.de/SharedDocs/DE/Anlage/Presse/084-dobrindt-bericht-der-ethik-kommission.html?nn= 12830. Abgerufen am 20. Juni 2017.

European Commission (2017): ec.europa.eu. Von Mobility and Transport – Road Safety. Unter: http://ec.europa.eu/transport/road_safety/specialist/statistics_en. Abgerufen am 20. Joni 2017.

Foot, P. (1967): The Problem of Abortion and the Doctrine of the Double Effect. Oxford Review, 5/1967.

GDV (2017): Automatisiertes Fahren. Von Gesamtverband der Deutschen Versicherungswirtschaft e.V. Unter: http://www.gdv.de/2017/06/weniger-unfaelle-teurere-reparaturen. Abgerufen am 20. Juni 2017

Grossarth, J. (2017): Selber lenken mit Sonderlizenz. In:  Frankfurter Allgemeine Zeitung, 12. Juni 2017, S. 18.

Jonas, H. (1984): Das Prinzip Verantwortung. Frankfurt am Main: Suhrkamp.

Lin, P. (2013): The Ethics of Autonomous Cars. Von The Atlantic. Unter: https://www.theatlantic.com/technology/archive/2013/10/the-ethics-of-autonomous-cars/280360. Abgerufen am 20. Juni 2017

Luftsicherheitsgesetz (2006): Bundesverfassungsgericht 115, Urteil vom 15. Februar 2006 – 1 BvR 357/05

Luhmann, N. (2000): Organisation und Entscheidung. Opladen: Westdeutscher Verlag.

Neuhäuser, C. (2011): Unternehmen als moralische Akteure. Berlin: Suhrkamp.

Nida-Rümelin, J. (2014): Selbstfahrende Autos und Trolley-Probleme: Zum Aufrechnen von Menschenleben im Falle unausweichlicher Unfälle. In D. Sturma, L. Honnefelder & M. Fuchs (Hrsg.): Jahrbuch für Wissenschaft und Ethik, Band 19, S. 5 – 23. Berlin: de Gruyter.

Nida-Rümelin, J. (2016): Lasst die Hände am Steuer. In: Frankfurter Allgemeine Zeitung, 17. Juli 2016, S. 22.

Pfordten, D. v. (2005). Rechtsethik. In J. Nida-Rümelin (Hrsg.): Angewandte Ethik. Die Bereichsethiken und ihre theoretische Fundierung, S. 202-300. Stuttgart: Kröner.

Rawls, J. (1979): Eine Theorie der Gerechtigkeit. Frankfurt am Main: Suhrkamp.

Shelley, M. (1986): Frankenstein. Stuttgart: Reclam.

Statistisches Bundesamt (2017): 7,1 % weniger Verkehrstote im Jahr 2016. Von www.destatis.de. Unter https://www.destatis.de/DE/PresseService/Presse/Pressemitteilungen/2017/02/PD17_065_46241.html;jsessionid=AA30C394EEACF111DA9648298DEA6C79.cae4. Abgerufen am 20. June 2017

Thomson, J. J. (1976): Killing, Letting Die, and the Trolley Problem. In The Monist, Band 59, S. 204 – 217.

Thomson, J. J. (1985): The Trolley Problem. In The Yale Law Journal, Band 94, No. 6, S. 1395 – 1415.

Trautnitz, G. (2008): Gewinnprinzip oder “moralische” Unternehmensführung? Das Recht als die vergessene Kategorie der Unternehmensethik. In A. G. Scherer, & M. Patzer (Hrsg.): Betriebswirtschaftslehre und Unternehmensethik, S. 145 – 167. Wiesbaden: Springer Gabler.

WHO (2017). Global status report on road safety 2013. Von World Health Organization. Unter http://www.who.int/violence_injury_prevention/road_safety_status/2013/en. Abgerufen am 20. Juni 2017

 

Hier gibt’s die PDF-Version des Fachartikels