Lena Alexandra Gieling: Konsument und Algorithmus – eine Beziehung?

Der vorliegende Beitrag beschäftigt sich mit dem Einsatz von künstlicher Intelligenz in der Kundenkommunikation und soll herausstellen, inwiefern durch die Verwendung von Chatbots eine Marken-Konsumenten-Beziehung etabliert werden kann. Zudem wird untersucht, welche Auswirkungen die Kommunikation mit einem Chatbot auf das Kaufverhalten der Konsumenten hat. Die Unternehmenskommunikation sowie das Relationship Marketing bieten viele Optionen zur Gestaltung einer Marken-Konsumenten-Beziehung. Der Chatbot stellt dabei eine moderne Interaktionsmöglichkeit dar, die einen Austausch zwischen Konsument und Marke ermöglicht und nicht mehr eine rein parasoziale Interaktion darstellt. Zum Verständnis des Konsumenten und dessen Handlungen werden sowohl soziologische, kollektivistische Theorien wie die Habitustheorie von Bourdieu herangezogen, als auch die These der Individualisierung des Einzelnen von Beck vorgestellt. Anschließend werden mittels des Konzepts der Erfolgskette die einzelnen Komponenten der Beziehung und die aus den Unternehmensaktivitäten resultierenden Wirkweisen auf den Konsumenten vorgestellt.

Mittels vier einzelner Hypothesen wird im Rahmen einer Online Umfrage untersucht, ob die hypothetische Annahme zutrifft, dass der Homo Oeconomicus durch eine rationale, mit einem Chatbot geführte Interaktion zufriedengestellt wird und so eine höhere Preisbereitschaft zeigt. Im Kontrast dazu wird der Homo Sociologicus in den Fokus gestellt und die Annahme, dass dieser die emotionale, persönliche Kommunikation präferiert und dies förderlich für dessen Vertrauensbildung ist, welche sich in der geringeren Preissensibilität niederschlägt.

Neben dem Schlüsselbund und dem Geldbeutel darf heutzutage bei den meisten Deutschen ein weiterer alltäglicher Begleiter beim Verlassen des Hauses nicht fehlen: das Smartphone. 78% der Deutschen ab 14 Jahren nutzen ein Smartphone – etwa doppelt so viele wie noch vor 5 Jahren. Während die Telefonie sowie die Kamerafunktionen die Spitzenreiter unter den Anwendungen sind, nutzen 72% der Smartphone-Besitzer Kurznachrichtendienste (vgl. bitkom e.V. 2017a). Eine Entwicklung, die sich auch im allgemeinen Nutzungsverhalten des Internets wiederspiegelt: zwei von drei Internetnutzern (69%) verwenden Messenger Anwendungen wie WhatsApp oder den Facebook Messenger (vgl. bitkom e.V. 2016, o.S.).

Diese schnelle und kostengünstige Möglichkeit der Interaktion ist nicht nur in der privaten Kommunikation weit verbreitet, sondern findet auch bei den Unternehmen immer mehr Anklang. Neben dem klassischen Kundenservice, der über Messenger Dienste erreichbar ist, ergeben sich auch ganz neue Geschäftsmodelle auf Basis der Kommunikation via Messenger. Die niederländische Airline KLM ermöglicht ihren Kunden in neun verschiedenen Sprachen einen Service, der das gesamte Flugerlebnis begleitet: von der Zusendung der Flugunterlagen via Facebook Messenger über die Information zu Check-In Zeiten, bis hin zur Änderung von Sitzplätzen kann alles über den Facebook Messenger abgewickelt werden. Dabei ist KLM rund um die Uhr erreichbar und antwortet dank der Verwendung von künstlicher Intelligenz, und somit dem Verzicht auf den Einsatz von Servicemitarbeitern, unmittelbar (vgl. KLM 2017b, o.S.). Inzwischen wurde der Service auch auf die Messenger Dienste WhatsApp, WeChat und das Netzwerk Twitter ausgeweitet (vgl. KLM 2017a, o.S.). Auch im Bereich des E-Commerce wird die individuelle Kundenbetreuung und vor allem Kundenberatung immer relevanter. Viele Konsumenten vermissen beim Online-Shopping die persönliche Beratung (vgl. Reinhardt 2015, S. 52.). Der Online Shop Zalando bietet mit Zalon eine Stylingberatung an, die eine Brücke zwischen E-Commerce und persönlicher, menschlicher Beratung schlägt. Die Beratung soll dabei helfen, das perfekte Outfit für den individuellen Kunden zu finden. Dazu wird zunächst ein Fragebogen ausgefüllt und ein persönliches Telefonat mit einem der Stylisten geführt, welcher von dort an für die Modeberatung des Kunden zuständig ist. So soll das optimale Ergebnis erzielt und dem Kunden ein Outfit zugeschickt werden, welches bestmöglich zu seiner Persönlichkeit passt. Die weiteren Einkäufe, die womöglich getätigt werden, basieren dann auf der reinen Online-Kommunikation im Rahmen des Shopsystems (vgl. Zalon 2017, o.S.). Während Zalon auf Manpower und die Kenntnisse der Stylisten setzt, um den Kunden die Produkte von Zalando zu verkaufen, wählt das 2015 gegründete Start Up Chatshopper eine andere Basis für die Beratung: der auf künstlicher Intelligenz basierende Chatbot Emma tritt in eine von Algorithmen gesteuerte Interaktion mit dem Kunden und verwendet gesammelte Daten, um das bestmögliche Resultat zu erzielen. (vgl. Gründerszene 2017, o.S.) Neben den fachlichen und in diesem Falle auch modischen Kenntnissen, die beide Anbieter dem Kunden entgegenbringen müssen, bedarf es seitens des Kunden primär die Bereitschaft, seine persönlichen Wünsche und Vorstellung einer fremden Person oder gar einem Roboter mitzuteilen und auf dessen Kenntnisse und Fähigkeiten in der Erfüllung persönlicher Vorstellungen zu vertrauen.  Ob dieses Vertrauen bei einer Interaktion mit einem von künstlicher Intelligenz gesteuerten Roboter aufgebaut werden kann und zu einem Kauf führen kann, ist Gegenstand dieser Arbeit. Da bisher keine Studien vorliegen, die auf die Möglichkeiten der künstlichen Intelligenz in der Kundenkommunikation mittels eines sprachlichen Codes eingehen und die Auswirkungen der Interaktion auf die Beziehung zwischen den Akteuren und die Preisbereitschaft des Konsumenten eingehen, obliegt es dieser Arbeit, diese Forschungslücke zu schließen. Die sich ergebende Forschungsfrage lautet: Inwieweit können virtuelle Interaktionen in von Algorithmen gesteuerten sozialen Medien die Marken-Konsumenten-Beziehung und damit das Kaufverhalten beeinflussen?

Die bisherigen Forschungen zur grundsätzlichen Akzeptanz von Chatbots in der Interaktion von Kunden und Unternehmen sind bislang noch stark konträr. Eine Studie von Fittkau & Maaß Consulting zeigt, dass Konsumenten die Beratung durch einen Chatbot bislang tendenziell eher ablehnen, während die Aktivitäten der Airline KLM (vgl. KLM 2017c) sowie eine YouGov Studie aus 2017 nachwies, dass die Befragten durchaus zur Nutzung von Chatbots bereit sind.

Holzwarth et al. untersuchten bereits im Jahr 2006 die Auswirkungen von Avataren auf das Kaufverhalten. Dabei wurde ein positiver Einfluss auf die Zufriedenheit, die Einstellung zum Produkt sowie Unterhaltungs- und Informationswerte der Websites erkannt, die sich schließlich im Kaufverhalten wiederspiegelten. Jedoch wurden die Avatare in Form von gezeichneten Menschen, ähnlich wie Comic Figuren, dargestellt und visuell präsentiert. So lag der Fokus der Untersuchung primär auf den Auswirkungen der Attraktivität der Avatare oder dem Expertenwissen, weniger auf der Beziehung zwischen Konsument und Avatar sowie der Wirkung der sprachlichen Kommunikation. Aufgrund der ständig weiter voranschreitenden Entwicklung der Chatbots und den sich dadurch erweiternden Fähigkeiten ist es notwendig, die Entwicklung der Akzeptanz in Relation zu den Weiterentwicklungen zu beobachten. Dabei ist es Ziel dieser Arbeit zu erfahren, ob die Interaktion mit dem vom Algorithmus gesteuerten Chatbot Auswirkungen auf die Marken-Konsumenten-Beziehung hat, oder ob der Kunde keinen Transfer der Interaktionserfahrung auf die Marke vornimmt. Eine Untersuchung, welche dieser Fragestellung nachgeht, liegt bislang nicht vor. Der Fachartikel untersucht zunächst das Unternehmen als Beziehungspartner und stellt anschließend die Möglichkeiten sowie Vor- und Nachteile eines Chatbots vor. Um die Möglichkeiten der Verwendung von Chatbots zu verstehen, wird nach dessen Einführung auf die Interaktion eingegangen. Getrieben von der Frage, wie es Unternehmen möglich sein kann, jeden Kunden möglichst zielgerichtet anzusprechen, werden verschiedene Ansätze zur Strukturierung der Gesellschaft und zum Verständnis des Konsumenten vorgestellt. Sind die beiden Beziehungspartner beleuchtet, so wird auf die Beziehung zwischen diesen genauer eingegangen. Dabei wird sich an der aus dem beziehungsorientierten Marketing stammenden Erfolgskette orientiert, um den Verlauf einer Beziehung zwischen Unternehmen und Konsument anhand der notwendigen Aufwendungen und deren Wirkungen, sowohl psychologisch als auch verhaltensbezogen, bis hin zum Resultat für das Unternehmen, zu untersuchen. Mittels einer Online-Umfrage wird versucht, die Forschungslücke zu schließen und die zugrundeliegende Forschungsfrage zu beantworten.

Die Beziehung zwischen Unternehmen und Konsument

Unternehmen sind in die Umwelt eingebundene Akteure, welche viele Anspruchsgruppen bedienen müssen und zeitlich dem ständig wachsenden Wettbewerbsdruck standhalten müssen, um den Konsumenten zu erreichen (vgl. Kroeber-Riel/Esch 2015, S. 18f.). Diese konträre Entwicklung von steigendem Werbedruck sowie einem stetig wachsenden Angebot und der endlichen Aufnahmekapazität der Konsumenten fordert von den Unternehmen ein Umdenken, um sich als charakterstarker Beziehungspartner der Konsumenten zu positionieren (vgl. Fournier 1998, S. 343). Als Basis für eine Beziehung dienen wiederkehrende Interaktionen, welche sich durch ein hohes Maß in Subjektivität auszeichnen (vgl. Asendorpf/Banse 2000, S.4) Kognitive Bindungsmotive, also psychologisch begründete, emotionale Anlässe sowie affektive Motive begründen die Eröffnung und Erhaltung einer Beziehung aus Sicht des Kunden (vgl. Eggert 2000, S. 122). Fournier erkannte, dass Konsumenten ihre Markenwahl nicht aus rein rationalen Gründen treffen, sondern eine Identifikation mit der Marke und der durch diese verkörperte Lebenswelt notwendig ist (vgl. Fournier 1998, S. 367). So konstruieren Marken für den Konsumenten einen symbolischen Nutzen, wie beispielsweise die Gruppenzugehörigkeit oder die soziale Anerkennung, um affektive Bindungsmotive zu schaffen (vgl. Burmann/Meffert 2005, S. 55). Konative Bindungsmotive hingegen können finanzielle Anreize sowie verschiedene Ausprägungen der Gebundenheit sein und basieren somit auf dem rein funktionalen Nutzen der Marke. Die Unternehmenskommunikation sowie das Relationship Marketing sind geeignete Möglichkeiten, die Konsumenten zu erreichen, ihr Wissen zu beeinflussen und an das Unternehmen zu binden (vgl. Zerfaß 2014, S. 28). Die Unternehmenskommunikation sowie das Relationship Marketing bieten Möglichkeiten, die Interaktionen mit den Kunden zu gestalten, welche auf Basis von umfassenden Analysen ausgewählt werden. Schnell, persönlich und individuell – die Traumvorstellung einer jeden Marken-Konsumenten-Beziehung, die für das Unternehmen einen hohen Ressourcenaufwand bedeuten. Doch durch die Digitalisierung bilden sich nicht nur die Ansprüche der Kunden stetig weiter aus, sondern auch die Möglichkeiten der Unternehmen, wie die Implementierung von Chatbots. Hinter dem Begriff Chatbot, welcher eine Abkürzung von „chat robot“ darstellt, verbirgt sich ein Dialogsystem, welches basierend auf Algorithmen auf textuelle oder auditive Anfragen von Nutzern reagiert (vgl. Bendel 2016, S. 28). Während einfachere Chatbots nur auf vorgegebene Befehle oder Muster reagieren, verfügen andere über künstliche Intelligenz und nutzen so maschinelles Lernen. Diese lernenden Bots erweitern mit jeder Interaktion ihren Sprachschatz sowie ihr Wissen und können so immer komplexer werdende Konversationen führen (vgl. Tröger 2017, o.S.). 1966 wurde erstmals mit ELIZA am Massachusetts Institute of Technology eine natürliche Mensch-Maschine-Kommunikation über geschriebene Sprache im Rahmen einer Psychotherapie ermöglicht (vgl. Weizenbaum 1966, S. 39.). Was damals noch eine außergewöhnliche Dialogform war, ist heute schon massentauglich. Im E-Commerce finden Chatbots heute ihre Anwendung und bieten dort eine schnelle Kontaktoption zu dem Anbieter, um Fragen zu Produkten und Dienstleistungen zu beantworten. Sie treten häufig in Kombination mit Avataren auf. Insbesondere über Facebook binden Unternehmen Chatbots ein. Der Nutzer muss daher nicht mehr die Website des Unternehmens oder des Online-Shops aufrufen, sondern kann direkt den Facebook Messenger nutzen. Ein Chatbot bietet das Maximum an Einfachheit für den Kunden und ermöglicht einen ständig verfügbaren Kundenservice ohne Wartezeiten, schlecht gelaunte Mitarbeiter und garantiert eine kurze Reaktionszeit (vgl. Jehmlich 2017, o.S.). Dies wirkt sich positiv auf die Interaktion und das vom Nutzer empfundene Markenerlebnis aus und erhöht die Wechselbarrieren (vgl. Esch/Kiss 2006, S. 100f.). Für Unternehmen bietet sich zudem der Vorteil der Skalierbarkeit und die bessere Erreichbarkeit der Nutzer, welche sonst den Newsletter im Spam übersieht oder direkt löscht. Der Chat erscheint in der Regel direkt auf dem privaten Lockscreen und erlangt so eine erhöhte Aufmerksamkeit (vgl. Tantau 2017, S. 72ff.). Wie eine Studie von Holzwarth et al. zeigte, wirkt sich der vermeintlich persönliche Kontakt zwischen Marke (Chatbot) und dem Konsumenten positiv auf die Glaubwürdigkeit der Marke und der von ihr übermittelten Informationen sowie auf das Nutzenempfinden des Kunden aus. Dieses Zusammenspiel der positiven Auswirkungen auf Glaubwürdigkeit und Nutzenempfinden schlägt sich letzten Endes auf die Zufriedenheit des Kunden und schlussfolgernd auf dessen Kaufbereitschaft nieder (vgl. Holzwarth et al. 2006, S. 25f.).

Interaktionen zur Etablierung einer Beziehung

Die Eröffnung einer Interaktion stellt den ersten Schritt einer Konsumenten-Marken-Beziehung dar. Eine Interaktion liegt per Definition dann vor, wenn zwei oder mehr Personen ein aufeinander bezogenes Handeln an den Tag legen und so eine Wechselbeziehung zwischen den Interagierenden entsteht (vgl. Duden o.J.). Während Hillmann eine Interaktion dann erkennt, wenn einer der Akteure sich an den Erwartungen und Einschätzungen – egal ob positiv oder negativ – orientiert und somit nicht nur das sofort erkenntliche Handeln mit einbezieht und darauf reagiert (vgl. Hillmann 1994, S. 381f.), setzt Homans die Auslösung einer Aktivität beim Gesprächspartner voraus. Somit wird im Rahmen der Austauschtheorie von einem Tausch von materiellen und nicht-materiellen Gütern, wie Anerkennung, gesprochen (vgl. Homans 1958, S.597ff.). Als soziale Interaktion wird eine Interaktion dann verstanden, wenn das Verhalten von mindestens zwei Menschen voneinander abhängig ist und aufeinander reagiert (vgl. Asendorpf/Banse 2000, S. 3). Aus einer Folge von Interaktionen, die in einem inhaltlichen Bezug zueinanderstehen und somit zukünftiges Verhalten vorhersagbar machen, ergibt sich eine Beziehung (vgl. Bruhn/Eichen 2007, S. 226).

Von der parasozialen zur pseudo-sozialen Beziehung

Die Voraussetzung der gegenseitigen Reaktion aufeinander erfüllt die Interaktion im Umgang mit Medien nicht immer: während ein Rezipient Fernsehen schaut und auf eine Medienperson (Persona) reagiert, scheint er eine Interaktion einzugehen. Die Persona hingegen nimmt diese Reaktion nicht wahr und kann dementsprechend nicht darauf reagieren – es entsteht eine Illusion eines Gesprächs oder eines Austausches (vgl. Horton/Wohl 1956, S. 215). Durch diese Interaktionen, die den Rezipienten zu einer Reaktion verleiten, welche aber durch die mangelnden Rückkanäle der Massenmedien, nicht die Persona erreicht, entsteht eine parasoziale Interaktion (vgl. ebd.). Wie Erkenntnisse der Markenkommunikation zeigen, schreiben Menschen Marken Eigenschaften zu und bauen anhand dieser eine Beziehung zu ihnen auf. Die Animismustheorie untermauert diese Annahme (vgl. Fournier 1998, S. 344f.). Studien zeigen, dass der bewusste Einsatz von Subjekten wie Testimonials, zu denen eine parasoziale Beziehung aufgebaut werden kann, Einfluss auf die Einstellung gegenüber der Marke und der Kaufabsicht hat. Je attraktiver und sympathischer ein Subjekt wahrgenommen wird, desto positiver wirkt sich dies auf die Beziehung aus (vgl. Knoll/Schramm/Schallhorn/Wynistorf 2015). Transferiert man diese Erkenntnis auf die Markenkommunikation, so ist davon auszugehen, dass eine emotional geprägte Kommunikation positiv zur Marken-Konsumenten-Beziehung beiträgt. Da die parasoziale Beziehung sich jedoch nur auf die unidirektionale Art der Kommunikation bezieht, scheint diese Definition in Zeiten sozialer Medien nicht mehr ausreichend. Der Chatbot bietet die reale Möglichkeit zur Interaktion, welcher aufgrund seiner Fähigkeiten und seines Verhaltens vorgibt, eine natürliche Beratung zu sein, die einem Menschen gleichkommt. Die Interaktion scheint sozial zu sein, da sich die Partner in der Interaktion aufeinander beziehen, jedoch gibt der Chatbot nur vor, ein realer Interaktionspartner zu sein. Da er tatsächlich nur ein rein technisches Objekt ist, welches aufgrund seiner Programmierung variabel reagiert und interagiert, scheint es angebracht, die Interaktion zwischen einem Chatbot und einem Menschen als pseudo-soziale Interaktion zu beschreiben. Je intensiver die Interaktion zwischen dem Kunden und der Marke ist, desto förderlicher ist dies für den Aufbau der Beziehung zwischen den beiden Partnern. Diese erhöhte Interaktionsdichte bestärkt zudem das Vertrauen ineinander (vgl. Burmann/Meffert 2005, S. 65ff.).

Der Konsument – Resultat des Kollektivs oder Individuum?

Im Rahmen des Kollektivismus, welchem auch Pierre Bourdieu zuzuordnen ist, wird die Annahme vertreten, dass nicht der Einzelne als freier Akteur die Gesellschaft mitgestaltet und prägt, sondern von dieser geprägt wird und aufgrund des ihn umgebenden sozialen Raums vorbestimmte Verhaltensmuster aufweist (vgl. Bourdieu 1976, S. 165.). Mittels seiner Positionierung in den einzelnen Feldern kämpft der Einzelne um Ansehen und Distinktionen, um so seinen individuellen Marktwert zu schaffen.  Zur Erreichung dieses Ziels stehen dem Akteur als Handlungsressourcen das ökonomische, das soziale sowie das kulturelle Kapital zur Verfügung, welche sich zum symbolischen Kapital verdichten und eine soziale Funktion tragen. Der von den Kapitalien geprägte Lebensstil des Einzelnen wird von Bourdieu als Habitus bezeichnet und beschreibt neben dem offensichtlichen Verhalten auch die Einstellungen sowie den Geschmack (vgl. Bourdieu 2014, S. 278.). Insbesondere durch die ästhetischen Werturteile grenzt der Habitus Gruppen durch Stilisierung voneinander ab. Er bringt Praktiken hervor, beispielsweise des Konsums oder des Tragens von Kleidung, und drückt sich somit in symbolischen Handlungen aus, welche den Einzelne in der gesellschaftlichen Matrix, den Feldern, positioniert. Der Mensch ist, so Bourdieu, ein Gemeinschaftswesen und nicht individualistisch geprägt. In den Ansätzen von Linton (vgl. Linton 1973, S. 311f.) und Parsons (vgl. Vgl. Parsons 1937, S. 11) wird die Übernahme von gesellschaftlich Auferlegten Erwartungen als Rolle verstanden, welche durch die soziale Ordnung gelenkt wird. Mead versteht die Übernahme von Rollen als ein Spiel (vgl. Mead 1973, S. 216ff.) und schreibt den Menschen die Fähigkeit des role-takings zu, also der bewussten Einnahme der Rolle, insbesondere der Perspektive, des Gegenübers. Dieses Konzept ist vor allem für den Chatbot und dessen zugrundeliegenden künstlichen Intelligenz von Bedeutung. Dieser kann somit die Einstellungen des Anderen internalisieren und sich somit so verhalten, wie es für die Interaktion am förderlichsten ist. Das role-taking ermöglicht es dem Akteur, sich auf den Interaktionspartner einzustellen (vgl. Mead 1973, S. 254). Dieser von der Gesellschaft geprägte Akteur wird als Homo Sociologicus verstanden, welcher der Träger von sozial vorgeformten Rollen ist (vgl. Dahrendorf 2006, S. 24.). Entgegen diesen von der Gesellschaft und ihren Normen und Werten getriebenen Rollenträgern steht der Handlungstypus des Homo Oeconomicus. Der Konsument wurde aus dem Blickwinkel der Ökonomie viele Jahrzehnte immer nur als rein rationales Wesen angesehen, welches unabhängig von seinen sozialen Beziehungen und seiner Position in der Gesellschaft agiert. Dieses Menschenbild des Homo Oeconomicus sieht den Einzelnen als ein wirtschaftlich denkendes und handelndes Wesen, welcher lediglich die eigene materielle Nutzenmaximierung fokussiert. Entscheidungen werden rein rational getroffen und ohne Einbeziehung von emotionalen Komponenten oder Rücksicht auf Werte und Normen gefällt (vgl. Kron/Winter 2009, S. 45). Eine Bindung zu einer Marke aufzubauen liegt einem Homo Oeconomicus fern, denn er wägt vor einer Kaufentscheidung stets neu ab und entscheidet nicht aufgrund seiner Erfahrungen, sondern aufgrund des aktuell gegebenen Kosten-Nutzen-Verhältnisses. Dem schließt sich die Individualisierungsthese von Beck an, welche ihren Ursprung in dem stetigen Zuwachs an Wohlstand, Bildung und Freizeit in der reflexiven Moderne um 1960 fand (vgl. Schimank 2012, o.S.). Während fremd- und gottbestimmte Lebensweisen im Zuge einer Endtraditionalisierung wegfallen, gewinnen Routinen des direkten Miteinanders an Bedeutung. Das Individuum muss sich und seine Handlungen reflektieren, da es für seine Biographie, entgegen der Annahme des Habitus, nun selbst verantwortlich ist. Für Beck ist dies die neugewonnene Zwangsfreiheit: Entscheidungen müssen in Eigenverantwortung getroffen werden, ohne die Hilfe Gottes und die Einrahmung durch das Soziale, sondern lediglich mit Hilfe der eigenen Vernunft. Diese ständige Auswahl der Möglichkeiten, losgelöst von jeglichen sozialen Strukturen, macht den Menschen zum Homo Optionis (vgl. Beck/Beck-Gernsheim 1994, S. 13ff.) Gerhard Schulze betrachtet im Rahmen seiner empirisch-mikrosoziologischen Untersuchung die Auflösung von Traditionen und gesellschaftlichen Verpflichtungen als Anstoß hin zur Erlebnisorientierung des Einzelnen, um einen schönen, genussvollen Gegenpol zu dem auferlegten Zwang zur Entscheidung zu bilden. Die Menschen streben immer weiter danach, ihr Leben mittels schönen Erlebnissen zu verschönern und somit durch äußere Einflüsse die inneren Konflikte, welche die Individualisierung ihnen auferlegt, zu kompensieren (vgl. Copray 1993, S.3). Überträgt man diese Erkenntnisse auf die Unternehmenskommunikation, so wird schnell deutlich, dass der Konsument nicht mit reinen Produktinformationen zum treuen Kunden wird. „Konsumenten wollen heutzutage unterhalten, stimuliert, emotional berührt und kreativ herausgefordert werden“ (Bauer/Heinrich/Samak 2012, S.4). Die Interaktion kann zur positiveren Wahrnehmung einer Marke beitragen und (Werbe-) Botschaften einprägsamer und somit langlebiger vermitteln (vgl. Bauer/Heinrich/Samak 2012, S. 5).

Das Konzept der Erfolgskette

Die Erfolgskette als ein Konzept aus dem beziehungsorientierten Marketing bietet die Möglichkeit, die Wirkweisen der Unternehmensaktivitäten auf den Konsumenten zu strukturieren und zu erfassen. Dabei gibt die Beziehungsqualität als beziehungsbezogene und psychologische Dimension Auskunft darüber, inwieweit das Unternehmen fähig ist, die Beziehung zum Konsumenten dessen Vorstellungen und Anforderungen entsprechend zu gestalten (vgl. Hadwich 2003, S. 22). Die Beziehungsqualität setzt sich aus Dimensionen wie Vertrauen, Vertrautheit, Kundenzufriedenheit und dem wahrgenommenen Wert zusammen. Die Entwicklung dieser Dimensionen wirkt sich auf die Gesamtbeurteilung der Beziehung durch den Konsumenten gegenüber dem Unternehmen und dessen Akteuren aus, welche wiederum die Verhaltenswirkungen der Konsumenten beeinflusst (vgl Bruhn 2016b, S. 92ff.).

Ein ähnliches Konzept wie das der Beziehungsqualität, allerdings aus einer pragmatischen Perspektive, zieht auch der Philosoph Robert Brandom heran, um die Beziehung zwischen zwei Akteuren erklären zu können. Das voluntative Einhalten von Regeln, welche dem Akteur durch Normen und Werte vermittelt wurden, bezeichnet er als den normativen Status, welcher dazu beiträgt, die soziale Ordnung des Kollektivs aufrecht zu erhalten (vgl. Brandom 2000, S. 99ff.) Alle Interaktionen und Austauschprozesse zwischen Akteuren wirken sich auf das deontische Konto aus. Dieses führen die Akteure innerhalb einer Beziehung und verwalten dieses aufgrund kommunikativer Handlungen. Sprechakte wirken sich dabei nicht nur auf den deontischen Status der sozialen Beziehung der beiden Akteure aus, sondern auch auf den normativen Status des Einzelnen (vgl. ebd., S. 818.). Der Kontostand ist zugleich für die gemeinsame Zukunft entscheidend, denn ist das Konto nicht positiv gefüllt, so fehlt es an Vertrauen und minimiert somit den Handlungsspielraum (vgl. ebd., S. 274).

Bei Unternehmen werden die Handlungen und insbesondere die kommunikativen Maßnahmen, die seitens der Unternehmenskommunikation ergriffen werden, als normative Einstellungen erfasst. Durch die normativen Einstellungen können Mitglieder einer Gruppe oder Unternehmen untereinander verbunden werden (vgl. ebd., S. 75), sodass diese sich der Marke oder dem Unternehmen zuwenden und eine In-Group entsteht (vgl. Tajfel/Turner 1986, S. 9). Die normative Einstellung des Konsumenten kann als Basis dieser mentalen und emotionalen Vorleistung folglich mit dem Image sowie daraus resultierend der Reputation eines Unternehmens gleichgesetzt werden.

Empirische Überprüfung

Durch diese Kenntnisse lassen sich zwei Argumentationspfade bilden, welche sich zunächst in der Klassifizierung eines Homo Oeconomicus sowie eines Homo Sociologicus unterscheiden. Der erste Pfad beruht auf der Annahme, dass der Mensch ein Homo Oeconomicus ist und eine ökonomisch bestmögliche Lösung präferiert. Er würde somit einen Chatbot, der lediglich auf Fakten basiert und rein rational agiert, bevorzugen. Folglich präferiert dieser Homo Oeconomicus eine sachliche Kommunikation mit einem Unternehmen oder einer Marke. Dies steigert seine Zufriedenheit und führt im letzten Schritt zu einer stärkeren Zahlungsbereitschaft aufgrund eines Kosten-Nutzen-Vergleiches. Eine auf Emotionen basierende Interaktion würde ihn nicht im gleichen Maße zufriedenstellen und somit eine geringere Zahlungsbereitschaft hervorbringen. Im Gegenzug dazu würde ein Homo Sociologicus die Interaktion mit einem Menschen bevorzugen und die persönliche Kommunikation mit einem realen Mitarbeiter des Unternehmens der Konversation mit einem Chatbot vorziehen. Diese persönliche und emotionale Kommunikation führt beim Homo Sociologicus zu Vertrauen gegenüber dem Unternehmen und beeinflusst die Preistoleranz.

Aus diesen Argumentationspfaden resultieren vier Hypothesen:

Hypothese 1:      Emotionale Menschen möchten mit einem Menschen kommunizieren,

rationale Menschen bevorzugen die Kommunikation mit einem Chatbot.

Hypothese 2:      Emotionale Menschen bevorzugen eine persönliche Kommunikation,

rationale Menschen bevorzugen eine sachliche Kommunikation.

Hypothese 3:      Eine persönliche Kommunikation fördert das Vertrauen,

durch eine sachliche Kommunikation entsteht Zufriedenheit.

Hypothese 4:      Je größer das Vertrauen, desto größer ist die Preistoleranz.

Je höher die Zufriedenheit, desto größer ist die Preistoleranz.

 

Die Online-Befragung haben im Zeitraum vom 17.10.2017 bis zum 25.10.2017 180 Personen vollständig beantwortet. Dabei waren 57 der Teilnehmer männlich (31,7%) und 123 (68,3%) weiblich. Neben der Abfrage über 5 Items zur Zugehörigkeit zu einem der vorgestellten Handlungstypen sowie demographischen Angaben wurde zudem das Online Kaufverhalten abgefragt. Mittels vier beispielhafter Interaktionszenarien wurde überprüft, welche Wirkung eine sachliche oder emotionale Kommunikation sowie die Interaktion mit einem Menschen oder einem Chatbot auf die Befragten hat. Dies wurde mittels 5 Items abgefragt, welche nach jedem Szenario beantwortet werden mussten. Zudem wurde die Preisbereitschaft erfragt.

Die Zugehörigkeit zu einem Handlungstypus des Homo Oeconomicus konnte nur bei 8 Personen erkannt werden, sodass die Überprüfung der Hypothesen lediglich für den Homo Sociologicus repräsentativ ist. Die Hypothese, dass affektive Menschen eine Konversation mit einem Menschen der Konversation mit einem Chatbot bevorzugen, konnte verifiziert werden, da die durchschnittliche Bewertung durch emotionale Menschen bei Interaktionen mit Menschen positiver war (2,2297) als bei der mit einem Chatbot (2,6826). Im Kontrast dazu stand im Umkehrschluss die Hypothese, dass kognitiv agierende Menschen hingegen die Konversation mit einem Chatbot bevorzugen. Diese beruht auf der Annahme, dass der Homo Oeconomicus rationale Ergebnisse möchte, also Resultate und Services, die das beste Kosten-Nutzen-Verhältnis hervorbringen. Die acht Personen, die im Rahmen der durchgeführten Online-Umfrage als Homo Oeconomicus eingestuft werden konnten, falsifizieren diese Hypothese jedoch. Auch sie bewerten die Interaktionen mit dem Menschen besser (M = 2,625) als die mit dem Chatbot (M = 3,15). Es sei jedoch an dieser Stelle angemerkt, dass die Hypothese mit einer größeren Grundgesamtheit an rational agierenden Menschen erneut überprüft werden sollte, da n=8 für diesen Zweck als nicht ausreichend repräsentativ gewertet werden. Mit Blick auf die Grundgesamtheit wurde jedoch deutlich, dass insbesondere Befragte der Altersgruppe 46-54 und darüber hinaus die Interaktionen mit einem Menschen besser bewerteten. Bei den jüngeren Teilnehmern hingegen war keine Tendenz zu der Präferenz einer Interaktion mit dem Algorithmus oder einem Mitarbeiter zu erkennen.

Auch bei H2 zeichnet sich ein ähnliches Ergebnis wie bei H1 ab: die Hypothese konnte mit Blick auf die affektiven Menschen bestätigt werden, während die Aussage über rationale Menschen nicht bestätigt wurde. So beurteilten emotionale Menschen die persönliche Kommunikation im Schnitt um 0,5 Einheiten besser (M = 2,1163), als die sachliche Kommunikation (M = 2,6826). Die acht weiteren Personen bevorzugten entgegen der hypothetischen Annahme ebenfalls die persönliche Kommunikation (M = 2,725) gegenüber der sachlichen (M = 3,15). Jedoch muss darauf hingewiesen werden, dass die Standardabweichung bei der persönlichen Interaktion bei 1,01524 liegt, während diese bei der sachlichen Konversation nur bei 0,54772 liegt. Die Spanne der Bewertung einer persönlichen Interaktion innerhalb dieser Gesamtheit ist somit sehr groß und weist starke Unterschiede auf.

Korrelationen zeigen, dass Menschen, die eine Konversation mit einem Chatbot präferieren, auch die sachliche Interaktion bevorzugen. Menschen die hingegen lieber mit einem Menschen interagieren, bevorzugen tendenziell eher eine persönliche Kommunikation. So kann die Kausalität angenommen werden, dass emotionale Menschen eine persönliche Kommunikation bevorzugen und auch bevorzugt mit einem Menschen kommunizieren. Eine Kommunikation mit einem Menschen sollte daher stets persönlich sein. Die Interaktion mit einem Chatbot wird ebenfalls besser bewertet, wenn sie persönlich gestaltet wird. Menschen, die jedoch grundsätzlich eine Interaktion mit einem Chatbot präferieren, beurteilten zudem auch die sachlichen Szenarien positiver. Die dritte Hypothese hingegen, dass eine sachliche Kommunikation die Zufriedenheit fördert, konnte nicht bestätigt werden. Der konträre Teil der dritten Hypothese besagt, dass die emotionale Kommunikation zur Entstehung von Vertrauen beiträgt. Diese konnte hingegen anhand der Mittelwerte sowie dem gruppierten Median der Interaktionsbeispiele einer persönlichen Kommunikation verifiziert werden. Sowohl bei der Interaktion mit einem Chatbot, als auch mit einem Menschen, waren die Werte im zustimmenden Bereich (M = 2,57 und M = 2,24). Erfolgt eine Konversation auf persönlicher Ebene mit einem Algorithmus, so ist das Vertrauen im gleichen Maße existent wie bei einer sachlichen Kommunikation mit einem Menschen. In beiden Kommunikationsstilen wird das Vertrauen in einer Konversation mit dem Chatbot jedoch schlechter bewertet, als die mit einem Menschen. Das Vertrauen ist insgesamt also stärker ausgeprägt, wenn die Interaktion mit einem realen Menschen erfolgt. Grundsätzlich sei jedoch angemerkt, dass die Marke zuvor unbekannt war und keinerlei Erfahrungen bestehen. Die Befragten gaben jedoch an, dass sie der Marke vertrauen. Dies bestätigt zudem die Annahme, dass Vertrauen durch Interaktion entsteht, da dies in der durchgeführten Befragung die einzig verfügbare Information über das Unternehmen war. Die Korrelation zwischen dem Vertrauen und der Preisbereitschaft war bei allen Szenarien signifikanter als die zwischen der Zufriedenheit und der Preisbereitschaft. Bei der separaten Betrachtung des Homo Oeconomicus bei einer sachlichen Interaktion mit einem Menschen konnte eine signifikante negative Korrelation zwischen der Zufriedenheit des Befragten und seiner Preisbereitschaft erkannt werden. Je höher die Zufriedenheit des Homo Oeconomicus’ ist, desto höher ist ebenfalls seine Preisbereitschaft. Dies bestätigt die Annahme, dass der kognitiv geprägte Akteur primär den Nutzen bewertet, welcher sich im Zufriedenheitsempfinden äußert. Emotionale Erfahrungen würden auf eine Beziehung hindeuten, welche mit der Annahme von Vertrauen einhergeht. Zudem zeigte sich, dass je persönlicher die Kommunikation ist, desto größer ist die Preisbereitschaft. Eine persönliche Interaktion steigert nicht nur die Glaubwürdigkeit, sondern beeinflusst auch das Nutzenempfinden des Konsumenten. Dies konnte auch im Rahmen der durchgeführten Online-Befragung bestätigt werden. Die Beratung wurde besser bewertet sowie als hilfreicher empfunden, wenn die Interaktion persönlich gestaltet wurde, obwohl die vermittelten Inhalte und Informationen keine Unterschiede aufwiesen. Dieses Ergebnis unterstützt zudem die Ansprüche, die das Relationship Marketing an die Kundenkommunikation stellt. So bestätigten die Befragten, dass ihre Bedürfnisse und Anforderungen im Rahmen einer persönlichen Kommunikation besser beantwortet wurden, als auf sachlicher Ebene. Durch eine persönliche Kommunikation können zudem Wechselbarrieren geschaffen werden, die den Kunden auf einer freiwilligen Basis an das Unternehmen oder die Marke binden. Zudem scheint die Animismustheorie zu greifen. Indem der Algorithmus, also ein rein technisches Objekt, vermenschlicht wird, kann eine Beziehung eröffnet werden. Diese Vermenschlichung erfolgt im Falle eines Chatbots nicht durch die Zuschreibung von Eigenschaften oder durch die Abbildung einer Gestalt, sondern sie äußert sich vielmehr im Laufe der Interaktion und somit auch erst im weiteren Verlauf der Beziehung. Insgesamt wurde keiner der vier gezeigten Gesprächsverläufe negativ bewertet. Alle vier Gespräche wiesen eine 1:1 Philosophie auf, was zunächst anhand der Form der Interaktion in einem Chat, welcher grundsätzlich nur zwischen einem Kunden und dem Unternehmen erfolgt, basiert. Alternative Kundenservices wie Foren oder reine Informationswebsites würden dem Anspruch der 1:1 Philosophie, welche einen hohen Stellenwert für das Relationship Marketing hat, nicht gerecht werden. Da im Rahmen der Arbeit eine fiktive Marke geschaffen wurde, konnten die Befragten auf keine Erfahrungen mit dieser Marke und ihr dadurch entstandenes Image oder die Reputation der Marke zurückgreifen, um die Leistung zu bewerten. Ein Vergleich mit anderen Chatverläufen, welche der Befragte selber erlebt hat, kann jedoch nicht ausgeschlossen werden. Versteht man die Online-Umfrage als Verlauf der Marken-Konsumenten-Beziehung, so kann eine abfallende Tendenz der Bewertung der ersten beiden Items erkannt werden, welche die Beratung und damit verbundene Hilfestellung durch die Marke beurteilen. Dabei werden die persönlichen sowie die sachlichen Interaktionen getrennt betrachtet. Während die Differenz der Bewertungen beider persönlicher Interaktionen noch sehr gering ist, findet bei der sachlichen Interaktion ein deutlicher Rückschlag in der Bewertung statt. Dabei liefern alle Interaktionen im gleichen Maße die geforderten und notwendigen Informationen. Es scheint, als würden die Befragten die erste persönliche Interaktion, also den ersten Kontakt mit der Marke, für die weiteren Konversationen als Maßstab nehmen und die Gesprächsverläufe mit diesem vergleichen. Sie ziehen die erste Interaktion als Soll-Leistung, also den Vergleichsstandard heran um die tatsächlich erfahrene Leistung, die Ist-Leistung, in Form der weiteren Interaktionen an ersterer zu bemessen. Haben die Befragten einmal gesehen, welcher Service geboten werden kann, so wird sich an diesem orientiert. Diese Beobachtung lässt sich auch anhand der abnehmenden Preisbereitschaft im Verlauf der Befragung weiter feststellen.

Fazit und Ausblick

Die Untersuchung hat gezeigt, dass der Einsatz von Chatbots ein geeignetes Mittel darstellt, um mit den Konsumenten in Interaktion zu treten. Die Interaktion via Chats offeriert dem Kunden die Möglichkeit, den Kundenservice unproblematisch und über seine bekannten Kommunikationskanäle zu erreichen. Die Ergebnisse machen deutlich, dass nach einer persönlich gestalteten Interaktion der ökonomische Output für das Unternehmen am größten ist. Diese Beobachtungen knüpfen an die Erkenntnisse von Gerhard Schulz und dessen Konzept der Erlebnisgesellschaft an. Den Konsumenten ist es wichtig, neben den reinen Informationen ein positives Umfeld zu erfahren und im Rahmen einer persönlichen Ansprache die Marke und ihre Leistungen zu erfahren. Die rein rationale Ansprache, die dem Kunden zwar dieselben Informationen bietet, erfüllt dessen Ansprüche jedoch nicht im gleichen Maße.

Das Unternehmen bietet mit der Bereitstellung eines Chats die Basis für den Beziehungsaufbau, welcher jedoch durch den Kunden aktiv angestoßen wird. Für die Unternehmen bringt die Implementierung eines Chatbots somit eine Vielzahl an Vorteilen mit sich. Die endlose Skalierbarkeit nach einmaliger Entwicklung und aufgrund des maschinellen Lernens ständige Weiterentwicklung des Chatbots stellt ein für die Entscheidungsträger zentrales Argument dar. Trotz der Verwendung von Algorithmen ist es möglich, jeden Kunden individuell und persönlich zu betreuen und aufgrund des role-takings eine individuelle Ansprache zu garantieren. Zudem ist keine Abnutzung zu befürchten, die eine Inkonsistenz des Kundenservice bewirken kann. Der Chatbot ist zu jeder Zeit verfügbar und liefert stets Informationen in gleicher Qualität. Dies ist ein besonderer Mehrwert für den Kunden, welcher grundsätzlich einen persönlichen Kontakt mit dem Unternehmen positiv wahrnimmt. Wird der Chatbot zudem so programmiert, dass er dem menschlichen Verhalten nahekommt und eine emotionale Interaktion ermöglicht wird, steigert dies die Zufriedenheit sowie folglich die Preistoleranz. Diese Erkenntnisse zeigen, dass die Verwendung von durch Algorithmen gesteuerten sozialen Medien, im untersuchten Fall der Einsatz von Chatbots, einen positiven Einfluss auf die Marken-Konsumenten-Beziehung haben kann. Die Umfrage hat gezeigt, dass sich diese durch eine positive Wahrnehmung, Zufriedenheit sowie Vertrauen der Konsumenten eröffnet, wenn eine persönliche Beratung erfolgt, die im Idealfall auch noch emotional und persönlich gestaltet wird. Wird diese Beziehung eröffnet, da aufgrund der fiktiven Markenschaffung zuvor keine Beziehung möglich war, so wirkt sich die positive Ausgestaltung dieser auch auf die Preisbereitschaft der Befragten auf. Die zu Beginn formulierte Forschungsfrage kann somit bestätigt werden, da die Erkenntnis gewonnen wurde, dass ein Algorithmus die Marken-Konsumenten-Beziehung und folglich das Kaufverhalten, insbesondere die Preisbereitschaft, beeinflusst. Dennoch, so zeigte es die Arbeit, müssen die Unternehmen die Möglichkeiten, welche der Einsatz von künstlicher Intelligenz bietet, insbesondere mit Blick auf die analytischen Fähigkeiten der Technologien nutzen. Eine Analyse des Gesprächspartners zur Identifikation dessen Präferenzen und demographischen Angaben ist notwendig, um die Ansprache nach dessen Wünschen auszusteuern. Dabei sind Alter, Bildungsstand und Online-Kaufverhalten Indikatoren dafür, inwieweit das Gespräch persönlich oder sachlich gestaltet werden darf. Aber auch für die Ausspielung von Angeboten ist eine solche Analyse unumgänglich, damit Produktvorschläge nicht das Budget übersteigen und die Marke von dem Kunden als zu teuer und nicht zum Einkommen passend deklariert werden. Die Verwendung von Algorithmen in der Kundenkommunikation bietet nicht nur die Möglichkeit zum Beziehungsaufbau sowie dessen Erhaltung, sondern ermöglicht dem Unternehmen zugleich Ansätze der Marktforschung sowie der Sortimentsoptimierung. Durch Analysen werden Trends, Präferenzen und finanzielle Möglichkeiten der Zielgruppen sichtbar, die unmittelbar in die Produktentwicklung mit einfließen können. Der Einsatz von Chatbots sollte in ihrer Anwendung dem Zyklus der Kundenbeziehung angepasst werden. Zunächst muss sich die Interaktion über einen Chat anbahnen und festigen. Die Bindung findet statt, wenn es häufiger zu Interaktionen kommt und der Konsument beispielsweise aktiv mit Fragen an den Chatbot herantritt oder weitere Services dessen ausprobiert. Eine rückgehende Interaktionsquote kann auf eine Gefährdung der Beziehung hindeuten. Es empfiehlt sich daher, die Interaktionsfrequenzen zu überwachen und bei Bedarf eigene Interaktionen mit dem sich abwendenden Kunden zu eröffnen. Dabei sollte stets auf die generierten Informationen zurückgegriffen werden, um eine Relevanz für den Kunden zu garantieren. Die Relevanz kann insbesondere für das Cross-Selling genutzt werden, um den Kunden passende Zusatzprodukte oder Services anzubieten. Für die Unternehmen bietet es sich also an, vor der Implementierung eines Chatbots eine umfassende Analyse durchzuführen, welche für ihre Branche relevanten Informationen aus dem Nutzungsverhalten der Kunden generiert werden können, die anschließend im Zuge von Serviceangeboten zielgerichtet angewendet werden können.

Kritische Betrachtung

Im Rahmen der Befragung konnte der zeitliche Verlauf einer Beziehung und die unterschiedlichen Episoden dieser nicht untersucht werden und somit nicht in die Beurteilung mit aufgenommen werden. Die Wirkung von deontischen Konten und dem Konzept des Vertrauens oder gar der Vertrautheit ist somit nur schwer zu erfassen gewesen. Es wäre sinnvoll, die Studie weiter auszubauen und im Rahmen eines realen Beziehungsverlaufes zwischen mehreren Konsumenten und Marken zu untersuchen. Dafür sollten Experimente herangezogen werden, in denen die Kommunikation zwischen einem Konsumenten als Teilnehmer und einer Marke über einen längeren Zeitraum beobachtet wird. Wie in der durchgeführten Untersuchung sollte hierfür eine fiktive Marke geschaffen werden, um nicht durch vorherige Erfahrungen beeinflusst zu werden. Im Rahmen des Experiments soll der Befragte die Interaktion eröffnen, um eine reale Erfahrung darzustellen und den eigenen Interaktionsstil zu wahren. Durch mehrfache Abfrage der Einstellung gegenüber der Marke, teilweise nach dem Hinweis, dass die Interaktion mit einem Chatbot geführt wurde, können präzisere Aussagen über die Auswirkungen auf die Marken-Konsumenten-Beziehung getroffen werden.

Ein länger andauerndes Experiment würde zudem die Möglichkeit bieten, die Befragung zum Handlungstypus zu umgehen und lediglich anhand von Beobachtungen die Zuordnung zum Homo Oeconomicus oder Homo Sociologicus zu treffen. Durch die offensive Befragung zum Kaufverhalten kann nicht ausgeschlossen werden, dass die soziale Erwünschtheit und eine Reflektion des eigenen Handelns die Ergebnisse beeinflussen. Es lässt sich vermuten, dass die Befragten nicht offen darlegen möchten, dass sie ihr Handeln von der Meinung Dritter abhängig machen.

Literaturverzeichnis

Asendorpf, J.B./Banse, R. (2000).
Psychologie der Beziehung. Bern.

Bauer, H./Heinrich,D./Samak, M. (2012):
Eine Einführung in das Konzept der Erlebniskommunikation. In: Bauer, H./ Heinrich,D. / Samak, M. [2012]: Erlebniskommunikation. Erfolgsfaktoren für die Marketingpraxis. Berlin, Heidelberg. S. 3-11.

Beck, U./Beck-Gernsheim, E. (1994).
Individualisierung in modernen Gesellschaften – Perspektiven und Kontroversen einer subjektorientierten Soziologie. In: Beck, U./ Beck-Gernsheim, E. [Hrsg.]: Riskante Freiheiten. Frankfurt am Main. S. 10-43.

Bendel, O. (2016).
300 Keywords Informationsethik: Grundwissen aus Computer-, Netz- und Neue-Medien-Ethik sowie Maschinenethik. Wiesbaden.

Bitkom e.V. (2016).
Zwei von drei Internetnutzern verwenden Messenger, verfügbar unter: https://www.bitkom.org/Presse/Presseinformation/Zwei-von-drei-Internetnutzern-verwenden-Messenger.html (21.08.2017)

Bitkom e.V. (2017a).
Mobile Steuerungszentrale für das Internet of Things, verfügbar unter: https://www.bitkom.org/Presse/Presseinformation/Mobile-Steuerungszentrale-fuer-das-Internet-of-Things.html (21.08.2017)

Bourdieu, P. (1976).
Entwurf einer Theorie der Praxis. Frankfurt am Main.

Bourdieu, P. (2014).
Die feinen Unterschiede. 24. Aufl. Frankfurt am Main.

Brandom, R. (2000).
Expressive Vernunft: Begründung, Repräsentation und diskursive Festlegung. 2. Aufl. Frankfurt am Main.

Bruhn, M./Eichen, F. (2007).
Marken-Konsumenten-Beziehungen: Bestandsaufnahme, kritische Würdigung und Forschungsfragen aus Sicht des Relationship Marketing. In: Florack, A./ Scarabis, M./ Primosch, E. [Hrsg]., Psychologie der Markenführung, München. S. 221-256.

Bruhn, M. (2016b).
Relationship Marketing – Das Management von Kundenbeziehungen. 5. Aufl. München.

Burmann, C./Meffert, H. (2005).
Theoretisches Grundkonzept der identitätsorientierten Markenführung. In: Meffert, H./ Burmann, C./ Koers, M. [Hrsg.]: Markenmanagement: identitätsorientierte Markenführung und praktische Umsetzung; mit Best Practice-Fallstudien, 2. Aufl., Wiesbaden. S. 37-72.

Copray, N. (1993).
Von der Risikogesellschaft zur Erlebnisgesellschaft. Wenn satte Bürger die schöne Welt suchen. In: Publik-Forum Nr. 5., 12.03.1993.

Dahrendorf, R. (2006).
Homo Sociologicus, 16. Aufl. Wiesbaden.

Eggert, A. (2000).
Konzeptualisierung und Operationalisierung der Kundenbindung aus Kundensicht. In: Marketing Journal of Research and Management (ZFB). Bd. 22, Nr. 2. S. 119-130.

Esch, F./Kiss, G. (2006).
Wirkung interaktiver Markenauftritte im Internet – Theoretische Grundlagen und empirische Ergebnisse. In: Marketing ZFP. Jg. 28, Nr. 2. S. 99-115.

Fittkau & Maaß Consulting (2017).
Chatbots werden von jedem zweiten Online-Käufer abgelehnt. 08.02.2017. verfügbar unter: http://www.fittkaumaass.de/news/chatbots-von-jedem-zweiten-online-kaeufer-abgelehnt (05.10.2017)

Fournier, S. (1998).
Consumers and their Brands: Developing Relationship Theory in Consumer Research. In: Journal of Consumer Research, 24. Jg. S. 343-373.

Gründerszene (2017).
https://www.gruenderszene.de/datenbank/unternehmen/chatshopper (21.08.2017)

Hadwich, K. (2003).
Beziehungsqualität im Relationship Marketing. Konzeption und empirische Analyse eines Wirkungsmodells. Wiesbaden.

Hillmann, K.-H. (1994).
Wörterbuch der Soziologie. 4. Aufl. Stuttgart.

Holzwarth, M./Janiszewski, C./Neumann, M.M. (2006):
The Influence of Avatars on Online Consumer Shopping Behavior. In: Journal of Marketing, Vol. 70, Nr. 10, S.19-36.

Homans, G.C. (1958).
Social Behavior as Exchange. In: American Journal of Sociology. Vol. 63, Nr. 6. S. 597-606.

Horton, D./Wohl, R. R. (1956).
Mass communication and para-social interaction: Observations on intimacy at a distance. In Psychiatry 19, S. 215–229.

Jehmlich, D. (2017).
Kundenkommunikation: Warum wir Chatbots eine Chance geben sollten. In: wundv.de, 23.01.2017, verfügbar unter: https://www.wuv.de/digital/kunden-kommunikation_warum_wir_chatbots_eine_chance_geben_sollten (02.08.2017)

KLM Royal Dutch Airlines (2017a).
https://social.klm.com/flightinfo/messenger/ (21.08.2017)

KLM Royal Dutch Airlines (2017b).
KLM first airline with verified WhatsApp business account, 08.09.2017, verfügbar unter: http://news.klm.com/klm-first-airline-with-verified-whatsapp-business-account/ (05.10.2017)

KLM Royal Dutch Airlines (2017c).
KLM takes next strategic social media step with WeChat Pay (24.08.2017), verfügbar unter: http://news.klm.com/klm-takes-next-strategic-social-media-step-with-wechat-pay/ (05.10.2017)

Knoll, J./Schramm, H./Schallhorn,C./Wynistorf,S. (2015).
Good guy vs. bad guy: The in uence of parasocial interactions with media characters on brand placement effects,. In: International Journal of Advertising, 34, 5/2015, S. 720-743.

Kroeber-Riel, W./Esch, F.-R. (2015).
 Strategie und Technik der Werbung. Stuttgart.

Kron, T./Winter, L. (2009).
Aktuelle soziologische Akteurtheorien. In: Kneer, G./ Schroer, M. [Hrsg.]: Handbuch Soziologische Theorien. Wiesbaden. S. 41-66.

Linton, R. (1973).
Rolle und Status. In: H. Hartmann, Moderne amerikanische Soziologie,       Stuttgart. S. 310–315.

Mead, G. H. (1973).
Geist, Identität und Gesellschaft. Frankfurt am Main 1973.

Parsons, T. (1937).
The Structure of Social Action.

Reinhardt, U. (2015).
Service macht den Unterschied. In: Markenartikel –  Das Magazin für Markenführung. 77. Jg., Nr. 6. S. 52-53.

Schimank, U. (2012).
Individualisierung der Lebensführung, verfügbar unter: http://www.bpb.de/politik/grundfragen/deutsche-verhaeltnisse-eine-sozialkunde/137995/individua-lisierung-der-lebensfuehrung?p=all (28.09.2017)

Tajfel, H./Turner, J. C. (1986).
The social identity theory of intergroup behaviour. In: Worchel, Stephen/Austin, William [Hrsg.]: Psychology of intergroup relations, Chicago 1986, S. 7-24.

Tantau, B. (2017).
Die Macht der Chatbots: Chancen und Risiken. In: Website Boosting, Ausgabe 43, S. 72 –77.

Tröger, D. (2017).
Chatbots – Der ultimative Übersichtsartikel der digitalen Revolution. In: LinkedIn, 13.02.2017, verfügbar unter: https://de.linkedin.com/pulse/chatbots-der-ultimative-übersichtsartikel-digitalen-tröger-

Weizenbaum, J. (1966).
Eliza: A Computer Programm for the Study of Natural Language Communication between Man and Machine. In: Communications of the ACM 9, S. 36-45.

YouGov (2017).
Kommunikation per Chatbot: Für jeden Zweiten vorstellbar, (04.09.2017), verfügbar unter: https://yougov.de/news/2017/09/04/kommunikation-chatbot-fur-jeden-zweiten-vorstellba/ (05.10.2017)

Zalon (2017).
https://www.zalon.de/how-it-works (12.12.2017)

Zerfaß, A. (2014).
Unternehmenskommunikation und Kommunikationsmanagement: Strategie, Management und Controlling. In: Zerfaß, A./M. Piwinger. Handbuch der Unternehmenskommunikation, Wiesbaden 2014, S. 21-79.

 

Hier gibt’s die PDF-Version des Fachartikels

Peter Michael Bak: Automatisiertes Fahren: Warum nicht?

Kommentar zu Jan Rommerskirchen: Autos, Autonomie und Algorithmen 

Jan Rommerskirchen widmet sich in seinem Beitrag einem aktuellen Thema. Gerade erst (Juni 2017) hat die von Bundesminister Alexander Dobrindt eingesetzte Ethik-Kommission zum automatisierten Fahren dazu einen umfassenden Bericht vorgelegt, auf den Rommerskirchen auch kurz eingeht und in dem anhand von 20 Thesen Leitlinien für den Umgang mit einem automatisierten und vernetzten Fahren formuliert werden. Grundsätzlich befürworten die Autoren des Berichts den Einsatz dieser Zukunftstechnologie, „wenn sie im Vergleich zu menschlichen Fahrleistungen zumindest eine Verminderung von Schäden im Sinne einer positiven Risikobilanz verspricht“ (Ethik-Kommission, 2017, S. 10). Die Technik ist also dann zu vertreten, wenn sie zu einer Verbesserung der gegenwärtigen Situation beiträgt. Das von Jan Rommerskirchen angesprochene Dilemma, wie ein algorithmusgesteuertes Fahrzeug entscheiden soll, wenn es die Wahl zwischen mindestens zwei Übeln hat, wird in den Thesen dadurch zum Teil umgangen, dass gefordert wird, „dass kritische Situationen gar nicht erst entstehen“ sollen, wozu auch Dilemma-Situationen gehören, „also eine Lage, in der ein automatisiertes Fahrzeug vor der ‚Entscheidung‘ steht, eines von zwei nicht abwägungsfähigen Übeln notwendig verwirklichen zu müssen“ (Ethik-Kommission, 2017, S. 10). Echte dilemmatische Entscheidungen sind zudem „nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar“ (Ethik-Kommission, 2017, S. 11). Weiter wird in dem Bericht die Ansicht vertreten, dass eine „allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden“ vertretbar sein kann (Ethik-Kommission, 2017, S. 11). Gleichzeitig wird zu bedenken gegeben, dass eine “Unterwerfung unter technische Imperative“ bedenklich ist (Ethik-Kommission, 2017, S. 11). Die 20 Thesen folgen demnach einer utilitaristischen Position mit diskussionsoffenen Vorbehalten, die sich mit folgendem Satz auf den Punkt bringen lässt: „Eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden kann vertretbar sein“. Allerdings bietet der Kommissionsbericht keine Ausformulierung konkreter Randbedingungen für etwaige Programmierungen etc. und räumt zudem offene Fragen ein. Dennoch lassen sich die Thesen insgesamt im Sinne einer allgemeinen Befürwortung des autonomen Fahrens interpretieren. Ist das nun also der Anfang der „entfesselten Macht“, von der Jonas und auch Rommerskirchen in seinem Beitrag sprechen? Bedeutet der Einsatz autonomer Systeme tatsächlich das Ende unserer Freiheit? Sollten wir auf den Einsatz autonomer Technologien verzichten? Ja und Nein lautet meine Antwort. Es hängt eben von der Betrachtungsweise ab, an welcher Stelle wir unsere Freiheit bewahren möchten. Ja, es bedeutet Freiheitsverlust beispielsweise in dilemmatischen Situationen, wie Rommerskirchen sie beschreibt, wenn es darum geht, selbst und verantwortlich eine Entscheidung zu treffen, ob wir nun links oder rechts fahren. Nein, es raubt uns nicht die Freiheit, zu entscheiden, ob wir generell eine Technologie verwenden wollen, von der wir bereits im Vorhinein wissen, dass sie uns in bestimmten Situationen die Entscheidung abnehmen wird, mit allen Folgen, die das haben kann. Das ist aber keine neuartige Situation, die wir nun anhand der Aussicht auf den Einsatz autonomer Fahrsysteme zum ersten Mal führen müssten. Wir tun das ständig und obendrein ohne ethischen Diskurs. Wir benutzen permanent Technologien, die versagen können und sich dann auf nicht mehr kontrollierbare Weise auf uns und unsere Mitmenschen oder die Umwelt auswirken können. Ob Kernkraft, Flugzeug oder Computer, die Freiheit mit diesen Technologien zu tun, wofür wir auch Verantwortung übernehmen können, besitzen wir nur solange, solange die Technologie wie vorgesehen arbeiten. Tun sie es nicht, sind wir auch nicht mehr frei zu entscheiden, welche Folgen das mit sich bringt. Wir können nach Abwägen des Für und Widers nur frei entscheiden, ob wir denn die Technologien überhaupt zum Einsatz bringen wollen. Das Gleiche gilt bereits bei einer so alltäglichen Angelegenheit wie der Einnahme einer Tablette, sagen wir gegen Kopfschmerzen. Denken wir an ein so „harmloses“ Präparat wie Ibuprofen, das gerne gegen leichte und mittlere Schmerzen eingenommen wird. Schaut man sich die möglichen Nebenwirkungen an, so taucht da unter anderem auf: häufig Magenschmerzen, Übelkeit und Durchfall. Aber auch Schwindel und reversibler Verlust der Sehschärfe (www.apotheker-rundschau.de). Nehmen wir an, ich nehme aus freien Stücken das Medikament gegen Kopfschmerzen, dann bedeutet das aber nicht, dass ich auch frei wäre zu entscheiden, welche Nebenwirkungen damit verbunden sind. Und was nun, wenn mir beim Autofahren plötzlich schwindlig wird und ich dadurch einen Verkehrsunfall verursache? Bin ich selbst dann dafür verantwortlich oder der Hersteller oder die Politik, die beim Zulassungsverfahren andere Regeln hätte auferlegen müssen? Ich denke, wir würden in diesem Fall anders entscheiden. Wir wissen um die Risiken, die mit bestimmten Verhaltensweisen und dem Einsatz von Technologien (und Medikamenten) verbunden sind. Auch, dass wir im Falle des Falles die Kontrolle und damit die Entscheidungsfreiheit verlieren können. Hin und wieder sprechen wir dann auch von „technischem Versagen“ und meinen damit, dass einer Person keine Verantwortung zugeschrieben werden kann. Daraus zu folgern, dass wir besser gar keine Medikamente einnehmen sollten oder Technologien nutzen sollten, die prinzipiell auch negative Folgen nach sich ziehen können, wäre das Kind mit dem Bade auszuschütten. Es liegt nun einmal im Wesen freier Entscheidungen, dass sie a priori ein Mindestmaß an Unsicherheit bezüglich der damit verbundenen Folgen besitzen, andernfalls gäb es nichts mehr abzuwägen oder frei zu entscheiden. Die Entscheidung wäre längst und ohne Diskurs klar. Die Diskussion zum autonomen Fahren sollte also nicht bei dilemmatischen Situationen beginnen, in denen eine richtige Lösung naturgemäß nicht anzugeben ist. Vielmehr müssen wir uns fragen, welches Risiko wir generell bereit sind einzugehen, wenn wir zum Beispiel neue Technologien einsetzen möchten. Wenn sich im vorliegenden Fall sagen und empirisch bestätigen ließe, dass algorithmusgesteuerte Systeme zu einer deutlichen Verminderung von Personenschäden beitragen können, warum sollten wir uns dann für deren Benutzung nicht frei entscheiden, wenn wir das denn wollen, auch dann, wenn die Folgen nicht in jedem Einzelfall vorhergesagt werden können. Mehr noch, das Pochen darauf, in jeder Situation, also auch einer dilemmatischen, den Menschen als verantwortlichen Entscheider vorziehen zu wollen, besitzt beinahe zynische Züge. Nach welchen Kriterien würden wir die Entscheidung einer Person bewerten wollen, die vor der Wahl steht, eine oder mehrere Personen oder sich selbst aufgrund situativer Umstände opfern zu müssen? Solange wir das a priori nicht allgemeingültig angeben können, sondern erst im Nachhinein und unter Berücksichtigung der besonderen Umstände im Diskurs beurteilen möchten, bedeutet die freie Entscheidung und die damit verbundene Verantwortlichkeit letztlich nichts anderes, als ein Stochern im Nebel ohne zu wissen, welches Ziel getroffen werden soll. Jemanden dafür dann zur Rechenschaft ziehen zu wollen, das kann nicht in unserem Sinne sein. Letztlich handelt es sich dann auch nicht um eine freie Entscheidung, sondern maximal um einen juristischen Trick, um unserem Bedürfnis nach Schuldzuschreibung gerecht zu werden. Wenn wir aber einem Menschen in solchen Situationen keine Kriterien nennen können, wie er sich zu entscheiden hat, wie sollen wir das dann einer Software beibringen? So zu tun, als wäre ein menschlicher Entscheider angesichts der drei unmittelbar bevorstehenden Optionen selbst zu sterben, eine andere Person oder gar eine Gruppe anderer Personen zu töten, tatsächlich frei und könnte noch unter Abwägung aller Argumente zu einer vertretbaren Entscheidung kommen, ist aus meiner Sicht kein reales Szenario, sondern kommt am Ende einer Lotterieentscheidung vermutlich näher. Dies zumindest könnte man dann auch einer Maschine zugestehen.
Was bedeutet das nun für das von Rommerskirchen beschriebene Dilemma? Rufen wir es uns noch einmal in Erinnerung. Eine Person fährt mit einem algorithmusgesteuerten Fahrzeug auf eine Kreuzung und aus irgendeinem Grund gibt es kein Entrinnen mehr. Es muss eine Entscheidung getroffen werden. Fährt das Auto nach links, dann wird dadurch eine Person getötet. Fährt es nach rechts, werden gleich mehrere Personen getötet. Fährt es geradeaus, dann wird der Fahrer selbst zum Opfer. Mit Rommerskirchen fragen wir uns: Wer soll eigentlich hier die Entscheidung treffen? Der Nutzer, der Hersteller oder die Politik? Wie kann man sich den Implementierungsprozess einer solchen Entscheidung vorstellen? Dazu lässt sich ganz im Einklang mit der bisher geführten Argumentation sagen, dass es zunächst darum geht, die Wahrscheinlichkeit des Eintreffens solcher Situationen zu minimieren gilt. Sollte dann doch eine solche Situation entstehen, dann entscheidet der Algorithmus des Fahrzeugs nach dem Zufallsprinzip. Das Zufallsprinzip ist in diesem Fall das überlegene Prinzip, da erstens die Frage, wer zu opfern ist, a priori nicht für jeden Fall eindeutig festgelegt werden kann und zweitens auch die die menschliche Entscheidung in einer solchen Extremsituation eher durch zufällige Prozesse, Gedanken, Gefühle, Geistesblitze etc. getroffen wird und mit einer freien Entscheidung unter Abwägung aller Möglichkeiten nichts zu tun hat. Der Nutzer entscheidet demnach in der Situation selbst zwar nicht mehr, aber er entscheidet sich im Vorfeld für die Nutzung eines solchen Fahrzeugs. Er nimmt die Zufallsentscheidung also in Kauf, wobei er nicht für die Entscheidung des Fahrzeugs verantwortlich gemacht werden kann. Das mag auf den ersten Blick wie ein Trick aussehen, um Verantwortung aus dem Weg zu gehen. Aber können wir in solch einer ausweglosen Situation überhaupt von Verantwortung sprechen? Ich behaupte mit dem Verweis auf die Unentscheidbarkeit und die nicht vorhandene Entscheidungsfreiheit nein. Es stellt sich nur noch die Frage, wer für die Programmierung des Zufallsgenerators zuständig ist und wer überhaupt darüber entscheidet, wann er zur Anwendung kommen soll. Wie beispielsweise bei der Marktzulassung von Medikamenten muss das die Legislative regeln. Der Gesetzgeber entscheidet hier, welche Randbedingungen erfüllt sein müssen, damit ein Medikament auf dem Markt zugelassen werden darf. Die Hersteller müssen sich entsprechend daranhalten und z. B. eine Reihe klinischer Studien vorlegen. Wenn dabei bestimmte Kriterien erfüllt sind, dann darf das Medikament auf den Markt. Über die Einnahme des Medikaments ist damit jedoch noch nicht entschieden. Dies bleibt dem Patienten vorbehalten. Eine ähnliche Regelung wäre auch beim algorithmusgesteuerten Auto denkbar. Der Gesetzgeber gibt die Randbedingungen vor, unter denen ein solches Auto zugelassen werden darf, unter welchen Umständen welcher Algorithmus greifen muss und wie hoch überhaupt die Wahrscheinlichkeit sein darf, dass ein solcher Fall auftritt. Die Hersteller setzen diese Vorgaben um. Der Nutzer entscheidet für sich, ob er das Fahrzeug nutzen möchte oder nicht (oder ob er bei nächstbester Gelegenheit gleich eine andere Legislative wählt). Das ist in vielen Kontexten ein völlig üblicher Vorgang. Denken wir kurz an die pränatale Diagnostik. Bei der Fruchtwasseruntersuchung zur Vorhersage bestimmter Krankheiten, die in der Regel zwischen der 15. und 18. Schwangerschaftswoche durchgeführt wird, wird mit einer dünnen Nadel durch die Bauchdecke Fruchtwasser entnommen, das Zellen des Kindes enthält. Diese werden dann z. B. auf Chromosomenabweichungen untersucht. Das Risiko einer Fehlgeburt wird zwischen 0,2 und 1% angegeben (www.pnd-beratung.de). Zwar wird es im Nachhinein Erklärungen geben, warum es zu einer Fehlgeburt kam, im Vorhinein ist es eine Frage des Zufalls. Die meisten sehen den Zufall als geringeres Übel an und entscheiden sich für die Untersuchung. Weiter ist der Einwand, dass wegen der Implementierung des Zufallsprinzips kein Mensch ein algorithmusgesteuertes Fahrzeug nutzen würde oder auch nur wünscht, einem solchen Fahrzeug im Straßenverkehr zu begegnen, zwar durchaus nachvollziehbar, sollte aber mit der richtigen Alternative kontrastiert werden. Denn, so unangenehm der Gedanke sein mag, dass in manchen Situationen der Zufall über Leben und Tod entscheidet, so unangenehm ist die gegenwärtige Situation, denkt man nur kurz darüber nach. Ständig begegnen wir nämlich Personen im Straßenverkehr, von denen wir nicht wissen, wie sie sich gleich entscheiden werden, wenn sie auf uns treffen. Bleiben sie in der Spur? Lassen sie uns durch oder handelt es sich womöglich doch um einen selbstmordgefährdeten Menschen? Wird der Fahrer gleich zum Handy greifen oder sich eine Zigarette anzünden und mich dabei übersehen? Zieht man also reine Wahrscheinlichkeiten zu Rate, dann kann unser Verkehrswesen mit algorithmusgesteuerten Fahrzeugen deutlich sicherer werden und die Wahrscheinlichkeit, zufälliges Opfer eines schlechten, abgelenkten, übermüdeten Fahrers zu werden, deutlich gesenkt werden, was für ethische Fragen zwar nicht unbedingt eine Maßgabe ist, aber durchaus sein kann, zumal, wenn wir hinnehmen, dass ethische Fragen ohnehin im Diskurs beantwortet werden müssen. Was uns heute noch als unvorstellbar erscheint, das wird morgen schon als Normalität angesehen werden. Warum sollte das im vorliegenden Fall anders sein als bei der Einführung anderer Technologien. Anstatt Entscheidungsalgorithmen also a priori und kategorisch auszuschließen, könnte es fruchtbarer sein, sich über den Ablauf, Kriterien und Randbedingungen Gedanken zu machen, die den Einsatz dieser Technologie ermöglichen könnten. In diesem Sinne hat die Ethikkommission einen ersten Schritt gemacht. Der Teufel steckt dabei im Detail. Ob die dann allerdings noch ethische Fragen betreffen oder nur noch praktische, dass mag der Leser nun gerne selbst beurteilen.

 

Literaturverzeichnis

Ethik-Kommission (2017): Ethik-Kommission – Automatisiertes und vernetztes Fahren. Von Bundesministerium für Verkehr und digitale Infrastruktur. Unter https:// www.bmvi.de/SharedDocs/DE/Anlage/Presse/084-dobrindt-bericht-der-ethik-kommission.html?nn=12830. Abgerufen am 22. Juni 2017

http://www.apotheken-umschau.de/Medikamente/Ibuprofen-Wirkung-Anwendung-Nebenwirkungen-530943.html. Abgerufen am 22. Juni 2017

http://www.pnd-beratung.de/was-ist-pnd/invasive-untersuchungen/fruchtwasseruntersuchung/. Abgerufen am 22. Juni 2017

 

Hier gibt’s die PDF-Version des Fachartikels 

Jan Rommerskirchen: Autos, Autonomie und Algorithmen – eine Erwiderung

Ich danke den Kollegen Peter Michael Bak und Lutz Becker für ihre Kommentare zu meinem Beitrag Autos, Autonomie und Algorithmen. Beide Kollegen sprechen sich für eine Zulassung sogenannter Autonomer Auto aus und widersprechen meiner kritischen Position in dieser Frage. Zu den Kommentaren möchte ich an dieser Stelle eine kurze Erwiderung geben.

Meine beiden Kernargumente gegen die Zulassung Autonomer Autos lauten: a) Es ist nicht ersichtlich, wer die Verantwortung für die Programmierung der Algorithmen übernehmen kann und darf, und b) gibt keine ethisch vertretbare Programmierung für Dilemma-Situationen. Die Kommentatoren müssten somit die aus diesen Kernargumenten folgenden Fragen schlüssig beantworten: a‘) Wer darf über die Programmierung des Algorithmus entscheiden? b‘) Wie soll der Algorithmus in einer Dilemma-Situation entscheiden?

Die erste Frage (a‘) beantwortet Bak mit dem Vorschlag, die Legislative mit der Entscheidungsfindung zu beauftragen. Damit die Abgeordneten eine Entscheidung über mögliche Optionen treffen können, muss daher die zweite Frage (b‘) zuerst beantwortet werden.

Hierzu antwortet der Kollege Bak mit dem Vorschlag, den Zufall entscheiden zu lassen. Angesichts der Kontingenz menschlicher Entscheidungen ein praktikabler Vorschlag. Der Algorithmus soll also mal für den Schutz der Passanten, mal für den Schutz des Fahrers und seiner Beifahrer entscheiden. Mit anderen Worten: In einer gefährlichen Fahrsituation entscheidet der Algorithmus nicht begründet über Leben und Tod, sondern er würfelt. Die Passanten haben ebenso wie der Fahrer und seine Beifahrer eine fünfzigprozentige Chance zu überleben.

Peter Michael Bak verweist in seinem Kommentar auf die Medizintechnik und Medikamente. Hier geht es aber nicht um Kopfschmerzen, sondern um Leben und Tod. Ehrlicherweise müsste die Analogie dann lauten: Wenn ein Patient an einer lebensgefährlichen Krankheit leidet und ein neues Medikament würde eine fünfzig prozentige Chance auf Heilung versprechen – und eine fünfzig prozentige Chance, an dem Medikament zu sterben -, wer würde dieses Medikament dann zulassen, welcher Arzt würde es verschreiben und welcher Patient würde es einnehmen? Jeder muss diese Frage für sich entscheiden, aber in ethischen Fragen ist ein solches russisches Roulette zynisch und keinesfalls ein ernsthaftes Angebot für technischen oder medizinischen Fortschritt.

Hinzu kommt ein zweites Problem: Nachdem die Begeisterung über den Komfortvorteil Autonomer Autos abgeklungen sein wird und die Menschen nach einem Unfall die Schlagzeile „Auto tötet Fahrer“ auf den Titelseiten der Zeitungen gelesen haben werden, wird die Skepsis einsetzen. Und ein psychologischer Effekt: die Verlustaversion. Die Erkenntnisse der Neuen Erwartungstheorie lassen zumindest erwarten, dass der gewonnene Komfort die Risiken eines würfelnden Algorithmus nicht aufwiegen wird. Die Angst vor dem (zufälligen) Verlust des eigenen Lebens und dem der Beifahrer (Freunde, Ehepartner, Kinder) wird durch einige wenige Unfälle und entsprechende Schlagzeilen sehr schnell zur Ablehnung der neuen Technik führen. Die autonome Funktion wird nicht mehr eingeschaltet werden und Menschen, die sich von Algorithmen fahren lassen, werden als egoistische Hedonisten diskreditiert. Und dann werden die ersten Städte beraten, ob man die Fahrer Autonomer Autos zwingen will, ihre Fahrzeuge vor den Toren der Stadt zu parken.

Können Abgeordnete nun über diesen Algorithmus beschließen und somit die Frage nach der Entscheidungsinstanz (a‘) beantworten? Da es weder um Kopfschmerzen noch um Restrisiken im Promillebereich geht, scheint mir der Vorschlag von Peter Michael Bak erneut ungeeignet. Dass das deutsche Parlament ein Gesetz beschließt, welches das Leben und die Unversehrtheit seiner Bürger dem utilitaristischen Zufallskalkül eines Algorithmus überantwortet, ist nicht nur politisch unwahrscheinlich, sondern auch ein klarer Verstoß gegen die verfassungsrechtliche Garantie der Menschenwürde, zu deren Schutz die Abgeordneten verpflichtet sind.

Insofern sehe bei den Kommentaren keine schlüssige Widerlegung meiner Argumente. Für eine weiterhin notwendige Debatte in der Hochschule und in der Gesellschaft über die Legitimation und die Limitation neuer Techniken bieten die Beiträge den Lesern aber hoffentlich eine Anregung.

 

Hier gibt’s die PDF-Version des Fachartikels 

Jan Rommerskirchen: Autos, Autonomie und Algorithmen

Autonome Autos versprechen eine bessere und sicherere Zukunft: entspanntes und unfallfreies Fahren, keine Verletzten und Getöteten mehr auf unseren Straßen. Die Zweifel an dieser Vision sind jedoch gewachsen und immer mehr Kritiker fragen, wie autonome Autos in Dilemma-Situationen entscheiden sollen, wer leben darf und wer sterben muss. Soll dieses ethische Problem von den Nutzern autonomer Autos, von ihren Herstellern oder von der Politik entschieden werden? Eine kritische Prüfung dieses Problems kann nur zu einem Ergebnis kommen: Es wird auch in Zukunft keine autonomen Autos geben. Der ethische Preis, den wir für den vermeintlichen Fortschritt zu zählen hätten, wäre unsere Freiheit und die menschliche Autonomie.

Die Digitalisierung soll das Fahren von Autos revolutionieren. Autonome Autos sollen es den Nutzern ermöglichen, während der Fahrt zur Arbeit die Zeitung zu lesen und Kaffee zu trinken und auf dem Weg in den Urlaub mit den Mitfahrern Ausflüge zu planen oder zu schlafen. Vor allem aber soll das Autofahren sicherer werden. Autonome Autos überschreiten keine Geschwindigkeitsvorschriften, unterschreiten keine Sicherheitsabstände und sind nie abgelenkt oder müde. Euphorisch behauptet die Bundeskanzlerin Angela Merkel im Juni 2017, dass man in zwanzig Jahren eine Sondererlaubnis beantragen müsse, wolle man sein Auto selbst fahren (vgl. Grossarth, 2017).

Der technische Fortschritt könnte nicht nur Staus und Schadstoffemissionen reduzieren, er könnte auch helfen, die meisten Unfälle im Straßenverkehr zu vermeiden. Im Jahr 2016 nahm die Polizei in Deutschland 2,6 Millionen Unfälle auf, dabei wurden fast 400.000 Menschen verletzt und mehr als 3.000 Menschen getötet (vgl. Statistisches Bundesamt, 2017). In der Europäischen Union starben im vergangenen Jahr 25.500 Menschen durch Verkehrsunfälle (vgl. European Commission, 2017), weltweit sind es rund 1,25 Millionen Menschen (vgl. WHO, 2017). Die Ursachen waren in Deutschland zumeist Fahrfehler beim Abbiegen oder ein zu geringer Abstand zum Vorausfahrenden. Zumeist also Ursachen, die autonome Autos wahrscheinlich vermieden hätten.

Dabei gibt es mehrere Stufen der Autonomie von Autos: Auf der ersten Stufe helfen Assistenzsysteme beim Einhalten der Geschwindigkeit oder des Abstands, auf der zweiten Stufe können Autos selbstständig die Fahrspur halten oder einparken, auf der dritten Stufe auch selbstständig Spurwechsel und Überholvorgänge durchführen. Das vollautomatisierte Fahren macht den Fahrer zum Nutzer eines Autos und beginnt mit Stufe vier, bei der das Auto dauerhaft die Führung der Fahrt übernimmt, und endet mit Stufe fünf, in der der Nutzer nur das Ziel bestimmt und das System startet (vgl. Ethik-Kommission, 2017, S. 14).

Die Hoffnungen auf eine sichere und sorgenfreie Mobilität durch den technischen Fortschritt sind auf Seiten der Autofahrer vermutlich ebenso groß wie die Hoffnungen der Autohersteller und ihrer Zulieferer auf wachsende Umsätze. Die Politik unterstützt die Entwicklung, sie hofft ebenfalls auf Vorteile für ihre Bürger, sinkende Belastungen der Infrastruktur und der Umwelt sowie steigende Einnahmen der einheimischen Industrie. Angesichts so vieler Hoffnungen auf eine bessere Zukunft muss aber die Frage an die Ethik erlaubt sein, ob auch gut ist, was machbar sein soll.

Der Prometheus

Die Hoffnung, dass technischer Fortschritt das Leben der Menschen verbessert, ist so alt wie die Menschheit selbst. Die Frage, welche Gefahren damit einhergehen, aber auch. Eine der bekanntesten klassischen griechischen Mythen handelt vom Titanen Prometheus. Nach einem Streit mit dem tyrannischen Göttervater Zeus verbietet dieser den Menschen den Gebrauch des Feuers. Prometheus, der die Menschen als seine Schützlinge betrachtet, widersetzt sich dem Verbot und bringt das Feuer zu den Menschen – und damit beginnt die menschliche Zivilisation, die Nutzung und die Beherrschung der Natur durch die Technik. Der erzürnte Göttervater lässt Prometheus zur Strafe für seinen Frevel an eine Felswand im Kaukasus ketten, wo ein Adler immer wieder von seiner Leber fressen soll, die sich danach ständig wieder erneuert. Prometheus, dessen Name mit ‚der Vorausdenkende‘ übersetzt werden kann, will das Gute tun und wird dafür hart bestraft. Der Titan wird somit zum mythologischen Topos eines ambivalenten Helden: Einerseits ist er ein mutiger Rebell, der sich der Unterdrückung widersetzt und die Menschen befreit, andererseits ist er jedoch ein gescheiterter Held, da er die Menschheit mit den neuen und gefährlichen Möglichkeiten der Technik allein lässt. Die Gefahren der Instrumentalisierung der Technik für Gewalt und Krieg vorauszudenken, ist ihm nicht gelungen.

Einige Jahrhunderte später verbringen vier junge Freunde einen regnerischen Sommer am Ufer des Genfer Sees. Um sich die Zeit zu vertreiben, beschließen sie, dass jeder von ihnen eine Schauergeschichte aufschreibt und diese den anderen erzählt. Die bekannteste Geschichte, die in diesem Sommer entsteht, stammt von der damals 19-jährigen Mary Shelley und wurde zwei Jahre später, im Jahr 1818, unter dem Titel Frankenstein, oder der moderne Prometheus veröffentlicht. Im Roman erzählt die Autorin die Geschichte von Viktor Frankenstein, der aus Neugier und Begeisterung für die Entdeckungen der modernen Naturwissenschaft einen besseren Menschen schaffen will: „Eine neue Menschengattung würde mich als ihren Schöpfer und Entdecker preisen; viele glückliche und vortreffliche Geschöpfe würden mir ihr Leben verdanken“ (Shelley, 1986, S. 70). Zwar will das geschaffene Wesen freundlich und hilfreich sein, doch es verbreitet nur Angst und Schrecken. Aus dem besseren Menschen wird schicksalhaft ein Dämon, der all jene tötet, die Viktor Frankenstein nahestehen, und sich schließlich aus Verzweiflung selbst verbrennt. Auch Viktor Frankenstein, der moderne Prometheus, wollte das Gute schaffen und sah nicht die Gefahren seines Tuns.

Die Figur des Prometheus wurde zum Urbild eines Menschen, den sein Wissens- und Forschungsdrang ins Unheil stürzen. Aus Hybris will er schaffen, was ihm möglich ist – ohne die Konsequenzen für sich selbst und andere zu bedenken. Der Philosoph Hans Jonas stellte den Prometheus in den 1980er Jahren deshalb ins Zentrum seiner Wirtschaftsethik und warnte, dass die technischen Entwicklungen zum Untergang der Menschheit führen könnten. Der „endgültig entfesselte Prometheus“ (Jonas, 1984, S. 7) habe sich am Ende des 20. Jahrhunderts zu einem Wesen mit nahezu unbegrenzter Macht über die Natur und die Technik entwickelt – doch könne oder wolle er immer noch nicht auf die Folgen seines Handelns schauen. Angesicht der Art und des Umfangs ihrer Macht müssten die Menschen jedoch umdenken: „Was der Mensch heute tun kann und dann, in der unwiderstehlichen Ausübung dieses Könnens, weiterhin zu tun gezwungen ist, das hat nicht seinesgleichen in vergangener Erfahrung“ (ebd.). Wenn die Menschheit sich nicht selbst durch einen Knopfdruck vernichten solle, dann, so Hans Jonas, müsse sie ihren rastlosen Antrieb zügeln lernen und ein Prinzip der Verantwortung und des verantwortlichen Handelns für sich und die Natur akzeptieren. Der neue ethische Imperativ laute daher: „Handle so, daß die Wirkungen deiner Handlungen verträglich sind mit der Permanenz echten menschlichen Lebens auf Erden“ (a. a. O, S. 36).

In der Wirtschafts- und Unternehmensethik wurden Jonas’ Warnungen und sein radikaler ökologischer Imperativ in den 1980er Jahren lebhaft diskutiert und dann durch Wirtschaftsthemen und Finanzkrisen wieder verdrängt. Die Frage, wie das gewünschte wirtschaftliche Wachstum und ein möglicher Fortschritt mit einer hierfür notwendigen Schädigung der Natur vereinbar sein können, war und ist drängender als die fundamentale Reflexion des Handelns. Prometheus hofft weiterhin darauf, dass sich dauerhaft gute Folgen aus der bloßen Absicht ergeben, gut zu handeln.

Das Dilemma

Diese Hoffnungen auf die segensreichen Früchte des Fortschritts finden sich fraglos auch bei der Entwicklung des autonomen Autos. Aber auch hier gibt es Konsequenzen, die bedacht werden sollten. Ein ethisches Problem, welches bereits mehrfach diskutiert wurde, steht auch hier im Zentrum der Überlegungen (vgl. Lin, 2013): Im Wesentlichen handelt es sich dabei um eine aktualisierte Form eines klassischen Dilemmas, welches als Trolley-Dilemma oder Weichensteller-Problem bekannt ist (vgl. Foot, 1967, Thomson, 1976 und Thomson, 1985). In diesem Gedankenspiel rast ein führerloser Zug auf eine Gruppe von Menschen zu. Der Zug könnte jedoch auf ein Nebengleis umgeleitet werden, wo er sehr wahrscheinlich einen einzelnen Menschen, der sich dort auf den Gleisen aufhält, töten wird. Soll man den Zug auf das Nebengleis umleiten oder nicht?

Hinter dem grausamen Trolley-Problem lauert eine grundsätzliche ethische Frage: Darf man einen Menschen schädigen oder gar töten, um vielen anderen Menschen zu helfen? Aus utilitaristischer Sicht ist jede Entscheidung ausschließlich davon abhängig, ob durch sie die Gesamtsumme der Freude maximiert und des Leids minimiert wird. Bei der Abwägung, ob man einen einzelnen Menschen töten darf, um eine ganze Gruppe von Menschen zu retten, spricht vieles für die Umleitung des Zuges. Für die Deontologen ist diese Entscheidung jedoch ethisch nicht zulässig, da man durch die Umleitung des Zuges einen Menschen aktiv töten würde. In diesem Fall wird das nachfolgende Geschehen kein Unfall sein, sondern die vorsätzliche Tötung eines unschuldigen Menschen durch eine bewusste Handlung. Aus deontologischer Sicht verbietet sich aber die Instrumentalisierung eines Menschen für irgendeinen Zweck.

Überträgt man das ethische Dilemma auf autonome Autos, so lautet ein mögliches Szenario: Soll ein autonomes Auto – im Falle eines unvermeidlichen Unfalls – einen (1) einzelnen Fußgänger am Straßenrand, eine (2) Gruppe von Fußgängern auf der Straße oder den (3) Nutzer des Autos töten? Nehmen wir an, dass nur eine dieser drei Optionen zur Auswahl steht, da der Unfall durch ein technisches Problem der Bremsanlage oder durch Blitzeis nicht zu verhindern und der Nutzer abgelenkt ist – für welche Option soll sich das autonome Auto nun entscheiden?

Auch wenn eine derartige Situation auf den ersten Blick unwahrscheinlich anmutet, so ist sie doch keineswegs ausgeschlossen. Es gibt Probleme mit Bremsanlagen, es gibt Blitzeis und es gibt abgelenkte Fahrer. Letzteres wird in autonomen Autos vermutlich die Regel sein, und bei Millionen Autos und vielen Millionen Verkehrssituationen täglich, werden alle möglichen Formen von Unfällen weiterhin drohen und vom Auto Entscheidungen verlangen. Auch unwahrscheinliche Situationen werden früher oder später eintreten, und kaum jemand glaubt, dass keine Unfälle mehr passieren werden. Die Versicherungsunternehmen prognostizieren in einem Bericht mehr Unfälle in der Praxis des Straßenverkehrs als man heute theoretisch vermutet und warnen sogar vor steigenden Kosten angesichts der hochpreisigen Technik (vgl. GDV, 2017).

In einer US-amerikanischen Studie wurden die drei zuvor beschriebenen Alternativen – das Auto tötet einen oder mehrere Passanten oder den Nutzer – in mehreren Szenarien zur Wahl gestellt (vgl. Bonnefon, Shariff, & Rahwan, 2016). Grundsätzlich begrüßten die meisten Probanden ein utilitaristisches Verhalten autonomer Autos: Je mehr Menschen gerettet werden könnten, desto eher sollte das Auto einen einzelnen Passanten oder auch den Nutzer opfern. Zwei von drei Probanden halten diese Entscheidung zudem für moralisch richtig. In einem Szenario, in dem die Befragten mit ihrer Familie und ihren Kindern in einem solchen Fahrzeug sitzen, sagen jedoch drei von vier Probanden, dass das autonome Auto grundsätzlich seine Insassen schützen sollte. Die meisten Befragten würden es auch ablehnen, wenn autonome Autos per Gesetz dazu gezwungen würden, den Nutzer zu opfern – selbst, wenn dadurch zehn Menschenleben gerettet werden könnten.

Mit anderen Worten: Auch, wenn die meisten Menschen eine utilitaristische Entscheidung allgemein für moralisch richtig halten, würden sie diese trotzdem faktisch ablehnen, sollte sich ihr eigenes autonomes Auto derart verhalten oder verhalten müssen. Die meisten Menschen begrüßen zwar die technische Entwicklung und erkennen ihre Nutzenvorteile, lehnen die utilitaristische Entscheidung aber ab, wenn sie ihnen zum Nachteil gereicht. Für die Autohersteller und den Gesetzgeber ist dieses Dilemma und die nur vermeintlich utilitaristische Moral der Trittbrettfahrer ein ethisches Problem.

Angesicht der Ergebnisse dieser Studie ergibt sich aber auch für die deontologische Position ein Problem. Von John Rawls stammt die kontrafaktische Überlegung eines Urzustands, in dem Gerechtigkeitsfragen vor einem Schleier des Nichtwissens entschieden werden sollen (vgl. Rawls, 1979). Ist es in dieser Situation fair, autonome Autos zu erlauben? Die Zustimmung oder Ablehnung würde sicherlich stark davon abhängen, ob man sich als Nutzer oder als Passant entscheiden sollte. Da man aber genau dies, so die Idee von Rawls, nicht wissen soll, würden sich die meisten Menschen vermutlich wieder gegen die Einführung autonomer Autos entscheiden. Im Zweifelsfall wäre die Ermöglichung einer lebensbedrohlichen Technik für die meisten Menschen vermutlich ungerecht.

Der Philosoph Julian Nida-Rümelin erinnert an die kantische These, dass Freiheit, Autonomie und Würde eng miteinander verwoben sind (vgl. ausführlich Nida-Rümelin, 2014 und 2016). Ohne die Freiheit des Individuums, eine autonome Entscheidung für (oder gegen) eine vernünftige und begründbare Handlung zu treffen, verlören Menschen ihre spezifische Würde. Wer Menschen dieser Freiheit beraube, verletze ihre Menschenwürde. Autonome Autos sollen, wie Nida-Rümelin betont, aus der „auffälligen Naivität der utilitaristischen Logik“ (Nida-Rümelin, 2016) heraus eine Entscheidung ohne den Fahrer treffen. Die Software des vollautomatischen Autos würde dann aber verhindern, dass Menschen eine freie Entscheidung für eine Handlung treffen – und für diese Entscheidung dann auch die moralische Verantwortung tragen. Die „praktischen Deliberationen durch ein Optimierungskalkül zu ersetzen“ (ebd.), sei, so Nida-Rümelin, ein Verstoß gegen die Menschenwürde. Assistenzsysteme in Autos wären zwar hilfreich und sinnvoll, aber die Verantwortung für das Handeln und das Fahren eines Autos müssten beim Fahrer bleiben.

Die Verantwortung

Nach dieser ersten Prüfung utilitaristischer und deontologischer Argumente stellt sich die Frage nach der Verantwortung für die Entscheidungen und Handlungen autonomer Autos. Faktisch ist der Begriff des autonomen Autos jedoch irreführend, da das Fahrzeug nicht autonom im Sinne einer Selbstgesetzgebung sein kann. Das Fahrzeug kann keine Entscheidungen aus sich selbst heraus generieren, es ist und bleibt auf steuernde Algorithmen angewiesen. Daher wäre die Bezeichnung ‚algorithmengesteuertes Auto‘ (AGA) zutreffender, als von einer vermeintlichen Autonomie zu sprechen.

Die Frage nach der Verantwortung verlagert sich dadurch vom Fahrzeug auf den Algorithmus und damit auf die Frage, wer über die fundamentalen Heuristiken bestimmt, die dessen Entscheidungen zugrunde liegen. Die möglichen Entscheidungen lauten: „Wähle den geringstmöglichen Schaden (Präferenz Abwägung)“ oder „Schütze den Nutzer und die Beifahrer (Präferenz Selbstschutz)“. Im ersten Fall muss der Algorithmus erkennen können, wie viele Verletzte oder Tote durch welches Fahrmanöver entstehen würden, im zweiten deutlich weniger komplexen Fall nur jenes Fahrmanöver auswählen, welches den Schaden am Fahrzeug und an den Insassen minimiert. Die Entscheidung, ob das AGA die Präferenz Abwägung oder die Präferenz Selbstschutz wählen sollen, kann von drei Gruppen getroffen werden: Vom Nutzer des Fahrzeugs, vom Hersteller oder von der Politik.

Gäbe man die Verantwortung in die Hände des Nutzers, so würden AGAs sehr wahrscheinlich immer die Insassen schützen. Wer würde ernsthaft behaupten, dass Menschen bereit wären, sich für andere im Straßenverkehr zu opfern? Dies würde aber bedeuten, dass AGAs jedes potentielle Risiko für den Nutzer und die Mitreisenden minimieren und dafür auch die Schädigung oder gar die Tötung von Passanten akzeptieren würden. Jedes AGA wäre dann für jeden Menschen außerhalb des Fahrzeugs ein lebensgefährliches Risiko und die Bürger würden vermutlich sehr schnell ein Ende dieses Horrorszenarios und ein generelles Verbot von AGAs fordern.

Die Verantwortung dem Hersteller zu übertragen, verlangt eine komplexere Überlegung. In einem ersten Schritt stellt sich die Frage, ob sich alle Hersteller auf einen Algorithmus einigen würden. Sollten sie sich für die Präferenz Selbstschutz entscheiden, würde das zuvor genannte Horrorszenario eintreten. Dass sich die Hersteller darauf verständigen, den Nutzer nicht unter allen Umständen zu schützen, würde vermutlich zu typischen Reaktionen des Marktes führen: Auf einem Schwarzmarkt würden neu programmierte Chips angeboten, die den Schutz des Nutzers gegen entsprechenden Aufpreis versprechen. Oder die Käufer könnten diesen Schutz als exklusive Sonderausstattung bei einigen Premiummarken erwerben. In jedem Fall wären Autos bald wieder zumindest potentielle Mörder, denn es spielt für die Wahrnehmung der Passanten keine Rolle, ob einige wenige oder alle Autos den Nutzerschutz unter allen Umständen präferieren würden.

In einem zweiten Schritt stellt sich die grundsätzliche Frage nach der Verantwortung von Unternehmen: Wofür sind Unternehmen verantwortlich? Diese Frage wird seit Jahren in den Forschungsbereichen der Unternehmensethik mit den Schlagworten Compliance, Corporate Citizenship oder Corporate Social Responsibility untersucht. Aus guten Gründen sind nicht nur die meisten auch in Deutschland üblichen Termini, sondern auch die allermeisten Beiträge hierzu aus dem angloamerikanischen Bereich. Insbesondere in den Vereinigten Staaten von Amerika sind diese Themen seit langem sehr populär und hierfür gibt es die erwähnten guten Gründe: Die USA folgen auch auf diesen Feldern ihrer utilitaristischen Moral- und Rechtstradition und betrachten Unternehmen ganz pragmatisch wie natürliche Personen. Vor Gericht und in der Wahrnehmung der Öffentlichkeit sollen sich Unternehmen gesamthaft nicht nur auf die Gewinnmaximierung fokussieren, sondern auch ihre Rolle als ethisch verantwortliches und rechtstreues Mitglied der Zivilgesellschaft beachten. Wer diese moralischen Erwartungen ignoriert, muss am Ende spektakulärer Gerichtsprozesse mit drastischen Geldstrafen rechnen, die das Unternehmen zu zahlen hat: Die Autohersteller Toyota, General Motors und Volkswagen sowie die Banken JP Morgan, Bank of America und die Deutsche Bank mussten jeweils Milliardenbeträge an die Staatskasse zahlen.

In vielen Ländern Europas und insbesondere in der Bundesrepublik Deutschland ist der Rahmen der Fragestellung jedoch ein anderer, da hier eine andere Moral- und Rechtstradition zugrunde liegt. Weitgehend anerkannt ist, dass in Deutschland korporativ verfasste Akteure wie Unternehmen keine ethische Verantwortung tragen können, aus der sich eine rechtliche Schuld ableiten ließe (vgl. Engelhard & Trautnitz, 2005). In deutschen Gerichten können Unternehmen als juristische Personen lediglich auf der Grundlage des Zivilrechts und somit für Ordnungswidrigkeiten für schuldig befunden und zu begrenzten Geldstrafen verurteilt werden. Das deutsche Strafrecht kennt keine rechtliche Verantwortung von juristischen Personen wie Unternehmen. Strafrechtlich verantwortlich können nur natürliche Personen sein, also Eigentümer, Manager oder Mitarbeiter des Unternehmens (vgl. Trautnitz, 2008).

Die Begründung hierfür führt zurück ins dreizehnte Jahrhundert und ins kanonische Recht, als Papst Innozenz IV. eine korporative Verantwortung ablehnte: Korporationen seien lediglich fiktive Personen und könnten, da sie keine Seele besäßen, auch nicht exkommuniziert werden (vgl. Engelhart, 2010). Eine lange Tradition des Schuldstrafrechts geht von dem Grundsatz ‚no soul to damn, no body to kick‘ aus und führte zur dogmatischen Rechtstradition, dass Korporationen keine Straftat begehen können, sondern nur Menschen, also ‚beseelte‘ und somit moralfähige Wesen.

Diese Tradition stärkt auch Immanuel Kant, indem er die Moralität von der Legalität abgrenzt und Erstere auf das moralische Gesetz, Letztere auf das bürgerliche Gesetz zurückführt. Für Kant sind Freiheit und Vernunft die wesentlichen und notwendigen Voraussetzungen für selbstgesetzgebende Urteile. Über eine derartige Autonomie können jedoch nur Menschen verfügen, weder Tiere noch Korporationen. Für alle ethischen und rechtlichen Konsequenzen, die aus einem autonomen Urteil folgen, können daher auch nur freie und vernünftige Menschen die Verantwortung übernehmen. Aus dieser deontologischen Begründung Kants folgt die bis heute allgemein anerkannte kausale Beziehung zwischen Moral und Recht (vgl. Pfordten, 2005), die sich auch in den Grundsatzentscheidungen der obersten deutschen Gerichtshöfe regelmäßig nachlesen lässt.

Zwar gibt es regelmäßig Versuche, eine Wirtschaftsethik mit einer moralischen Verantwortung von korporativen Akteuren zu begründen, doch sind diese entweder utilitaristisch-pragmatischer Natur oder sie stützen sich auf konventionelle Zuschreibungen. Im ersten Fall sind die Begründungen aus alternativen, nicht-utilitaristischen Positionen heraus zumindest strittig, im zweiten Fall sind sie oftmals lückenhaft in der Argumentation. Auch die sehr ausführliche und kenntnisreiche Arbeit von Christian Neuhäuser, der Unternehmen als moralische Akteure betrachtet, bleibt schlussendlich problematisch. Denn für Neuhäuser sind „Unternehmen vernünftige Akteure, die überlegen können und auch aus moralischen Gründen handeln können“ (Neuhäuser, 2011, S. 134). Da Unternehmen, so Neuhäuser, in „manchen Ländern sogar strafrechtlich belangt werden können“ und „wir ihnen im öffentlichen Diskurs moralische Vorwürfe [machen], und vor allem können sie selbst auf diese Vorwürfe reagieren, sie verstehen also offensichtlich die Sprache der Moral“ (a. a. O., S. 133), seien Unternehmen und Korporationen moralische Akteure.

Neuhäuser wendet sich in seiner Argumentation entschieden gegen das „Dogma des methodologischen Individualismus“ (a. a. O., S. 41) und behauptet, dass die Mitarbeiter eines Unternehmens „zwar freie und moralische Akteure“ seien, sie „davon aber keinen oder nur eingeschränkten Gebrauch machen, weil sie dem Zwang [sic!] der Unternehmen unterworfen sind“ (a. a. O., S. 168). Angesicht „der düsteren Aussicht“ (a. a. O., S. 169) auf die individuellen Folgen moralischen Handelns eines Mitarbeiters sind „Unternehmen […] als korporative Akteure schuld an dem, was geschehen ist. Die individuellen Akteure sind nicht schuld, und deswegen kann ihnen auch kein moralischer Vorwurf gemacht werden; eine gewissermaßen nachgeordnete Verantwortung haben sie aber trotzdem“ (a. a. O., S. 173).

Es fällt mir schwer, Christian Neuhäusers Argumentation hierbei zu folgen, und frage mich, ob der Vorwurf des Dogmatismus in die richtige Richtung zielt. So leichtfertig sollte man das Autonomieprinzip, welches das Fundament der Beziehung zwischen Moral und Recht bildet, nicht über Bord werfen. Vor allem in Deutschland gilt aufgrund der deontologisch geprägten Tradition: Wirtschaftsethik ist im Kern Individualethik. Der methodologische Individualismus bietet gerade hier die Chance, aus der Trias Ethik, Moral und Recht eine zuweisbare und zurechenbare Verantwortung auch in Unternehmen argumentativ zu begründen – eine Debatte, die an dieser Stelle jedoch nicht weiterverfolgt werden soll und kann.

Nach diesem Exkurs kann ich zur Frage zurückkehren, wer – also welche natürliche Person(engruppe) – im Unternehmen nun die Verantwortung für die Entscheidung der Programmierung des Algorithmus treffen sollte. Möglich wäre es, dass der Geschäftsführer, der Vorstand oder die Eigentümer die Verantwortung übernehmen und den Programmierern eine klare Vorgabe machen. Doch wer von diesen Personen würde sich tatsächlich dafür aussprechen, die eigenen Kunden zu opfern? Die Präferenz Selbstschutz gälte in diesem Fall nicht nur für die Programmierung des Algorithmus, sondern vermutlich auch für die Entscheider.

Die letzte Instanz wäre nun die Politik. Sie könnte in einem demokratischen und rechtstaatlichen Verfahren darüber bestimmen, wie der Algorithmus lauten soll. Die vom Bundesministerium für Verkehr und digitale Infrastruktur eingesetzte Ethik-Kommission ‚Automatisiertes und vernetztes Fahren‘ stellte im Juni 2017 ihren Bericht vor (vgl. Ethik-Kommission, 2017). Die Kommission erkennt an, dass teil- und vollautomatisierte Verkehrssysteme der Verbesserung der Sicherheit aller Beteiligten im Straßenverkehr dienen. Sie betont jedoch, dass „der Schutz von Menschen Vorrang hat vor allen anderen Nützlichkeitserwägungen” (a. a. O., S. 10). Es dürfe nicht zu einer „Degradierung des Subjekts zum bloßen Netzwerkelement” (a. a. O., S. 11) kommen. Ausführlich widmet sich der Bericht dem hier vorstellten Dilemma der Programmierung des Algorithmus, kommt aber zu keiner klaren Aussage: Einerseits sollen technische Systeme Unfälle so gut wie möglich vermeiden helfen und insbesondere menschliches Leben schützen, andererseits betont die Kommission aber, dass eben diese technischen Systeme „nicht so normierbar [sind], dass sie die Entscheidung eines sittlich urteilsfähigen, verantwortlichen Fahrzeugführers ersetzen oder vorwegnehmen könnten“ (ebd.).

Der Politik stellt sich damit ein fundamentales verfassungsrechtliches Problem. In seinem Urteil zum Luftsicherheitsgesetz, dass den Abschuss eines entführten Passagierflugzeugs durch die Bundeswehr erlauben sollte, stellte das Bundesverfassungsgericht unmissverständlich klar, dass ein solches Gesetz der Menschenwürdegarantie des Grundgesetzes widerspräche und nicht zulässig sei (vgl. Luftsicherheitsgesetz, 2006). Ein Gesetz, dass Menschen als Mittel zum Zweck der Gefahrenabwehr einsetze, sie also zum Instrument eines Nutzenkalküls mache, sei in Deutschland weder legal noch legitim. Die Ethik-Kommission grenzt in ihrem Bericht zwar die abstrakte Quantifizierung bei der Programmierung der AGAs von dem konkreten Kontext beim Abschussbefehl eines Flugzeugs ab und empfiehlt, dass Ersteres aus Nützlichkeitserwägungen legitim sein sollte. Diese Unterscheidung zwischen abstrakten und konkreten Quantifizierungen ist jedoch kaum nachzuvollziehen, da Politiker bei einer Abstimmung über die Frage, ob AGAs die Abwägung oder den Selbstschutz präferieren sollen, eine grundsätzliche Entscheidung über die Zulassung der Instrumentalisierung von Menschenleben treffen müssten. Auch die Kommission erkennt selbstkritisch an, sie habe in dieser zentralen Frage „ihre Diskussion noch nicht befriedigend und auch nicht in jeder Hinsicht konsensual zu Ende führen können“ (a. a. O., S. 18).

Die Ethik-Kommission überreicht der Politik somit ein Danaergeschenk. Sie unterstützt die Euphorie der Politik, erklärt aber zugleich, dass die Politik das zentrale Problem der Entscheidung in Dilemma-Situationen nicht ohne ethische Konflikte wird klären können. Sollten die Politiker hierüber befinden, wird das Bundesverfassungsgericht sehr wahrscheinlich erneut an das Autonomieprinzip Immanuel Kants erinnern und den Politikern eine gesetzliche Regelung verbieten.

In der genaueren Prüfung, wer die Verantwortung für den Algorithmus übernehmen soll, der darüber entscheiden muss, wer in einer Dilemma-Situation zu retten und wer zu opfern sei, komme ich zu keinem Ergebnis. Weder die Nutzer noch die Hersteller oder die Politik können beziehungsweise sollten diese Verantwortung tragen. Ohne eine klare und öffentliche Entscheidung zum Problem der Präferenz der Abwägung oder des Selbstschutzes von AGAs sollte sich eine Zivilgesellschaft jedoch aus moralischen Gründen gegen sogenannte autonome Autos entscheiden.

Der Kompromiss

Seit Menschen sich als Kulturwesen verstehen und die Natur nutzen wollen und können, sind sie fasziniert von der Technik. Ohne das Feuer und das Rad, ohne Waschmaschinen und Computer, die Menschen von körperlicher und geistiger Arbeit entlasten, wäre ein Leben, das wir heute als menschenwürdig bezeichnen, kaum möglich. Die sogenannten autonomen Autos sind eine neue Verheißung, sie versprechen einen hohen Nutzen und eine weitere große Entlastung.

Fraglich bleibt aber, wie weit die Entlastung gehen darf. Der moderne Prometheus steht wieder einmal vor der moralischen Frage, ob er auch wollen soll, was er kann. Von Algorithmen gelenkte Autos entlasten eben nicht nur von körperlicher und geistiger Arbeit, sondern auch von Verantwortung. Das moralische Problem lautet aber, dass Menschen nur dann Verantwortung übernehmen können, wenn sie frei entscheiden können und selbst autonom sind. Freiheit in einem positiven Sinne meint, sich für oder auch gegen eine Festlegung und eine Handlung zu entscheiden. Nur dann können Menschen einen normativen Status einnehmen, den sie verantworten können und müssen (vgl. Brandom, 2015, S. 56f.). Wer die eigene Autonomie an andere Menschen oder einen Algorithmus abgibt, verliert seine Freiheit und die Verantwortung für seine Taten. Eine derartige Heteronomie ist aus ethischer Sicht keine Verheißung, sondern eine Bedrohung.

Der neueste Zeitgeist der Digitalisierung hat viele Prediger und das sogenannte autonome Auto ist nur eines ihrer vielen Reliquien. Die eschatologischen Versprechungen der Digital-Prediger über die Zukunft der Arbeit, der Mobilität und der Lebensführung künden von glanzvollen Zeiten. Ein ehrlicher Diskurs über ihre Versprechen muss aber auch ethische Probleme der Freiheit und der Autonomie des Menschen zulassen. Diesen offenen Diskurs muss die Zivilgesellschaft auch in Schulen und Hochschulen führen und auch von der freiwilligen Beschränkung der Techniknutzung handeln.

Der moderne Prometheus sollte sich vernünftig und reflektiert überlegen, wo die Grenzen seiner entfesselten Macht liegen sollen. Kaum jemand bezweifelt, dass Unfälle auch mit AGAs geschehen werden und Menschen auch in Zukunft verletzt und getötet werden. Viele Assistenzsysteme, die einparken oder Fahrspuren und Abstände kontrollieren, sind hilfreich und nützlich – doch sie berauben den Fahrer nicht seiner Autonomie. Der moralische Preis, den wir alle zahlen, wenn Algorithmen uns die Verantwortung für unser Tun abnehmen, ist zu hoch – der Preis wäre unsere Freiheit.

 

Literaturverzeichnis

Bonnefon, J.-F., Shariff, A., Rahwan, L. (2016): The social dilemma of autonomous vehicles. In Science, 352, S. 1573 – 1576.

Brandom, R. (2015): Wiedererinnerter Idealismus. Frankfurt am Main: Suhrkamp.

Engelhard, J., & Trautnitz, G. (2005): Tragen Unternehmen Verantwortung? Überlegungen zur Fundierung des Konzepts korporativer Verantwortung. In M.-J. Oesterle & J. Wolf (Hrsg.): Internationalisierung und Institution – Klaus Macharzina zur Emeritierung, S. 517 – 541. Wiesbaden: Springer Gabler.

Engelhart, M. (2010): Sanktionierung von Unternehmen und Compliance. Berlin: Duncker & Humblot.

Ethik-Kommission (2017): Ethik-Kommission – Automatisiertes und vernetztes Fahren. Von Bundesministerium für Verkehr und digitale Infrastruktur. Unter https://www.bmvi.de/SharedDocs/DE/Anlage/Presse/084-dobrindt-bericht-der-ethik-kommission.html?nn= 12830. Abgerufen am 20. Juni 2017.

European Commission (2017): ec.europa.eu. Von Mobility and Transport – Road Safety. Unter: http://ec.europa.eu/transport/road_safety/specialist/statistics_en. Abgerufen am 20. Joni 2017.

Foot, P. (1967): The Problem of Abortion and the Doctrine of the Double Effect. Oxford Review, 5/1967.

GDV (2017): Automatisiertes Fahren. Von Gesamtverband der Deutschen Versicherungswirtschaft e.V. Unter: http://www.gdv.de/2017/06/weniger-unfaelle-teurere-reparaturen. Abgerufen am 20. Juni 2017

Grossarth, J. (2017): Selber lenken mit Sonderlizenz. In:  Frankfurter Allgemeine Zeitung, 12. Juni 2017, S. 18.

Jonas, H. (1984): Das Prinzip Verantwortung. Frankfurt am Main: Suhrkamp.

Lin, P. (2013): The Ethics of Autonomous Cars. Von The Atlantic. Unter: https://www.theatlantic.com/technology/archive/2013/10/the-ethics-of-autonomous-cars/280360. Abgerufen am 20. Juni 2017

Luftsicherheitsgesetz (2006): Bundesverfassungsgericht 115, Urteil vom 15. Februar 2006 – 1 BvR 357/05

Luhmann, N. (2000): Organisation und Entscheidung. Opladen: Westdeutscher Verlag.

Neuhäuser, C. (2011): Unternehmen als moralische Akteure. Berlin: Suhrkamp.

Nida-Rümelin, J. (2014): Selbstfahrende Autos und Trolley-Probleme: Zum Aufrechnen von Menschenleben im Falle unausweichlicher Unfälle. In D. Sturma, L. Honnefelder & M. Fuchs (Hrsg.): Jahrbuch für Wissenschaft und Ethik, Band 19, S. 5 – 23. Berlin: de Gruyter.

Nida-Rümelin, J. (2016): Lasst die Hände am Steuer. In: Frankfurter Allgemeine Zeitung, 17. Juli 2016, S. 22.

Pfordten, D. v. (2005). Rechtsethik. In J. Nida-Rümelin (Hrsg.): Angewandte Ethik. Die Bereichsethiken und ihre theoretische Fundierung, S. 202-300. Stuttgart: Kröner.

Rawls, J. (1979): Eine Theorie der Gerechtigkeit. Frankfurt am Main: Suhrkamp.

Shelley, M. (1986): Frankenstein. Stuttgart: Reclam.

Statistisches Bundesamt (2017): 7,1 % weniger Verkehrstote im Jahr 2016. Von www.destatis.de. Unter https://www.destatis.de/DE/PresseService/Presse/Pressemitteilungen/2017/02/PD17_065_46241.html;jsessionid=AA30C394EEACF111DA9648298DEA6C79.cae4. Abgerufen am 20. June 2017

Thomson, J. J. (1976): Killing, Letting Die, and the Trolley Problem. In The Monist, Band 59, S. 204 – 217.

Thomson, J. J. (1985): The Trolley Problem. In The Yale Law Journal, Band 94, No. 6, S. 1395 – 1415.

Trautnitz, G. (2008): Gewinnprinzip oder “moralische” Unternehmensführung? Das Recht als die vergessene Kategorie der Unternehmensethik. In A. G. Scherer, & M. Patzer (Hrsg.): Betriebswirtschaftslehre und Unternehmensethik, S. 145 – 167. Wiesbaden: Springer Gabler.

WHO (2017). Global status report on road safety 2013. Von World Health Organization. Unter http://www.who.int/violence_injury_prevention/road_safety_status/2013/en. Abgerufen am 20. Juni 2017

 

Hier gibt’s die PDF-Version des Fachartikels