Thomas Levermann: Wie Algorithmen eine Kultur der Digitalität konstituieren: Über die kulturelle Wirkmacht automatisierter Handlungsanweisungen in der Infosphäre

Kaum ein anderer Begriff wird häufiger mit der Digitalisierung assoziiert, wie der des Algorithmus. Sie dringen immer tiefer in unseren Lebensalltag ein, sei es beim googeln, bei der Nutzung von Sozialen Medien oder bei der Konversation mit smarten Assistenten wie Alexa von Amazon oder Siri von Apple. Mit Ehrfurcht und begleitet von einem gewissen Unbehagen nutzen wir sie, um die Komplexität des Alltags in Zeiten von Big Data zu reduzieren – alles ganz smart. Aber was genau sind Algorithmen und was vollziehen sie? Dieser Beitrag will angesichts der Wirkmächtigkeit des Begriffs das Wesensmäßige von Algorithmen, ihre Legitimation und den Einfluss auf unsere sozialen Praktiken und damit auch die medialen Praktiken reflektieren. Es wird aus kulturphilosophischer Perspektive gezeigt, dass Algorithmen als Handlungsträger performativ Bedeutung generieren und eine Kultur der Digitalität konstituieren.

Wenn wir Suchmaschinen wie Google einsetzen, um für uns relevante Informationen zu finden, wenn wir im Internet bei Amazon elektronisch einkaufen, wenn wir Onlinemedien  wie Spiegel-Online nutzen ode­r uns über das Denken, Fühlen und Handeln unserer Freunde durch Facebooks Newsfeed auf dem Laufenden halten, dann haben diese Anbieter zuvor Mengen an Daten gesammelt, analysiert, verknüpft und zum Abruf durch uns vorgehalten. Menschen und Maschinen generieren immer mehr dieser riesigen Daten- und Informationsmengen, sei es über Soziale Medien, gescannte Bücher, Überwachungskameras, diversen Sensoren, Kundenkarten, Bewegungsdaten, Reisebuchungen, Mediennutzung, Metadaten etc. Diese sind in Ihrer Komplexität nur noch durch Informations- und Kommunikationstechnologien (IKT) beherrschbar. Entsprechend nutzen wir beispielsweise Smartphones mit schnellen Prozessoren und Dienste wie Google oder Facebook. Voraussetzung für diese Form des Weltzugangs ist ein Prozess der Digitalisierung, ein Vorgang der Datencodierung und demzufolge eine informationstechnische Voraussetzung für die Informationsrückgewinnung aus Daten. Die Informatik bezeichnet das als Information Retrieval, bei der es um die Strukturierung, Organisation und Rückgewinnung von Informationen aus komplexen Datenmengen geht (vgl. Stock, 2017).

Diese Fähigkeit, riesige, in Zettabyte anfallende Datenmengen zu analysieren, zu aggregieren und Querverbindungen herzustellen wird auch als Big Data bezeichnet (Boyd/Crawford, 2013, S. 188; Baecker, 2013, S. 156 ff.; Floridi, 2015, S. 31 f.). Ein Instrument des Big Data und des Information Retrieval und damit der Komplexitätsreduktion sind Algorithmen, die jedoch für uns nicht sichtbar und selten nachvollziehbar sind. Entsprechend wird kaum ein Begriff häufiger, und begleitet von einem gewissen Unbehagen, mit Digitalisierung assoziiert als dieser. Ihnen wird eine verborgene Macht zugesprochen, weil sie uns als Black Box, zumindest aber opak erscheinen (Boyd, 2018). Aber was genau sind Algorithmen und was vollbringen sie?

Seinen Ursprung hat der Begriff in der Mathematik, später der Informatik und jetzt wird er zunehmend im kulturwissenschaftlichen Kontext verwendet. Der Kultur- und Medienwissenschaftler Felix Stalder (2016, S. 1 und 168) versteht unter Algorithmen zunächst allgemein Handlungsanweisungen, „wie mittels einer endlichen Zahl von Schritten ein bestehender Input in einen angestrebten Output überführt werden kann“, um vordefinierte Probleme zu lösen. Er sieht in seiner Definition auch Ikea-Bauanleitungen oder Kochrezepte als Algorithmen an, denn sie funktionieren ebenfalls nach dem „wenn A, dann B“-Prinzip.

In der Kultur, in der wir leben, berechnen immer mehr technische Apparate, Algorithmen und Netzwerke die riesigen Datenmengen und Handlungsanweisungen automatisiert: „[…] ohne Algorithmen wären wir blind“ (Stalder, 2016, S. 13). Für die Gesamtheit dieser automatisierten Berechnungstechniken verwendet der Medienphilosoph Frank Hartmann den Begriff der Algorithmizität und meint (2018, S. 152 f.): „Algorithmen funktionieren als Sortierroutinen des menschlichen Daseins in Zeiten der Digitalkultur.“ Entsprechend gehört die Algorithmizität zu einer wesentlichen Eigenschaft einer Kultur der Digitalität, weil sie den Informationsüberfluss reduziert und formt und infolgedessen Grundlage des singulären und gemeinschaftlichen Handelns werden können, meint Stalder (2016, S. 13).

Der italienische Philosoph und Informationstheoretiker Luciano Floridi verwendet für die damit verbundene digitale Revolution der post-industriellen Zeit den Begriff der Infosphäre. Sie zeichnet sich dadurch aus, dass der Mensch als Vernunftwesen aus dem Mittelpunkt genommen wird sowohl gegenüber anderen Menschen als auch gegenüber Maschinen und Medien. Als ‚Inforgs’ (Informationelle Organismen) teilen wir mit anderen informationellen Akteuren eine gemeinsame informationelle Umwelt (Floridi, 2015, S. 129 f.) Algorithmen sind in einer derartigen Infosphäre keine reinen Werkzeuge mehr, mit denen wir in und mit unserer Umwelt interagieren, sondern sie schaffen und prägen unsere geistige und materielle Wirklichkeit. Auch David Beer (2017), britischer Soziologe, beschäftigt sich in seinem Beitrag „The social power of algorithms“ grundsätzlich mit der Algorithmizität. Er argumentiert, dass wir über die Algorithmen selbst als eine technische und materielle Präsenz hinausschauen müssen und untersucht, wie Algorithmen auch in sozialen Ordnungsprozessen eine Rolle spielen. Damit übersteigt ein Verständnis des Algorithmus die mathematisch-informationstechnische Dimension und unterliegt einer kulturellen Logik, weil Algorithmen soziale Bedeutung generieren. Demzufolge verkörpern sie Formen der Handlungsträgerschaft und Performativität (Seyfert/Roberge, 2018, S. 10).

Algorithmen werden, wie im Fall von Suchmaschinen, digitalen Landkarten oder Sozialen Medien, milliardenfach genutzt. Sie agieren gerade deshalb performativ und dynamisierend und legitimieren dadurch ihre Bedeutung. Nicht, weil die Funktionen der Algorithmen und das, was sie hervorbringen bedeutsam sind, sondern sie selbst als Objekte und ihre Algorithmizität bedeutsamer werden (Gillespie, 2018, S. 101).

Über den konstitutiven Beitrag von Algorithmen zugunsten einer Kultur, die zunehmend als digital bezeichnet wird, will dieser Beitrag Reflexionen anstellen. Ziel ist es entsprechend, das Wesensmäßige der Algorithmen aus kulturphilosophischer Perspektive zu beschreiben und ihre performative Bedeutung als Eigenschaft einer „Kultur der Digitalität“ kritisch zu reflektieren.

Die leitenden Fragen dazu lauten mithin: Woher stammt der Begriff des Algorithmus, welche Perspektive umfasst er? Was tun Algorithmen, was bringen sie kulturell hervor? Strukturieren sie lediglich als „Sortierroutinen“ in ungeordneten Infosphären und in welcher Relation stehen sie zu Big Data? Wie erlangen sie Legitimität? Worin liegt das Bedeutsame, obwohl sie zugleich als Handlungsanweisung recht „profan“ zu sein scheinen? Wie sind sie beschaffen, wenn sie das Soziale konstituieren, zugleich aber selbst konstituiert werden? Sind sie lediglich Werkzeuge für uns Menschen oder umgekehrt? Erschaffen wir die Algorithmen oder gestalten diese uns? Wie leistungsfähig sind sie kulturell und worin liegt die Performativität? Sind Algorithmen mehr oder weniger lediglich Formen bzw. Eigenschaften einer Kultur der Digitalität, wie Stalder sie kategorisiert (2016, S. 13)? Warum und wann kann stattdessen von einer Algorithmuskultur (Seyfert/Roberge, 2018) gesprochen werden?

Geschichte und Begriffsperspektiven des Algorithmus

Der Begriff „Algorithmus“ soll auf den persisch-arabischen Gelehrten Abu Ja’far Mohammed ibn Musa al-Khowarizmi zurückgehen. Er lernte in der ersten Hälfte des 9. Jahrhunderts am Hofe des Kalifen von Bagdad die indischen Zahlen kennen, führte anschließend die 0 in das arabische Zahlensystem ein und verfasste ein einflussreiches Lehr- und Rechenbuch darüber. Nach dessen Übersetzung in das Lateinische im 12. Jahrhundert wurde es unter Bezugnahme der Ortsabstammung Abu Ja’fars zitiert: al-Khowarizmi, der aus Khowarizm stammende. Über Sprachtransformationen und Verwendung der Worte „Dixit Algorithmi…“, „Algorithmi hat gesagt…“, wurde so der Begriff Algorithmus (Ziegenbalg et. al., 2016, S. 21 f.).

Als „Chiffre“ oder „Platzhalter“ dient der Begriff des Algorithmus heute unterschiedlichen Bedeutungszuordnungen oder gar „als Leerstelle für alles, was man nicht so genau verstanden hat“ (Stiller, 2015, S. 46; Gillespie, 2016, S. 19). Dennoch, seine Bedeutung liegt in der zentralen Rolle für die Mathematik und Prädikatenlogik, die Informatik und sie liegt in seiner Verwobenheit mit der Geistes- und Kulturgeschichte.

In der Mathematik ist der Algorithmus ein Rechenverfahren oder -vorgang als Gesamtheit der verschiedenen, endlichen Rechenschritte bzw. elementaren Operationen, die nach einem genau festgelegten, wiederholbaren Schema ablaufen, z. B. Regeln zur Berechnung von Zinseszinsen. Man könnte sehr verkürzt sagen, es handelt sich um das Rechnen mit Zahlen – ganz im etymologischen Ursprungssinn. Im heutigen Sinne des Terminus Berechenbarkeit kann man einen breiteren Begriff formulieren: Algorithmen sind eine endliche Folge elementarer Anweisungen zur exakten Beschreibung eines genau definierten Problems, d. h. einer bestimmten Erwartung oder Vorstellung. Am Anfang steht demnach ein mathematisierbares Problem und als Ziel eine Problemlösung, die mittels eines mathematischen Modells formalisiert und in rechnerischen Begriffen (Zahlen und Operatoren, d. h. Rechenvorschriften oder Kalküle wie Addition oder Division) ausgedrückt werden. Das gewünschte Resultat basiert dann auf eingegebenen Daten, für deren Art das Problem gelöst werden kann (Zweig, 2016). Kowalski (1979, S. 424) definiert ergänzend einen Algorithmus im Sinne der Prädikatenlogik, der aus zwei Komponenten besteht: „Algorithm = Logic + Control“. Was meint er damit? Der Algorithmus besteht aus einer logischen Komponente, die festlegt, was getan werden soll, und einer Kontrollkomponente, die bestimmt, wie es zu tun ist, d. h., wie die in den Algorithmus einfließenden Daten verarbeitet werden.

Der informationstechnische Algorithmusbegriff schließt an der Zwei-Komponenten-Definition Kowalskis an, indem ein Programm die Abarbeitung der Anweisungen durch einen Computer formalsprachlich formuliert. Nach der Implementierung dieser sogenannten Software in einem Computer als zentralem Werkzeug, ermöglicht derselbe deren Ausführung durch einen Prozessor, also Hardware (Dourish, 2016). In der Informatik werden entsprechend Algorithmen als Problemlösungsverfahren bezeichnet, die endlich, deterministisch, klar und präzise formuliert sowie effektiv und effizient sind und zudem als Computerprogramm hardwareseitig implementiert werden können. ‚Endlich‘ bedeutet in diesem Kontext: nach einer vorgegebenen Zahl an Schritten muss ein Ergebnis produziert sein. Mit ‚effektiv und effizient’ sind Ausmaß der Zielerreichung und Aufwandsminimierung der Ausführung von Algorithmen gemeint. Elementare Algorithmen in der Informatik sind ‚Sortieren‘, ‚Suchen‘, ‚Verweisen’ (sogenannte ‚Hashfunktionen‘, z. B. für die Kryptographie oder im Datenbankmanagement) oder auch ‚Graphenalgorithmen’, wie man sie in Netzwerken verwendet (Sedgewick/Wayne, 2014, S. 20 f.; Ottmann/Widmayer, 2012, S. 1; Dourish, 2016).

Fasst man beide Perspektiven zusammen, dann könnte man folgenden Prozess beschreiben: Für ein mathematisches Problem wird ein Algorithmus entworfen, der wiederum in einen Code programmiert wird, um anschließend als Handlungsanweisung den Computer die Lösung für spezifische Eingabedaten berechnen zu lassen (vgl. Zweig, 2016). Damit sind mehrere Problemstellungen verbunden auf die Gillespie (2016) hinweist, die hier jedoch nicht gebührend gewürdigt werden können: Operationalisierung der Aufgabe, Wertvorstellungen in den Zielsetzungen, Auswahlkriterien eines „korrekten“ Algorithmus etc. – insbesondere bei der Modellierung komplexer sozialer Aktivitäten. Davon abweichend werden moderne Algorithmen des „Machine Learnings“ auf einem Korpus existierender Daten trainiert, d. h. der Algorithmus wird dadurch dynamisch entwickelt, indem Designer und/oder Benutzer Daten bewerten, die eine Mustererkennung ermöglichen. Aus Vergangenheitsdaten wird über den Algorithmus statistisch auf Zukunftsdaten geschlossen (Gillespie, 2016, S. 20; Stalder, 2016, S. 177-181).

Eine dritte kulturphilosophische Begriffsperspektive von Algorithmus ist wesentlich interessanter. Dabei geht es nicht um die technische Spezifizität der Konstruktion und Formalisierung von Algorithmen, sondern um deren Entdeckungs- und Verwendungszusammenhang in kulturellen, also bedeutungskonstituierenden Kontexten.

Es soll an dieser Stelle zunächst ein unorthodoxer Kulturbegriff verwendet werden (Stalder, 2016, S. 16): „Als Kultur werden im Folgenden all jene Prozesse bezeichnet, in denen soziale Bedeutung, also die normative Dimension der Existenz, durch singuläre und kollektive Handlungen explizit oder implizit verhandelt und realisiert wird. Bedeutung manifestiert sich aber nicht nur in Zeichen und Symbolen, sondern die sie hervorbringenden und von ihr inspirierten Praktiken verdichten sich in Artefakten, Institutionen und Lebenswelten. Mit anderen Worten, Kultur ist […] handlungsleitend und gesellschaftsformend.“ Soziotechnische Systeme und institutionelle Prozesse als Teil kultureller und sozialer Praktiken sind für Stalder somit ebenfalls Algorithmen, wenn und weil in ihnen mehr oder weniger lange Entscheidungsketten automatisiert werden (Stalder, 2017, S. 1).

Einerseits werden immer mehr soziokulturelle Praktiken entdeckt, die quantifiziert, algorithmisiert und damit automatisiert werden können. Andererseits werden mit der Quantifizierung Werte zugeordnet, in Wertigkeitsordnungen überführt und institutionalisiert: Rankings und Ratings hierarchisieren, Screenings und Scorings klassifizieren ausgewählte Entitäten (Mau, 2017, S. 23-48.; Gillespie, 2016, S. 22). Als konkretes und ethisch diskussionswürdiges Anwendungsbeispiel eines derartigen Algorithmus, kann Chinas Social Credit System angeführt werden (Creemers, 2018). Mit diesem Zwangssystem soll ab 2020 das gesamte individuelle Verhaltensrepertoire der chinesischen Bürger beobachtet, erfasst, gesammelt, analysiert und in einem summarischen Punktwert durch Algorithmen verrechnet werden. Gesellschaftspolitisch gewünschtes Verhalten wird auf diese Weise mit Punkten belohnt, unerwünschtes mit Punktabzügen sanktioniert. Entsprechend wird soziales Verhalten durch die Menschen adaptiert – wie politisch beabsichtigt. Die soziale Kontrolle und Macht wird damit totalisiert. Wie müssen Algorithmen gebildet, strukturiert und entwickelt, kurz designt werden, um solche massiven Effekte zu erzielen?

Algorithmusdesign zwischen Berechnen und Programmieren

Das Arbeiten mit Algorithmen umfasst zwei Aspekte: Einerseits den Designprozess, andererseits den Abarbeitungsprozess. Nicht alle Probleme eignen sich, um eine Problemlösung mathematisch zu erfassen, einen passenden Algorithmus zu entwerfen und eine Lösung zu berechnen, z. B. eine kreative Neuschöpfung aus dem Nichts. Die Grenzen der Algorithmisierbarkeit sind dann auch die Grenzen des Computers (Ziegenbalg et. al., 2016, S. 203 ff.; Strahm, 1999, S. 8 f.). Erste Voraussetzung ist somit das Vorhandensein eines definierten Problems, das sich mit den Werkzeugen der Mathematik und formalen Logik lösen lässt. Zu den Werkzeugen gehören die Zahlen und Operatoren bzw. die symbolische Logik und Wahrheitstafeln. Eine Grundlage dafür ist die von Gottfried Wilhelm Leibniz entwickelte logisch-mathematische Universalsprache. Entsprechend braucht es Ideen eines menschlichen Designers zur konzeptionellen Lösung des Problems in einem Algorithmus. Dabei wird das Problem letztlich in kleinste Einzelschritte zerlegt, die dann nach Vorgabe des Algorithmus durchgeführt werden (Dourish, 2016).

Die Durchführung des Algorithmus ist eine profane Handlung, während das Design eine anspruchsvolle Aufgabe darstellt. Das Befolgen der Handlungsregeln kann in Abhängigkeit von der Komplexität des Algorithmus eine äußert aufwendige Tätigkeit sein. Insofern war es schon immer ein Ziel, dafür Maschinen zu entwickeln, die zum einen effizienter als Menschen sind, also schneller, genauer, zuverlässiger und günstiger, und die zum anderen keine negativen Auswirkungen aus monotoner, eintöniger Arbeit erleiden müssen. Immerhin, im 17. und 18. Jahrhundert war ein Computer „synonym mit ‚einer Person, die Berechnungen ausführt‘ “, jetzt ist er das Synonym für Maschinen, die Arbeitskraft ersetzen (Floridi, 2015, S. 128).

Mit Hilfe von Programmiersprachen können Algorithmen, auch dynamische Algorithmen des Machine Learning in Form von Code implementiert werden. Hierbei werden den Symbolen der Mathematik Symbole einer maschinenlesbaren Sprache zugeordnet. Darin enthalten sind dann neben den Operatoren auch die Daten, die entweder endogen im Code fest verankert sind oder exogen hinzugefügt werden, z. B. aus Sensoren, Eingabedaten über Peripheriegeräte oder als Ergebnis anderer Algorithmen. Die Berechnung und Darstellung des Datenoutputs übernimmt dann ein Computer in Form von Ergebnissen, wie der Google „PageRank“, der Algorithmus der gleichnamigen Suchmaschine, über die sogenannte „Search Engine Result Page“ oder der „EdgeRank“ in den Newsfeed bei Facebook. Darüber hinaus kann der Datenoutput auch mittels Aktuatoren über elektrische Signale mechanische Steuerungen betätigen, etwa Bremsen oder Lenken in selbstfahrenden Autos (Zweig, 2016; Reichmann, 2019; Dourish, 2016). Ethische Fragestellungen oder Aspekte der Algorithmengüte können in dieser Arbeit nicht erörtert werden. Dazu gehören Fragen über richtig und falsch, gut oder böse, fair oder unfair. Vergleiche dazu etwa Zweig et. al. (2017) oder Rath et. al. (2019). Im Ergebnis kann festgehalten werden: mathematisches Problem und mathematische Lösung werden von Menschen entwickelt, mit all deren Wertungen und Wertzuordnungen, also normativ, und mit vielen subjektiven Modellierungsentscheidungen. Zudem ist der Algorithmus auch kein fixes Objekt, sondern wandelt sich dynamisch, weil er mit anderen Algorithmen vernetzt ist und er von hunderten Designern permanent verfeinert wird, z. B. Google’s PageRank (Stalder, 2016, S. 188; Gillespie, 2016, S. 22). Auch die Entscheidung über Auswahl und Einsatz von Algorithmen treffen Menschen. Dagegen berechnen die Algorithmen das Ergebnis scheinbar objektiv, weil prozessoral im Computer (Zweig, 2016). „Das ist die Magie des Profanen“, formulieren es Seyfert/Roberge (2018, S. 17) und weisen auf die Stärke der Algorithmen hin, Objektivität auf die Welt zu projizieren, z. B. in Form von Listen.

Nachdem deutlich geworden ist, in welchem Zusammenhang Rechnen und Programmieren stehen und welches Gewicht der Ausführung dabei zukommt, bleibt als nächstes die Frage, auf welche Art und Weise Algorithmen Komplexität in der Infosphäre reduzieren und was dabei als komplex bezeichnet werden kann?

Der Algorithmus im Kontext von Big Data

Die Reduzierung von Komplexität ist mit dem Erscheinen des Menschen in der Welt dessen stetige Herausforderung, um Ordnung zu schaffen und das Chaos der vielfältigen Sinneseindrücke und zwischenmenschlichen Handlungen zu überwinden. Für dieses Ordnungserfordernis müssen Informationen über Kausalitäten und Werte von Entitäten sowie die Relationen und Interdependenzen unter ihnen selektiert und analysiert werden. Mit nichtlinear steigender Informationsmenge wird diese Aufgabe komplex und überfordert das Orientierungs- und Selektionsvermögen. Als komplex (im systemtheoretischen Sinn) kann dann eine zusammenhänge Menge von Entitäten bezeichnet werden, wenn nicht mehr jede Entität dieser Menge jederzeit mit jeder anderen Entität in Beziehung gesetzt werden kann (vgl. Luhmann, 2009). Bleibt die Frage, welche kulturellen Lösungen sich zur Komplexitätsreduktion und Ordnung entwickelt haben? Unter Ordnung verstehe ich hier sozial verankerte Werte und Bedeutungen einer zunehmend differenzierten Gesellschaft und die verschiedenen Formen von Wissen. Mit der Entstehung der Sprache, der Bilder und der Schrift werden Informationen über die Lebenswirklichkeit und deren Beherrschung ausgetauscht und textuell gespeichert und weitergegeben.

Anstatt uns auf Experten und Medien, den gesunden Menschenverstand, das Wort Gottes oder wissenschaftliche Erkenntnisse zu beziehen und uns vertrauensvoll darauf zu verlassen, spielen heute Algorithmen bei der Auswahl an Informationen mit steigender Komplexität durch Vernetzung im Sinne von Big Data eine immer größere Rolle. Algorithmen nutzen wir entsprechend für Konsumpräferenzen, die Navigation durch unbekanntes Terrain oder bei der Interaktion mit Anderen in Sozialen Medien. Je mehr Big Data zur Herausforderung wird, desto intensiver erfolgt die Nutzung von Algorithmen. Ja, ohne Big Data wäre die Frage zu stellen, ob der gesunde Menschenverstand nicht ausreichend wäre und auf den massenhaften Rückgriff auf Algorithmen nicht verzichtet werden könnte. Umgekehrt: würde es zur massenhaften Produktion, Sammlung und Datenspeicherung überhaupt kommen, wenn es keine Algorithmen gäbe? Damit werden sie zu einer Schlüssellogik, die die Informationsflüsse bestimmen. Sie bekommen dadurch die Macht, Bedeutungen zuzuweisen und zu steuern und so darzustellen, wie wir Menschen Informationen wahrnehmen, so Tarleton Gillespie (2014, 2016). Algorithmen als Schlüssel der Orientierung in der Infosphäre bestimmen auch deswegen die alltägliche Lebenswelt, weil Datenbanken, Prozessoren und Speichermedien nicht nur immer besser, schneller, mächtiger und billiger geworden sind, sondern weil sie in Technik eingebettet „smart“ sind, bequem sind. Denn, so Stalder (2016, S. 96), wir sind nicht in der Lage Milliarden Websites zu lesen und ihren Sinn zu erfassen, sondern dafür benötigen wir Suchalgorithmen, die Datenmengen auf eine wahrnehmbare Dimension reduzieren. Damit machen sie menschliches Verstehen und Verhalten in der Infosphäre nicht nur erst möglich, sie beeinflussen es, indem sie eine neue Form der Bedeutungsteilung und Sinnvermittlung erzeugen.

Wie werden nun Bedeutungen erzeugt, geteilt und informationstechnisch vermittelt? Zunächst liegen Daten als „relationale Ontologie“ atomisiert und nur lose zusammenhängend in relationalen Datenbanken, im Gegensatz zu hierarchischen Datenstrukturen. Erst durch eine spezielle und materialisierte Abfrage erhalten die Daten eine Ausdruckskraft. Gleichwohl werden sie durch das Datenbankmanagement kategorisiert und unterliegen dadurch einer semantischen und politischen Intervention (Gillespie 2014, S. 171 f.). Was durch Webcrawler von Suchmaschinen an Webseiten nicht erfasst wird, existiert nicht sichtbar, höchstens im „Deep Web“. Was den Definitionsanforderungen an „gute“ Informationen nicht entspricht, wird von Facebook algorithmisch zurechtgestuft oder aussortiert, z. B. „Hate-Speech“. Und was nicht einer bestimmten Kategorie oder Klasse zugeordnet wird, taucht nicht in deren Rankings, Ratings, Scorings oder Screenings auf. Durch die Muster, nach denen Informationen zugelassen oder ausgeschlossen werden ergibt sich eine „Gatekeeper-Funktion“, wie sie aus der Medienwelt des 20. Jahrhunderts bekannt ist – nur das Algorithmen automatisiert und ohne Bewusstsein nach starren Regeln handeln. Damit verbunden ist ein weiteres Phänomen: Algorithmen können nicht erklären, warum sie zu einem bestimmten Output kommen, insbesondere gilt dies für dynamisch erzeugte Algorithmen des Machine Learnings und Big Data (Dourish, 2016, S. 6 f.; Van den Boom, 2014, S. 36; Mainzer, 2018). Aufgabe dieser Algorithmen ist die Mustererkennung auf Basis trainierter oder auch untrainierter Daten und unsichtbarer Korrelationen. Je tiefer die Algorithmen über versteckte Schichten (sog. Hidden-Layer bei Deep-Learning-Algorithmen; Mainzer, 2018, S. 22 f.) zu einem Muster gelangen, desto weniger ist erklärbar, wie es zustande kommt. Ungeachtet dessen werden sie als Entscheidungsgrundlage verwendet, z. B. bei der Strafverfolgung und im Justizwesen (O’Neil, 2018).

Der eigentliche Wert von Big Data liegt aber nicht in den Daten, sondern in den vielen Mustern, die sich daraus algorithmisch extrahieren lassen und die als Output generiert werden. Darin sehen Danah Boyd und Kate Crawford (2013, S. 188) das Phänomen ‚Big Data’ begründet: auf dem Zusammenspiel einer Technologie maximaler Rechenleistung, hoher Präzision der Algorithmen, der Fähigkeit zur Analyse und Formulierung von Mustern und einer Mythologie, die glauben macht, Zugang zu einer höheren Form des Wissens und der Intelligenz zu haben.

Schließlich erfolgt der Output von ‚Big Data Analytics’ in typischen Ordnungsformen des Digitalen. Dazu zählen typischerweise Listen (Rankings) und damit verbundene Praktiken des Auswählens (Screenings), Sortierens und Bewertens (Scorings und Ratings) oder des Empfehlens („wer diesen Song gehört hat, hat auch jenen Song gehört“). Damit eröffnen sich neue Formen des Beobachtens, der Selbst- und Fremdverortung, des Unterscheidens und des wechselseitigen Referierens. Selbstverständlich auch individualisiert, personalisiert und kategorisiert (vgl. Mau, 2017; Passoth/Wehner, 2018).

Welches Zwischenfazit lässt sich ziehen? Algorithmen habe ihre Ursprungsdomäne der mathematischen Problemlösung verlassen, haben massenhaften Einzug in den Lebensalltag durch die Verbreitung der IKT gefunden, in der sie verwendet werden, um in der Infosphäre die Komplexität zu sortieren und verlieren zugleich in Zeiten des Big Data ihre Unschuld. Dabei wird ihnen noch Objektivität zugeschrieben, obwohl deren Wirkungen häufig opak bleiben. Im selben Augenblick schlagen sie mit ihren digitalen Ordnungsformen auf die Kultur, in der wir leben, immer nachdrücklicher durch. Algorithmen scheinen mehr als nur Komplexität zu reduzieren und eine Sortierfunktion zu besitzen. Es ist dementsprechend zu analysieren, welche Wirkungen sie im Vollzug entfalten, wie sie performativ wirken.

Performativität der Kultur

Um die kulturelle Logik der Algorithmen aus der Perspektive der Performativität betrachten zu können, will ich verdeutlichen, was Performativität im Kontext einer digitalen Kultur leistet. Denn wenn Algorithmen Handlungsanweisungen sind, dann muss gefragt werden was genau ‚Handeln‘ ist, wer der ‚Akteur‘ ist und ob es einen Dualismus von Subjekt und Objekt gibt. Damit ist das gemeint, was als ‚soziale Praktik‘ bezeichnet werden kann (Reckwitz, 2003, S. 282). Soziale Praktiken ergeben sich aus Handlungsgepflogenheiten – hier Handeln verstanden, als aus der Vernunft ausgeführtes Tun –, die sich zu Mustern und Stilen verdichten und Handlungszüge für andere erwartbar machen, wobei die Lebenswirklichkeit einen stetigen Wandel dieser Handlungsroutinen durch Aushandeln erfordert (Hörning, 2004, S. 19).

Die Performativität kann demnach einer Theorie sozialer Praktiken zugeordnet werden, die in ihrem Kulturverständnis dem Mentalismus (dem Geistigen, dem Intentionalen) als auch dem Textualismus (dem Symbolischen, dem Kommunikativen) entgegensteht (Reckwitz, 2003, S. 288; Schulz-Schaeffer, 2010). Die beiden wichtigsten Grundpositionen dieser Praxistheorie oder Praxeologie sind einerseits die Materialität des Sozialen und Kulturellen und zum anderen die implizite Logik des sozialen Lebens. Was bedeutet das? Das Verhalten der Akteure hat eine materielle Struktur: zum einen der menschliche Körper, der etwas ausführt, etwas praktiziert, und zum anderen Artefakte, d. h. ‚Dinge‘ mit denen Menschen umgehen. Die Dinge oder Objekte sind dabei Gegenstände, die sinnhaft gebraucht werden und deren praktische Verwendung Teil einer sozialen Praktik ist. Und das diese Praxis ‚Sinn macht‘ und keinen expliziten Regeln unterliegt, sondern auf praktisches Wissen und Können zurückgeführt wird, ist mit der impliziten Logik des Handelns gemeint. So kann man die Nutzung eines Smartphones zur Herstellung eines „Selfies“ und das anschließende Posting mit Hashtag und Emoticon desselben in einem Sozialen Netzwerk als soziale Praktik in diesem Sinne deuten.  

Performativ meint nun, dass sich kulturelle Prozesse und Dynamiken auf eine bestimmte Weise vollziehen und nur im ganzheitlichen Vollzug zu verstehen sind, d. h. ihre Wirkung erst im Vollzug der Aufführung ihren Sinn entfaltet (Volbers, 2014, S. 29). Dabei wird die Dichotomie von Subjekt und Objekt aufgehoben. Nicht die Intention des Subjektes ist entscheidend („ich wollte nur ein Erinnerungsfoto machen“), auch nicht der semantische Gehalt des Objektes („das bin ich auf der Fotografie vor dem Brandenburger Tor“), sondern allein die im ganzheitlichen Vollzug ausgedrückte Bedeutung und Sinnhaftigkeit. Es geht im Kern um das ‚Wissen-wie’ und das implizite Wissen der körperlichen Ausführung. Es geht auch darum, dass die Körperlichkeit des Vollzugs von der sozialen Umwelt als „skillful performance“ verstanden wird (Reckwitz, 2003, S. 290). So liegt der Sinn eines Selfies vielleicht in der Selbstdokumentation und -inszenierung, vielleicht aber auch in der Aktualisierung als Mitglied einer Peer-Group, das sich als „cool“ in Erinnerung ruft, weil das Selfie auf eine bestimmte Art und Weise „kompetent“ aufgenommen und mit einem ironischen Hashtag oder passenden Emoticon sozial geteilt wurde. Auf diese Art und Weise verwebt sich der Einzelne mit seiner community of practice, seiner gemeinschaftlichen Formation, und konstituiert sich und sein Selbst kommunikativ, zeigt Präsenz und generiert zugleich Feedback über die vernetzten Strukturen der Digitalität (Stalder, 2016, S.135 ff.; Reichert, 2015).

Der algorithmische Charakter sozialer Praktiken

Wenn man das Beispiel der skizzierten Selfie Culture in bspw. einer „Traveler Community“ betrachtet, dann erkennt man, dass diese Praxis einem algorithmischen Muster folgt. Auch hier haben wir es mit einem definierten Problem und einem Input zu tun, der nach impliziten, soziokulturell definierten Regeln in endlichen Schritten prozedural in Output transformiert wird. Dabei kommt den Regeln ein Charakter von Handlungsanweisungen zu, die in repetitiven Praktiken „einprogrammiert“ werden. Dieses Programm, also der durch diese sozialen Praktiken codierte Algorithmus, mithin der „kulturelle Code“ unterliegt dabei ständigen Modifikationen, analog Google’s PageRank oder den dynamischen Algorithmen des Machine Learnings, die ja ebenfalls permanent überarbeitet werden. Wie der technische Algorithmus, ist auch der sozialpraktische Algorithmus immer nur eine Momentaufnahme eines praktischen Wissens (Reckwitz, 2003, S. 292). Dieses umfasst erstens ein Wissen im Sinne eines interpretativen Verstehens, zweitens das methodische Wissen um die skript-förmige Prozedur und drittens ein motivational-emotionales Wissen, das als impliziter Sinn dafür, was man eigentlich bezwecken will, „worum es geht“, verstanden werden kann.

Neben dieser impliziten Logik müssen wir auch den Prozess der Handlungsausführung betrachten. Dabei benötigt der Algorithmus materielle Unterstützung in Form des menschlichen Körpers oder von Artefakten. Das wäre bspw. der Kochtopf für das Kochrezept in der analogen, das Smartphone inklusive Prozessor für das Selfie oder der Computer für hochkomplexe Programme des autonomen Fahrens in der digitalen Lebenswelt.

In diesem Sinne sind digitale Kulturen performative Kulturen, in denen häufig körperliche und technische Materialien agieren. Es handelt somit ein Hybrid aus Akteur und Aktant, womit der Bezug zu Bruno Latours Akteur-Netzwerk-Theorie, der ANT, hergestellt wäre. Darin wird die performative Logik von sozialen Praktiken betont, die folgend auf Algorithmen im Kontext der Digitalität übertragen und weiterentwickelt wird (Belliger/Krieger, 2006; Wieser, 2004, S. 95 und 102).

Performative Logik und Legitimität von Algorithmen

In der ANT wird insbesondere die Symmetrie betrachtet, d. h. Akteur und Aktanten handeln nicht als Subjekt und Objekt, sondern der Vollzug der Handlung erfolgt ganzheitlich. Der Subjekt-Objekt-Dualismus ist aufgehoben, weil beide in einer untrennbaren Beziehung zueinanderstehen. In einer Kultur der Digitalität ist der Akteur ein ‚User‘, ‚Nutzer‘ oder ‚Benutzer‘, also eine Person oder ein ‚Ding‘, die bzw. das etwas verwendet. Ein Akteur kann demnach nicht Nichts benutzen, aber er benötigt Handlungsalternativen die ein situiertes Handeln ermöglichen. Umgekehrt ist ein Algorithmus ohne Daten nur eine mathematische Fiktion, die als Prozedur nicht isoliert analysiert werden kann (Schulz-Schaeffer, 1998, S. 152 f.; Willson, 2017, S. 141). Und wenn der Akteur etwas benutzt, dann einen Aktanten, der ein Programm ausführen kann, das auf digitalisierten Codes basiert. In einer zunehmend digitalisierten Lebenswelt werden Prozesse folglich zunehmend entmaterialisiert und informatisiert, um Probleme entsprechend informatorisch durch Algorithmen zu lösen. Der Aktant als Artefakt ist dann das Programm, das auf einem Rechner läuft, Informationen verarbeitet und somit als Algorithmus existiert. Daraus ergeben sich neue Möglichkeiten für performative Praktiken und Interventionen, wenn man umgekehrt berücksichtigt, dass aus einem Aktanten auch ein Agent werden kann. Dieser Agent braucht – siehe oben – Handlungsoptionen, d. h. der Algorithmus ist fähig ein emergentes Resultat aus den Inputs zu genieren, wie es fortschrittliche Algorithmen des Machine Learnings können. So agieren z. B. selbstfahrende Autos oder Roboter in der Fabrikation selbständig in Räumen und können situiert im Netzwerk mit anderen Agenten und Aktanten Entscheidungen treffen.

Diese performative Logik ist der Vollzug des Prozessierens eines Algorithmus. Dessen kulturelle Wirksamkeit zeigt Tarleton Gillespie (2018) beispielhaft an seiner Untersuchung von Trending-Algorithmen auf, die nicht nur auf Facebook, Twitter oder Google, sondern allgegenwärtig Trends ausweisen und markieren, was „populär“ ist. Sie treten als automatisierte Gatekeeper auf, d. h. sie steuern den Überfluss der Informationen aus der Pluralität der Infosphäre und nehmen Einfluss auf Geschmäcker, Präferenzen, Ängste, Diskussionen usw. So sind sie zugleich Mechanismen der Verbreitung als auch der Bewertung und es ist unklar, ob sie Bedürfnisse widerspiegeln oder fabrizieren (Seyfert/Roberge, 2018, S. 18 ff.; Gillespie, 2018, S. 77 und 95). Beispielhaft sei an Trending Topics mit Hashtags wie „#metoo“ oder „#aufschrei“ bei Twitter erinnert, die feministische Diskurse auch außerhalb von Twitter dynamisierten.

Twitter’s Trending-Algorithmus sorgt für Aufmerksamkeit, lässt Nutzer neue Themen finden – vor allem: er bringt bis dahin nicht wahrnehmbare Inhalte zum Vorschein, lenkt die Aufmerksamkeit darauf, was bei anderen Interesse und Wohlgefallen oder Missfallen auslöst, er ist ein Barometer über die öffentlichen Diskurse außerhalb gemeinschaftlicher Formationen und vermittelt kulturelle Relevanz (Gillespie, 2018, S. 85). Anders als in traditionellen Kulturen findet diese Form der algorithmischen Kuration und Evaluation von Populärem jetzt nicht mehr durch den Experten und Opinion Leader statt (Diskjockeys, Filmkritiker, Feuilleton-Journalisten, Celebrities etc.), sondern von jedermann vermittelt und metrisch ausgebeutet von Algorithmen (Gillespie, 2018, S. 89 ff.).

Woher nehmen die Algorithmen ihre Legitimität zum Gatekeeping und zur Vermittlung der kulturellen Relevanz? Während in vordigitalen Kulturen Algorithmen für einzelne Fragestellungen in abgrenzbaren Kontexten eingesetzt wurden, werden diese – und das ist das Neue – gleich millionen- oder gar milliardenfach eingesetzt. Sie agieren erst deshalb performativ und dynamisierend. Zugleich sind Algorithmen selbst in ein Netz von Algorithmen eingebunden. Sie sind demzufolge bedeutsam, weil sie performativ sind und sie sind performativ, weil sie bedeutsam sind. Sie beziehen Ihre Legitimität aus dieser Performanz heraus, die in Echtzeit ganz funktional Lösungen liefern. Aus dieser Profanität resultiert zugleich eine unterstellte, geglaubte Objektivität und Autorität (Seyfert/Roberge, 2018, S. 12 und 16 f.). Der technische Charakter des Algorithmus wird als eine Garantie der Unparteilichkeit von Designern positioniert. Dieser soziotechnische Akteur verleiht den Ergebnissen Relevanz und Glaubwürdigkeit. Zugleich ist er eine Black Box oder zumindest opak, dessen Inneres häufig genug mythologisiert wird, anstatt es zu verstehen (Beer, 2017, S. 13; Gillespie, 2014, S. 179 ff.).

Kultur der Digitalität

Damit der Zusammenhang zwischen Algorithmizität und digitaler Kultur diskutiert werden kann, soll auf vier Kulturbedeutungen zurückgegriffen werden, die Hubertus Busche beschreibt (2018): Auf der einen Seite entwickelt er zwei individualistische Perspektiven einer „Kultur 1“, die man betreibt sowie einer „Kultur 2“, die man hat, und auf der anderen Seite zwei gesellschaftliche Perspektiven einer „Kultur 3“, in der man lebt und einer „Kultur 4“, die man schafft, fördert und gegebenenfalls verehrt. Diese Grundbedeutungen sind miteinander verschränkt und müssen in ein gesamthaftes Kulturverständnis integriert werden, denn Individuen prägen ganz unterschiedlich die Kulturen 1 und 2 und bringen diese in die Gesellschaft ein, umgekehrt formatiert eine eingespielte Kultur 3 und 4 mit ihren symbolischen Formen die Individuen und kanalisiert ihr Gestaltungsvermögen. Sozialwissenschaftliche Disziplinen orientieren sich häufig an der Kultur 3, so Busche (2018, S. 26). Aus dieser Perspektive heraus kennt Kultur 3 in Bezug auf die menschlichen Tätigkeiten kaum Grenzen. Sie reicht von den für eine bestimmte Gesellschaft typischen Formen der Arbeit, des Gütertausches und deren jeweiligen Konventionen über Gewohnheiten des Essens, Trinkens, Kleidens, Wohnens und Kommunizierens bis hin zur Religion und den Denkmustern in Weltbild und Weltdeutung. In den letzten 30 Jahren haben die Menschen wesentliche Teile der Kulturarbeit – das Sortieren, Klassifizieren und Hierarchisieren von Menschen, Orten, Objekten und Ideen – zunehmend an Rechenprozesse delegiert (Striphas, 2015, S. 395). Daraus sind eine Reihe von Kultur-Komposita entstanden, die im Umfeld der Digitalität verwendet werden: Digitale Kultur, Netzkultur, Onlinekultur, Umsonstkultur, Algorithmuskultur, New Media Culture und eben eine Kultur der Digitalität, wie Felix Stalder ihn verwendet. Sein Kulturverständnis ist praxeologisch und performativ ausgerichtet: „Mit anderen Worten, Kultur ist […] handlungsleitend und gesellschaftsformend.“ (Stalder, 2016, S. 16). Durch Materialisierung und Wiederholung wird Bedeutung sichtbar gemacht und sozial verhandelt. Die Aushandlungspraktiken finden dabei vor allem in gemeinschaftlichen Formationen statt. Sein Digitalitätsverständnis schließt daran an: Auf Basis digitaler Technologien und Netzwerke wird ein „Set von Relationen“ genutzt, um persönliches und kollektives Handeln zu realisieren. Zugleich verweist ‚Digitalität’ auf Konstitutionen und Verknüpfungen sowohl menschlicher als auch nicht-menschliche Akteure.

Eine Erweiterung dieser Kulturperspektive der Digitalität lässt sich mit dem ebenfalls praxeologischen Kulturverständnis nach Andreas Reckwitz (2018) entwickeln. Er siedelt ‚Kultur’ zwischen Kultur 3 und Kultur 4 an bzw. erweitert den „schwachen“ Kulturbegriff 3“ um Besonderheiten einer „starken“ Kultur 4, wonach kulturelle Akteure und Artefakte – „Entitäten“ – einen eigenen Wert haben, der in ihnen selbst verankert und nicht nur instrumentell zu denken ist. Diese Werte bilden sich performativ immer wieder neu in einem Prozess der „Kulturalisierung“ und nicht mehr in einem der Rationalisierung (Reckwitz, 2018, S. 52 und 2017, S. 233; Busche, 2018, S. 26 f.). Die Kulturalisierung erfolgt wesentlich durch Prozesse einer affektiven Valorisierung, durch den Werte zugeschrieben und gesichert werden. Entitäten werden damit vor allem einzigartig, nicht austauschbar, sie werden singulär, und digitale Technologien sind die allgemeine Infrastruktur zu ihrer Fabrikation, das digitale Netz ist die „Kulturmaschine“, so Reckwitz (2017, 229). Ähnlich der ANT, hebt auch diese Kulturmaschine den Dualismus von Subjekt und Objekt auf.

Ein eigener Wert kann auch Algorithmen attestiert werden. Keine Erweiterung, aber eine Vertiefung des Kulturbegriffs im Kontext der Digitalisierung und Infosphäre lässt sich bei Tarleton Gillespie (2018, S. 75 ff.) nachvollziehen, der speziell in seinem Verständnis von digital ausgebreiteter Performativität Algorithmen einen eingebetteten, „geheimen“ Wert zuschreibt. Auch ihm greift es dabei zu kurz, ein Einwirken der Algorithmen in kulturelle Dynamiken als Ursache-Wirkungs-Beziehung zu sehen. Er will zeigen, wie Algorithmen selbst zur Kultur werden, und diese nicht nur attributiv prägen, wie es bei Felix Stalder der Fall ist. Mit seiner Studie über Trending-Algorithmen, aber auch nachvollziehbar bei Google, Facebook und anderen Diensten, legt er dar, wie diese selbst aus sich heraus kulturell bedeutsam werden, „[…] wenn ihre spezifischen Arten von Behauptungen lesbar, deutbar und strittig werden.“ (Gillespie, 2018, S. 100). Damit und mit der Sichtbarkeit des Outputs von Algorithmen und ihrem erheblichen funktionalen Bedeutungszuwachs werden sie zugleich als Kultur bedeutsam. Paul Dourish meint (2016, S. 1): „When digital processes become more visible as elements that shape our experience, then algorithms in particular become part of the conversation about how our lives are organized.“ Beobachtbar ist das an den Diskussionen über Filterblasen oder der ökonomisch ausgerichteten Suchmaschinenoptimierung zur besseren Platzierung auf den Suchergebnisseiten.

Postmoderne Kulturtechniken, die eng mit fortgeschrittenen Leistungen der materiellen IKT verwoben sind – Mashup, Remix, Sampling etc. – ermöglichen eine Referenzierung bzw. Rekombination vorhandener Entitäten, die neue Bedeutungen schaffen. Darüber hinaus sind IKT an der Bildung und Dynamik von gemeinschaftlichen Formationen beteiligt. Wenn man jetzt berücksichtigt, dass sowohl Referenzierung, als auch Gemeinschaftlichkeit als Formen einer digitalen Kultur nur auf Basis von Algorithmen möglich sind, dann kommt ihnen mehr zu, als nur eine Form oder einfache Eigenschaft einer Kultur der Digitalität zu sein, wie es Stalder (2016, S. 13) wertet. Dann begründen Algorithmen performative Kulturen in der Digitalität. Der Vollzug von Handlungen ist aus praxeologischer Sicht ohne eine algorithmische Rahmung nicht möglich. Algorithmen sind konstitutiv und eine Möglichkeitsbedingung für Performativität – das gilt in der Infosphäre notwendigerweise mehr denn je.

Fazit

Angesichts der Bedeutung und ihres konstitutiven Charakters, die Algorithmen in einer Infosphäre haben, wäre zu fragen, ob nicht spezifischer von einer Algorithmuskultur der Digitalität gesprochen werden sollte. Galloway (2006) deutete die postmoderne Kultur als Kultur des Algorithmus, die Seyfert und Roberge (2018) übernehmen, aber um zugleich auf die Pluralitäten hinzuweisen, die damit verbunden sind. Es gibt nicht eine Kultur der Algorithmen, es gibt nur multiple Kulturen einer Algorithmizität, die aufgrund ihrer Opazität nicht weiter abgegrenzt werden können (Dourish, 2016, S. 6 ff.). Zugleich zeigt die zunehmende Dichte an Veröffentlichungen zu diesem Thema (siehe auch: Social Media Collective, 2016), den Bedarf an Aufklärung angesichts der Wirkmächtigkeit des Begriffs „Algorithmus“. Aus kulturphilosophischer Perspektive gilt es, die unterschiedlichen Perspektiven aus Kultur- und Wissenssoziologie sowie Medien- und Technikphilosophie und den Science and Technology Studies (STS) zu durchdringen und eine dichtere Begrifflichkeit einer algorithmischen Kultur der Digitalität zu entwickeln. Damit wir Algorithmen besser verstehen lernen und nicht selbstverschuldet unmündig werden.

Literaturverzeichnis

Baecker, D. (2013).
Metadaten. Eine Annäherung an Big Data, in: Geiselberger, H., & Moorstedt, T. (Hg.). (2013). Big Data: das neue Versprechen der Allwissenheit. Suhrkamp Verlag, S. 156-186.

Barad, K. (2017).
Agentieller Realismus, in: Bauer, S., Heinemann, T., & Lemke, T. (Hg.). (2017). Science and technology studies: klassische Positionen und aktuelle Perspektiven. Berlin: Suhrkamp Taschenbuch Wissenschaft, S. 574-644.

Beer, D. (2017).
The social power of algorithms, in: Information, Communication & Society, Vol. 20, No. 1, 2017, S. 1–13.

Belliger, A., & Krieger, D. J. (Hg.) (20069).
ANThology. Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie, Bielefeld: transcript verlag.

Boyd, D. (2018).
Wider die digitale Manipulation, Teil I, in: Blätter für deutsche und internationale Politik, Nr. 8, 2018. Im Internet verfügbar: https://www.blaetter.de/archiv/jahrgaenge/2018/august/wider-die-digitale-manipulation (28.08.2018).

Boyd, D., & Crawford, K. (2013).
Big Data als kulturelles, technologisches und wissenschaftliches Phänomen, in: Geiselberger, H., & Moorstedt, T. (Hg.). (2013). Big Data: das neue Versprechen der Allwissenheit. Suhrkamp Verlag, S. 187-213.

Busche, H. (2018).
„Kultur“: ein Wort, viele Begriffe, in: Busche, H., Heinze, Th., Hillebrandt, F., & Schäfer, F. (Hg.), Kultur – Interdisziplinäre Zugänge, Wiesbaden: Springer Fachmedien Wiesbaden, S. 3-41.

Capurro, R. (2017).
Homo Digitalis, Anthropologie – Technikphilosophie –
Gesellschaft, Wiesbaden: Springer Fachmedien.

Creemers, R. (2018).
China’s Social Credit System: An Evolving Practice of Control, im Internet: verfügbar unter Social Science Research Network (SSRN) https:// papers.ssrn.com/sol3/papers.cfm? abstract_id=3175792 (07.07.2018).

Dourish, P. (2016).
Algorithms and their others: Algorithmic culture in context, in: Big Data & Society, Vol. 3, No. 2, 2016, S. 1-11.

Floridi, L. (2015).
Die 4. Revolution. Wie die Infosphäre unser Leben verändert, Berlin: Suhrkamp Verlag.

Galloway, A.R. (2006).
Gaming: Essays on Algorithmic Culture, in: Electronic Mediations, Vol. 18, Minneapolis: University of Minnesota Press, S. 1-143.

Gillespie, T. (2014).
The Relevance of Algorithms, in: Gillespie, T., Boczkowski, P. J., & K. A. Foot (Hg.). Media Technologies: Essays on Communication, Materiality, and Society, Cambridge, MA: The MIT Press, S. 167-194.

Gillespie, T. (2016).
Algorithm, in: Peters, B. (Hg.). Digital Keywords: A Vocabulary of Information Society and Culture (Princeton Studies in Culture and Technology), S. 18-30, Princeton and Oxford: Princeton University Press.

Gillespie, T. (2018).
#trendingistrending. Wenn Algorithmen zu Kultur werden, in: Seyfert, R., & J. Roberge (2018).  Algorithmuskulturen – Über die rechnerische Konstruktion der Wirklichkeit, Bielefeld: transcript Verlag, S. 75-106.

Hartmann, F. (2018).
Medienmoderne. Philosophie und Ästhetik, Wiesbaden: Springer VS.

Hörning, K. H. (20014).
Soziale Praxis zwischen Beharrung und Neuschöpfung. Ein Erkenntnis- und Theorieproblem, in: Hörning, K. H., & Reuter, J. (Hg.). Doing Culture, Bielefeld: transcript Verlag, S. 19-39.

Kowalski, Robert (1979).
Algorithm = logic + control, in: Communications of the ACM, Vol. 22, Nr. 7, S. 424-436.

Luhmann, N. (2009).
Zur Komplexität von Entscheidungssituationen, in: Soziale Systeme Nr. 15, Heft 1, 2009, S. 3-35.

Mainzer, K. (2018).
Wie berechenbar ist unsere Welt? Wiesbaden: Springer Fachmedien Essential

Mau, S. (2017).
Das metrische Wir. Über die Quantifizierung des Sozialen. Berlin: Suhrkamp verlag.

O’Neil, C. (2018).
Angriff der Algorithmen. Wie sie Wahlen manipulieren, Berufschancen zerstören und unsere Gesundheit gefährden, 2. Aufl., München: Hanser Verlag.

Ottmann, Th., & Widmayer, P. (2017).
Algorithmen und Datenstrukturen, 6. Aufl., Berlin, Heidelberg: Springer.

Passoth, J.-H., & Wehner, J. (2018).
Listen, Daten, Algorithmen. Ordnungsformen des Digitalen, in: Mämecke, T., Passoth, J.-H., & Wehner, J. (Hg.) Bedeutende Daten: Modelle, Verfahren und Praxis der Vermessung und Verdatung im Netz, Wiesbaden: Springer Fachmedien, S. 51-68.

Rath, M., Krotz, F., & Karmasin, M. (Hg.) (2019).
Maschinenethik. Normative Grenzen autonomer Systeme, Wiesbaden: Springer Fachmedien, S. 135-153.

Reckwitz, A. (2003).
Grundelemente einer Theorie sozialer Praktiken. Eine sozialtheoretische Perspektive, in: Zeitschrift für Sozologie, Jg. 32, Nr. 4, 2003, S. 282-301.

Reckwitz, A. (2017).
Die Gesellschaft der Singularitäten, Berlin: Suhrkamp Verlag.

Reckwitz, A. (2018).
Die Gesellschaft der Singularitäten in: Busche, H., Heinze, Th., Hillebrandt, F., & Schäfer, F. (Hg.), Kultur – Interdisziplinäre Zugänge, Wiesbaden: Springer Fachmedien Wiesbaden, S. 45-62.

Reichert, R. (2015).
Selfie Culture. Kollektives Bildhandeln 2.0, in: POP. Kultur und Kritik, Jg. 5, Heft 2 Herbst, 2015, Bielefeld: transcript, S. 86-96.

Reichmann, W. (2019).
Die Banalität des Algorithmus, in: Rath, M., Krotz, F., & Karmasin, M. (Hg.) (2019): Maschinenethik. Normative Grenzen autonomer Systeme, Wiesbaden: Springer Fachmedien, S. 135-153.

Schulz-Schaeffer, I. (1998).
Akteure, Aktanten und Agenten, in: Malsch, Th. (Hg.): Sozionik. Soziologische Ansichten über künstliche Sozialität, Berlin: Edition Sigma, S. 128-167.

Schulz-Schaeffer, I. (2008).
Technik, in: Baur, N. et. al. (Hg.): Handbuch Soziologie, Wiesbaden: VS Verlag für Sozialwissenschaften, S. 445–463.

Schulz-Schaeffer, I. (2010).
Praxis, handlungstheoretisch betrachtet, in: Zeitschrift für Soziologie, Jg. 39, Nr. 4, 2010, S. 319-336.

Sedgewick, R., & Wayne, K. (2014).
Algorithmen. Algorithmen und Datenstrukturen, 4., Aufl., Halbermoos: Pearson Deutschland.

Seyfert, R., & Roberge, J. (Hg.) (2018).
Algorithmuskulturen – Über die rechnerische Konstruktion der Wirklichkeit, Bielefeld: transcript Verlag.

Social media Collective (2016).
Critical Algorithm Studies: a Reading List, im Internet: https://socialmediacollective.org/reading-lists/critical-algorithm-studies (16.08.2018)

Stalder, F. (2016).
Kultur der Digitalität, Berlin: Suhrkamp Verlag.

Stiller, S. (2015).
Planet der Algorithmen, München: Albert Knaus Verlag.

Stock, W. G. (2007).
Information retrieval: Informationen suchen und finden, München: Oldenbourg Verlag.

Strahm, T. (1999).
Logik in Informatik, Mathematik und Philosophie. Vortrag an der Universität Bern, im Internet: https://www.iam.unibe.ch/~strahm/ download/pdf/talk_kocher_99.pdf (12.08.2018).

Striphas, T. (2015).
Algorithmic culture, in: European Journal of Cultural Studies Vol. 18, No. 4–5, S. 395–412.

Van den Boom, H. (2014).
Big Data: Eine neue Grundlage für Design?, in: Öffnungszeiten, Vol. 28, Nr. 14, 2014, S. 34-42.

Volbers, J. (2014).
Performative Kultur. Eine Einführung, Wiesbaden: Springer.

Wieser, M. (2004).
Inmitten der Dinge. Zum Verhältnis von sozialen Praktiken und Artefakten, in: Hörning, K. H., & Reuter, J. (Hg.). Doing Culture, Bielefeld: transcript Verlag, S. 92-107.

Willson, M. (2017).  
Algorithms (and the) everyday, in: Information, Communication & Society, Vol. 20, No. 1, 137-150.

Ziegenbalg, J., Ziegenbalg, O., & Ziegenbalg, B. (2016).
Algorithmen: von Hammurapi bis Gödel. Texte zur Didaktik der Mathematik (4. Auflage), Wiesbaden: Springer Fachmedien.

Zweig, K. A. (2016).
Arbeitspapier: Was ist ein Algorithmus?, Im Internet: https://algorithmwatch.org/de/arbeitspapier-was-ist-ein-algorithmus/ (04.08.2018).

Zweig, K. A., Deussen, O., & Krafft, T. D. (2017).
Algorithmen und Meinungsbildung, in: Informatik-Spektrum, Vol. 40, Nr. 4, 2017, S. 318-326.

 

Hier gibt’s die PDF-Version des Fachartikels