Michael Roslon: Wege der Kommunikationsforschung – Grundzüge der Methodologie quantitativer und qualitativer Forschung

Die Auswahl einer geeigneten Forschungsmethode stellt bei jedem Forschungsprozess eine theoretische Herausforderung dar. Paradigmatisch existieren zwei Wege der kommunikationswissenschaftlichen Forschungspraxis: das quantitative und das qualitative Paradigma. Hinsichtlich ihrer Verfahrensweise, ihres Selbstverständnisses, ihrer Prämissen und insbesondere ihrer erkenntnistheoretischen Grundlagen unterscheiden sich beide Methoden wesentlich. Aufgrund dieser fundamentalen Differenzen ist die Explikation des methodologischen Verständnisses im Rahmen des forschungspraktischen Vorgehens notwendig. Es gilt zu plausibilisieren, inwiefern die gewählte Methode geeignet ist, die einer Arbeit zugrundeliegende Forschungsfrage zu beantworten. In diesem Beitrag werden die methodologischen Grundlagen daher kontrastierend vorgestellt.

Forschung und Methode

Jeder, der etwas über Kommunikation, über ihre Bedingungen, ihren Verlauf, ihre Ursachen, ihre – erwünschten oder unerwünschten – Konsequenzen oder Effekte wissen will, muss sich der sozialen Wirklichkeit empirisch zuwenden, d.h. diese erforschen. Empirische Forschung umfasst die „systematische Erfassung und Deutung sozialer Tatbestände“ (Atteslander 2008: 3). Unter sozialen Tatbeständen können im Falle kommunikationswissenschaftlicher Studien die Erfahrungen und Wirkungen kommunikativer Prozesse verstanden werden. Kommunikation wird hier verstanden als symbolisch vermittelte Interaktion zum Zwecke der Koordinierung und Koorientierung. Kommunikation schafft soziale Tatbestände, die von den beteiligten Handlungssubjekten als wirklich aufgefasst werden (vgl. Reichertz 2009). Diese Tatbestände müssen zunächst systematisch erhoben werden, sodass Daten generiert werden, die dann vor dem Hintergrund bestehender Theorien gedeutet werden. Die beiden Prozesse der Datenerhebung und der Datenauswertung bilden gemeinsam eine Methode, nach deren Verfahrensrichtlinie intersubjektiv nachvollziehbare und somit gültige Aussagen formuliert werden können.

Das Methodenarsenal der Kommunikationsforschung ist breit gefächert. Vor Beginn einer empirischen Untersuchung steht somit jede(r) Forschende vor der Frage, welche Methode für das jeweilige Forschungsanliegen geeignet und angemessen ist. Es gilt zu reflektieren, welche Methode welchen Erkenntnisgewinn ermöglicht. Die Reflexion über den angemessenen Weg der Erkenntnisproduktion wird als Methodologie, d.h. die Lehre der Methoden, bezeichnet. Grundsätzlich wird zwischen zwei paradigmatischen Wegen der Erkenntnisproduktion unterschieden: dem qualitativen und dem quantitativen Paradigma. Die Unterscheidung beider Verfahren erscheint zunächst simpel. Die quantitativen Methoden transformieren Erfahrungstatsachen in (Maß-)Zahlen und analysieren diese statistisch, sodass eine große Fallzahl untersucht werden kann; die qualitativen Methoden untersuchen die, zumeist sprachlichen, Praktiken von Handlungssubjekten als typische Einzelfälle kommunikativen Handelns und wenden sich den Daten interpretativ zu. Diese Differenzierung ist jedoch bei genauerer Betrachtung recht grob, da bei quantitativen und qualitativen Methoden grundsätzliche Unterschiede festzustellen sind. Vor diesem Hintergrund stellt der vorliegende Artikel eine Antwort auf die Frage dar, unter welchen Bedingungen das quantitative bzw. das qualitative Forschungsparadigma, aus methodologischen Gründen, für welches empirische Forschungsinteresse gewählt werden sollte.

Der nachfolgende Artikel versteht sich als Grundlagenartikel, der zunächst einen historischen Überblick über die methodologischen und erkenntnistheoretischen Grundlagen qualitativer und quantitativer Forschungsprozesse liefert. Aus der historisch-genealogischen Entwicklung der jeweiligen Paradigmen werden die idealtypischen Kennzeichen (re-)konstruiert. Diese Kennzeichen können anschließend als Entscheidungsgrundlage für die Methodenauswahl herangezogen werden.

Qualitativ oder Quantitativ – Ein Paradigmenstreit?

Die Diskussion, ob qualitative oder quantitative Methoden besser geeignet sind, um Kommunikationsprozesse zu erforschen, ist ein im Wissenschaftsbetrieb häufig geführter Streit. Es scheint so, als handele es sich bei dieser methodologischen Differenzierung um ein Entweder-oder-Prinzip, gar um einen Konkurrenzkampf sich ausschließender Paradigmen. Ziel dieses Kapitels ist es zunächst, die Herkunft der Ansätze offenzulegen um daraus die jeweils idealtypischen Kennzeichen kontrastiv herauszuarbeiten, um eine Entscheidungsgrundlage für die Fragestellung nach dem, je nach Erkenntnisinteresse variierenden, bestgeeigneten Paradigma zu schaffen.

Mit dem Aufkommen der Naturwissenschaften seit dem 17. Jahrhundert schien es, als unterlägen sämtliche Phänomene Naturgesetzen, wodurch eine neue Form von Wissenschaften auf Grundlage der Rationalität entstand (vgl. Rommerskirchen 2014: 40). Naturgesetze lassen sich in Formeln ausdrücken und präzise berechnen. So erwuchs die Hoffnung, auch das soziale Leben entsprechend vermessen zu können. In dieser Hoffnung liegt die Quelle der quantitativen Forschung. Für den Durchbruch und die Etablierung dieser Verfahrenslogik sorgten die Gedanken von Karl Popper zu Beginn des 20. Jahrhunderts. Popper zufolge stellen wissenschaftliche Theorien Rationalisierungen der Sozialwelt dar. Für ihn existiert keine allumfassende Theorie. Er postuliert, dass verschiedene wissenschaftliche Aussagen nebeneinander existieren können: So lange es keinen guten Grund gibt, Aussagen über die soziale Welt zu verwerfen, müsse man diese vorläufig als wahr akzeptieren. Dieses Falsifikationsprinzip geht davon aus, dass Aussagen über die Wirklichkeit so lange als formal wahr gelten, bis sie widerlegt werden (vgl. Popper 1972: 218). Dies bezeichnet man auch als ‚Kritischen Rationalismus‘ (vgl. Popper 2005).

Quantitative Studien sind das dominierende Forschungsparadigma zu Beginn des 20. Jahrhunderts. Quantitative Instrumente wie zum Beispiel Fragebögen werden eingesetzt, um herrschende Meinungen zu evaluieren. Diese herrschenden Meinungen sind die vorherrschende politische Gesinnung oder die Bedingungen und Möglichkeiten der Beeinflussung weiter Teile der Bevölkerung durch massenmedial verbreitete Botschaften. Der Erfolgszug der quantitativen Forschung ist vor allem der Ökonomisierung der westlichen Gesellschaften zu verdanken. Bei dem Ringen der Unternehmen um maximalen Profit benötigen diese ein Instrument, um die Erfolgsaussichten auf dem Markt zu prognostizieren.

Dieser Form der Mainstreamforschung stehen qualitative Forscher in Europa seit den 1960er Jahren skeptisch gegenüber, da eine Erforschung gesellschaftlicher Randbereiche nicht hinreichend möglich ist. Die Quelle der qualitativen Sozialforschung stellt der amerikanische Pragmatismus dar. Der Pragmatismus ist eine philosophische Strömung, welche die soziale Welt nicht als ein Universum, sondern als ein Multiversum aus vielen verschiedenen Perspektiven versteht (vgl. James 1977). Dass diese Idee in den USA entwickelt wurde, ist kein Zufall. Die Philosophen dort gelebte Multikulturalität. Emigranten aus allen Staaten Europas haben sich dort – pragmatisch – arrangiert. So unterstellt der Pragmatismus keine einheitliche Wirklichkeit, sondern Wirklichkeit wird pluralistisch gedacht. Paradigmatisch kommt dieser in dem berühmten Thomas-Theorem zum Ausdruck: „If men define situations as real they are real in their consequences“ (Thomas/Thomas 1928: 572). Dieser Satz besagt, dass Wirklichkeit jeweils nur situativ erzeugt wird. Akzeptieren Subjekte diese Situation als wahr, so werden Sie sich entsprechend ihrer Deutung verhalten. Nicht ein innerer stabiler Kern des Subjekts in Form von Motiven oder Dispositionen ist verantwortlich für das Handeln. Viel mehr sind es die Situationsdeutungen, die, je nach Form der sozialen Zusammenkunft, sehr unterschiedliche Praktiken hervorbringen. Die US-amerikanische Philosophie untersucht demnach von je her nicht die Beschaffenheit einer Wirklichkeit, sondern Wirklichkeit als Ergebnis konkreter kommunikativer Aushandlungsprozesse (vgl. Keller/Knoblauch/Reichertz 2013).

In Europa werden qualitative Methoden in den 1960er Jahren importiert. Ausschlaggebend für diese qualitative Wende war die großpolitische Situation: Die junge Nachkriegsgeneration empfand den hohen Grad der Rationalisierung als von außen auferlegten Zwang, dem sie sich widersetzen wollte. Es keimte ein Drang nach Autonomie und Selbstbestimmung auf. Diese Entwicklung wird von Beck im Nachhinein als ‚Individualisierung‘ gedeutet (vgl. Beck 1986). Individualisierung bedeutet einerseits die Befreiung von Handlungszwängen, andererseits einen gesellschaftlichen Transformationsprozess weg von institutionell organisierten hin zu ‚Risikogesellschaften‘ (vgl. Beck 1986). Die erkämpfte Freiheit wurde für die Subjekte zu einem Zwang zur Wahl. Jedem einzelnen oblag von nun an selbst die Verantwortung für sein Handeln, die soziale Zugehörigkeit war nicht länger durch Klasse und Stand festgelegt, sondern musste jetzt aktiv gestaltet werden. Die Arbeit an der eigenen Biographie emanzipierte das Subjekt von klassenspezifischen Bindungen und führte langfristig dazu, dass im Zuge einer Modernisierung vielfältige Lebensstile ausgebildet und etabliert werden konnten (vgl. Beck/Bonß/Lau 2001).

Nach den Umbruchphasen der 1960 – er Jahren drängen sich den Sozialwissenschaftler/innen neue Forschungsthemen abseits der Elitenforschung auf und sozial benachteiligte Gruppen geraten zunehmend in den Fokus der qualitativen Forschung. Untersucht werden nun Eigenheiten neuer Lebensentwürfe und Wirklichkeiten abseits dessen, was den gesamtgesellschaftlichen Wirklichkeitshorizont darstellt (vgl. Berger/Luckmann 2003). Es geht der qualitativen Forschung ursprünglich darum, die Probleme an den Rändern des Sozialen genau herauszuarbeiten, nicht aber darum, die herrschende Meinung repräsentativ auszuloten. Sie zielt darauf ab, die spezifische Qualität einzelner Wirklichkeitsbereiche zu (re-)konstruieren.

Diese Forschung benötigt in Europa und insbesondere in Deutschland einen neuen theoretischen Hintergrund, welchen Peter L. Berger und Thomas Luckmann mit der sozialkonstruktivistischen Wissenssoziologie liefern. In Zusammenführung unterschiedlicher Strömungen, vornehmlich des amerikanischen Pragmatismus und dem methodologischen Individualismus nach Max Weber, welcher soziale Phänomene „ursächlich verstehen und in ihrem Ablauf erklären“ (Weber 1976: 1) möchte, postulieren Berger und Luckmann, dass Wirklichkeit eine soziale Konstruktion und das Resultat reziproken Handelns darstellt. Diese Wirklichkeit muss jedoch distributiv gedacht werden, da gesellschaftliche Sub-Sinnwelten existieren, die sich nicht mit den vorherrschenden Deutungsmustern decken (vgl. Berger/Luckmann 2003). Die qualitative Sozial- und spätere Kommunikationsforschung (wobei sich der Begriff der Kommunikation erst als zentraler Begriff für reziproke Koordinierungs- und Koorientierungsprozesse etabliert; vgl. Knoblauch 1995; Reichertz 2009) geht von einem sinnhaft handelnden und sich am Sinn orientierenden sozialen Subjekt aus, das als Träger, sowohl expliziter aber vornehmlich impliziter und inkorporierter Wissensbestände agiert. Als solches konstruieren soziale Subjekte gemeinsam Wirklichkeitshorizonte. Um die Qualität und vor allem die Bedeutungsgehalte dieser Wirklichkeitshorizonte verstehen zu können, greifen die deutschen Vertreter auf die Methoden der literarischen Hermeneutik aber auch der Grounded Theory (vgl. Corbin/Strauss 1996) zurück und bilden das komplexe methodologisch-methodische Programm der Hermeneutischen Wissenssoziologie aus. Diese hat die (Re-)Konstruktion der sozialen Wissensbestände unter Rückgriff auf systematisch angeleitete Interpretationsprozesse zum Ziel. Die hermeneutische Wissenssoziologie geht davon aus, dass Handlungssubjekte in eine soziale Welt hineingestellt werden, die Routinen und Deutungsmuster dieser sozialen Welt übernehmen und diese neu interpretieren und eigenwillig, entlang handlungspraktischer Probleme, stets neu zu erfinden (Reichertz 2013a: 519). Die qualitative Perspektive geht demnach von der permanenten Neuaushandlung gesellschaftlicher Wissensvorräte aus, sodass die Erkundung eines neuen Forschungsfeldes grundsätzlich bedeutet, einen neuen Wirklichkeitshorizont zu erforschen, über den bisher wenig Vorwissen existiert.

Qualitativ Forschende untersuchen ‚das Neue‘. Ihr Ziel ist es, die Besonderheiten eines Forschungsgegenstandes herauszuarbeiten, welche es in ihrer Eigenart zu verstehen gilt. Demgegenüber nimmt die quantitative Forschung Messungen vor. Sie macht bekannte Aspekte vergleichbar, auch über große Reichweiten hinweg. Die Entscheidung darüber, ob qualitativ oder quantitativ geforscht wird, kann nun nicht lediglich dadurch begründet werden, ob man Eliten- oder Minderheitenforschung betreiben will. Beide Paradigmen existieren gegenwärtig nebeneinander. Es gilt nun, aus den soeben historisch hergeleiteten paradigmatischen Selbstverständnissen systematisch differenziert die typischen Kennzeichen der Forschungsparadigmen zu diskutieren.

Methodologische Überlegungen zu qualitativen und quantitativen Verfahren

Vor jedem Forschungsprozess gilt es, methodologische Überlegungen anzustellen. Die Entscheidung für ein Forschungsparadigma kann aufgrund des Abgleichs des eigenen Forschungsinteresses mit den jeweils typischen Eigenschaften der Forschungsparadigmen getroffen werden. In der Fachliteratur finden sich unterschiedliche Vorschläge, welche Kennzeichen jeweils für das qualitative und welche für das quantitative Paradigma typisch sind (vgl. Lamnek 1995; Flick/von Kardoff/Steinke 2013). Die folgenden Ausführungen stellen eine Auswahl der jeweiligen Eigenschaften dar. Die Auswahl soll den Leser in die Lage versetzen, die Frage über den geeigneten Weg der Erkenntnisproduktion zu reflektieren.

Kennzeichen qualitativer und quantitativer Forschung

Die zentrale Frage, die sich jede/r Forschende zu Beginn seines/ihres Forschungsvorhabens stellen sollte, richtet sich auf die verfügbare Menge an Literatur bzw. das Vorwissen über den Forschungsgegenstand. Je mehr Vorwissen über einen Forschungsgegenstand bereits vor den eigenen Forschungsaktivitäten vorliegt, desto eher eignen sich quantitative Methoden. Dieses Vorwissen eignet sich einerseits, um falsifizierbare Hypothesen zu formulieren. Andererseits kann Vorwissen aus früheren Forschungsprozessen zum Beispiel in Form von Skalen und Indikatoren im Prozess der Operationalisierung genutzt werden. So ist es möglich, das eigene Forschungsinstrument, z.B. den Fragebogen, sinnvoll und den Gütekriterien (siehe unten) entsprechend aufzubauen. Im Umkehrschluss könnte man nun meinen, wenig Vorwissen sei das zentrale Kriterium für die Auswahl qualitativer Forschungsmethoden. Dies bedeutet jedoch nicht, dass trotz einer bestimmten Menge an Vorwissen ein qualitatives Vorgehen per se ausgeschlossen ist. Grundsätzlich ist bei jedem Forschungsprozess Vorwissen von Nöten, denn, so wie Hitzler sagt, wer dumm in eine Forschung hineingeht, der kommt auch dumm heraus (vgl. Hitzler 1991). Das Wissen um Theorien und sämtliche Forschungsergebnisse um einen Forschungsgegenstand sollten dem Forscher bei qualitativen wie quantitativen Verfahren durchaus bekannt sein. Allerdings gilt es im Rahmen qualitativer Forschung dieses Wissen systematisch auszublenden und sich ‚künstlich dumm‘ zu stellen (vgl. Hitzler 1991). Diese Attitüde der künstlichen Dummheit ist es, die es dem qualitativen Forscher erlaubt, das Eigenständige und Besondere, das Neue und Unerwartete an seinem Forschungsgegenstand zu entdecken. Allerdings gilt es zu konstatieren, dass es keine Bestimmung dessen gibt, was als viel und was als wenig Vorwissen gilt. Im Grunde genommen verhindert viel Wissen nicht den Einsatz qualitativer Methoden – ebenso wie wenig Vorwissen den Einsatz quantitativer Methoden nicht ausschließt. Allerdings gilt für den Einsatz quantitativer Verfahren, unter der Bedingung geringen Vorwissens, dass es dem Forscher obliegt, gegebenenfalls eigene und neue Variablen und Indikatoren zu entwerfen, wobei er sich nicht sicher sein kann, ob diese in der Lage sein werden, die relevanten und spezifischen Eigenschaften des Forschungsgegenstandes einzufangen. Dieses Phänomen bezeichnet man als ‚Korrespondenzproblem‘ (vgl. Raithel 2008: 22).

Aus den bisherigen Ausführungen wird deutlich, dass die qualitative Forschung ihrem Untersuchungsgegenstand gegenüber eine gewisse Offenheit wahrt, während der quantitativen Forschung Geschlossenheit unterstellt wird. Da in quantitativen Befragungen Reihenfolge und Formulierung der Fragen in einem Fragebogen nicht variiert werden, wird der Ablauf des Forschungsprozesses als starr charakterisiert. Die Konzeption dieses Fragebogens (vgl. Porst 2014) ist das Ergebnis der sog. Operationalisierung. Im Rahmen der Operationalisierung werden zunächst die Hypothesen formuliert. Die zentralen Begriffe, die in den Hypothesen Verwendung finden, müssen anschließend definiert werden um die Indikatoren herauszuarbeiten, die das zugrundeliegende, theoretische Konstrukt messen können. Zudem müssen unter Umständen Skalen oder Indizes entwickelt werden (vgl. Raithel 2008: 42). Im Fragebogen werden anschließend Variablen gebildet, konkrete Fragen und skalierte Antwortvorgaben werden formuliert. Dies ermöglicht es, die Vielzahl der Antworten über statistische Verfahren zu vermessen und die Hypothesen zu veri- bzw. zu falsifizieren. Qualitative Forschung ist selbstverständlich niemals vollständig offen oder unsystematisch. Es gilt allerdings der Grundsatz, dass das, was bezüglich eines Themas relevant ist, von dem Befragten bestimmt wird. Diese Relevanzsetzung durch das beforschte Subjekt gelingt in Interviews, indem zunächst ein Leitfaden entwickelt wird (vgl. Helfferich 2009), welcher in der Forschungssituation flexibel eingesetzt und spontan modifiziert werden kann. Ein derartiges Interview beginnt mit einer offenen Einstiegsfrage, die es dem Befragten im besten Fall ermöglicht, eine Erzählung über den Forschungsgegenstand zu generieren. Der Leitfaden dient anschließend als Heuristik und Hilfe, um alle Aspekte, die dem Forschenden im Vorfeld als relevant erschienen, abzudecken. Hierbei ist die Reihenfolge der Fragen ebenso dynamisch wie der Gesprächsverlauf selbst. Auf diese Weise ist die ganze Forschung auf die Entdeckung des Neuen hin angelegt.

Beide Forschungsparadigmen unterliegen einer jeweils unterschiedlichen Forschungslogik, der sie bei der Erkenntnisproduktion verpflichtet sind. Grundsätzlich lassen sich unterschiedliche Formen logischer Schlussverfahren differenzieren, die jeweils graduell unterschiedliche Erkenntnisse über einen Forschungsgegenstand zulassen, nämlich die Deduktion, die Induktion bzw. die qualitative Induktion und die Abduktion. Den zentralen Beitrag für die quantitative Forschung liefert Karl Popper. Er unterscheidet zwischen deduktiven und induktiven Verfahren der Erkenntnisgewinnung. Induktive Verfahren erlauben Rückschlüsse von einer beobachtbaren Menge an Fällen auf alle ähnlichen Fälle. So könnte man nun zunächst meinen, dass eine statistische Häufigkeit bestimmter Beobachtungen hinreichend wäre, um eine Hypothese bzw. Theorie als wahr zu erachten. Allerdings, so Popper, existiert ein ‚Induktionsproblem‘ (vgl. Popper 1972), da es in der sozialen Welt keine ewig gültigen Allaussagen und Gesetzmäßigkeiten gibt. Eine endgültige Verifizierung ist somit nicht möglich. Sein berühmtes Beispiel lautet, dass die induktive Beobachtung, dass Schwäne weiß sind, sofort scheitert, sobald wir einen schwarzen Schwan wahrnehmen. Demnach bleibt Popper zufolge nur die Deduktionslogik für eine systematische Erkenntniserweiterung. Der Forscher legt deduktiv, das heißt abgeleitet aus seinem gesicherten Wissen, eine Hypothese zur Prüfung vor. Neue Erkenntnis wird somit immer dann systematisch und empirisch erzeugt, wenn diese Hypothese in Form von Aussagen an der Realität scheitert, also falsifiziert wird. Es genügt somit ein schwarzer Schwan, um die zur Prüfung vorgelegte Hypothese, ‚Wenn es ein Schwan ist, dann ist er weiß‘, zu falsifizieren. Qualitative Forschung hingegen geht gerade nicht deduktionslogisch vor. Da es sich bei qualitativen Verfahren um interpretativ-verstehende Verfahren handelt, würde eine deduktionslogische Herangehensweise lediglich bekanntes Wissen an einen Untersuchungsgegenstand herantragen und dementsprechend lediglich dasjenige in dem Forschungsgegenstand (z.B. einem Interviewtranskript) wiedererkennen, was der Theoretiker sowieso schon weiß. Der Forschende würde die Daten unter seinem Wissen subsummieren (vgl. Popper 1972: 13ff.). Häufig wird unterstellt, so zum Beispiel in der Grounded Theory, dass die Interpretation von Daten durch Induktion erfolge (vgl. Corbin/Strauss 1996; kritisch hierzu Strübing 2008). Streng genommen stimmt diese Aussage jedoch nicht, da die Daten nicht im Sinne einer Verallgemeinerung gedeutet werden. Da in der qualitativen Forschung Theorien nicht überprüft, sondern eher weiterentwickelt oder neu entworfen werden, bieten sich die Verfahren der qualitativen Induktion bzw. Abduktion an. Die qualitative Induktion bedeutet die Ausweitung von Wissen um neue Fälle, die bestimmten Regeln gehorchen (vgl. Reichertz 2013b). Insofern Daten mit dem bisherigen, bestehenden wissenschaftlichen Wissen nicht benannt werden können, ist das einzig erkenntniserweiternde Verfahren anzuwenden: die Abduktion. Der Forscher muss einen riskanten ‚abduktiven Sprung‘ (vgl. Reichertz 2013b: 281ff.) weg von dem hinreichend gesicherten Wissen wagen und einen neuen Vorschlag für den Wissenschaftsdiskurs machen, indem er einen neuen Fall mitsamt der Regel, wann dieser Fall vorliegt, formuliert. Er muss neues Wissen hervorbringen und eine These aufstellen (vgl. ebd.).

Auch die zur Auswertung zur Verfügung stehenden Daten unterscheiden sich maßgeblich. Quantitative Forschung basiert zumeist auf standardisierten Fragebögen. Diese müssen so aufgebaut und formuliert sein, dass sie in der Lage sind, dem Befragten seine Einstellungen bzw. sein Wissen möglichst präzise und vergleichbar zu entlocken. Zu diesem Zweck sind die Daten so zu erheben, dass die sogenannten Gütekriterien eingehalten werden. Die Daten müssen reliabel sein, also bei weiteren Messvorgängen ähnliche Ergebnisse reproduzieren, wofür Interaktionseffekte zwischen Forschendem und Beforschtem systematisch zu eliminieren sind. Außerdem müssen die Daten valide sein, also dasjenige messen, was vom Forschenden gemessen werden soll. Ein weiteres Kriterium ist die Objektivität, welche gewährleistet, dass jeder andere Forschende zu dem gleichen Ergebnis käme (vgl. Raithel 2008: 44ff.). Der Begriff der Objektivität ist aus konstruktivistischer Perspektive jedoch problematisch. Er legt nahe, dass eine objektive Wirklichkeit existiert, die unter Rückgriff auf die richtigen Messverfahren erforscht werden kann. Von dieser Vorstellung nehmen konstruktivistische Standpunkte jedoch ausdrücklich Abstand. Deshalb wird hier vorgeschlagen stattdessen den Begriff der Intersubjektivität zu verwenden. Unter Intersubjektivität wird im Folgenden verstanden, dass die Gründe für eine kommunikative Festlegung, für ein Argument oder eine Konklusion, von den Diskurspartnern verstanden und als wahr und richtig anerkannt werden können. Aus dieser gemeinsam anerkannten Festlegung können dann nachfolgend die damit verbundenen Konsequenzen für weitere, darauf aufbauende, Schlussfolgerungen geschlossen und Handlungen abgeleitet werden (vgl. Brandom 2000: 253f.). Die qualitative Forschung hingegen kann aufgrund ihres, häufig auf Einzelfällen basierenden Forschungsdesigns, diese Gütekriterien nicht erfüllen und strebt dies auch nicht an. Bereits bei der Datenerhebung gilt es, dem Speziellen und Eigensinnigen an dem Fall gerecht zu werden. Dies ist beinahe widersprüchlich zu den soeben genannten Kriterien. Das Interview beispielsweise, das am häufigsten künstlich produzierte Datum, wird schon bei der Erhebung als Konstruktionsprozess zwischen Befragtem und Fragendem begriffen. Auch natürliche Daten wie zum Beispiel Beiträge in Diskussionsforen im Internet – also Daten, die nicht exklusiv für die wissenschaftliche Produktion hergestellt werden, werden als Ergebnis eines kommunikativen Handelns begriffen, das an eine spezifische Zielgruppe gerichtet ist. Insofern gilt es bei der Analyse qualitativer Daten zu berücksichtigen, inwiefern der Forscher selbst beziehungsweise andere das Sosein der Daten beeinflusst haben – dies nennt man auch das Kriterium der Reflexivität.

Die Auswertung der Daten ist wohl dasjenige Kriterium, das am offensichtlichsten den Unterschied zwischen qualitativer und quantitativer Forschung charakterisiert. Die quantitative Forschung, deren Name darauf basiert, dass sie Messvorgänge vornimmt, greift zur Auswertung auf statistische Verfahren zurück. Diese können univariate Auszählungen der Häufigkeiten, bivariate Verteilungen in Form von Kreuztabellen oder Korrelation zweier mindestens ordinalskalierter Variablen (vgl. Kuckartz/Rädiker/Ebert/Schehl 2013: 207ff.), sowie komplexe multivariate Verfahren umfassen (vgl. Blasius/Baur 2014). Des Weiteren können die Aussagen entweder deskriptiv, also in ihrer Gültigkeit auf die erhobenen Daten begrenzt, oder induktiv sein. In letzterem Fall kann von der erhobenen Menge N der Fälle, also der sog. Stichprobe, auf eine nicht befragte Grundgesamtheit (GG) hochgerechnet werden, ob sich eine signifikante Aussage über diese GG formulieren lässt. Für die Interpretation der jeweiligen Ergebnisse stehen den Forschenden unterschiedliche, intersubjektiv verbürgte, Kennzahlen zur Verfügung (vgl. Kuckartz/Rädiker/Ebert/Schehl 2013: 213).

Die qualitative Forschung hingegen wendet sich ihren Daten hermeneutisch-interpretativ zu. Sie interpretiert die Daten, die z.B. in Form eines schriftlich transkribierten Interviews vorliegen, in Richtung der, dem Forschungsprojekt zugrunde liegenden, Fragestellung. Zu diesem Zweck unterstellt sie dem transkribierten Text, dass die einzelnen Sinneinheiten Antworten auf die Fragestellung darstellen können (vgl. Marquardt 1981). Allerdings geht es nicht lediglich darum, die Aussagen des Textes wörtlich zu nehmen und somit für die Beantwortung der eigenen Frage zu verdoppeln. Stattdessen zielen interpretative hermeneutische Verfahren darauf ab, das im Text implizit verfügbare Wissen zu explizieren. An implizite Strukturen gelangen Forschende durch eine systematische hermeneutische Herangehensweise an das Datenmaterial (vgl. Soeffner 2004). Interpretative Prozesse sind per se heikel da sie auf dem subjektiv verfügbaren Wissen des jeweiligen Forschenden basieren, ist es hilfreich, nicht alleine, sondern in Gruppen zu interpretieren. Je mehr Perspektiven beim Interpretieren bzw. Codieren hinzugezogen werden, desto deutlicher wird, dass auch die Formulierung qualitativer Ergebnisse nur bedingt intersubjektiv erfolgen kann (vgl. Reichertz 2013c). Daher gilt es bei dem Verfassen von Forschungsberichten, den Interpretationsprozess so hinreichend detailliert darzustellen, dass er für den Leser plausibel und nachvollziehbar ist. Im Falle von Sequenzanalysen handelt es sich um ausführliche Explikationen der Interpretationsarbeit (vgl. Soeffner 2004), im Falle der Grounded Theory wird der Interpretationsprozess in Form eines Kategoriensystems sichtbar und nachvollziehbar. Dieses Kategoriensystem wird als umso intersubjektiver beurteilt, je mehr Forscher daran mitgewirkt haben (Intercodierreliabilität) (vgl. Corbin/Strauss 1996).

Unterscheidet man qualitative und quantitative Forschungsprozesse auf die Reichweite hin, fallen ebenfalls signifikante Unterschiede auf. Quantitative Verfahren streben nach Objektivität bzw. Intersubjektivität, indem möglichst viele Untersuchungseinheiten befragt werden. Diese gelten unter spezifischen Umständen sogar als repräsentativ. Damit man überhaupt potentiell repräsentative Ergebnisse erzielen kann, bietet es sich an, ein geeignetes Verfahren der Stichprobenziehung zu wählen. Diese reichen von Zufalls- über Quoten- bis hin zu Willkürauswahlen und bieten jeweils unterschiedliche Vor- bzw. Nachteile (vgl. Raithel 2008: 54ff.). Um die Stichprobe bzw. das Sampling systematisch gestalten zu können, muss der Forschende ein bestimmtes Vorwissen besitzen, aus dem er ein, für den Untersuchungsgegenstand angemessenes, Sample zusammenstellen kann. Die Tatsache, dass bei dem Einsatz qualitativer Verfahren nur eine eingeschränkte Menge an Daten oder – wie im Falle der Einzelfallanalyse – bei einem sequenzanalytischen Vorgehen nur wenige Zeilen interpretiert werden können, macht offensichtlich, dass sich die Reichweiten der Forschungsstrategien maßgeblich unterscheiden. Wie bei der historischen Genese der Verfahren angedeutet wurde, ist dies auch nicht ihr Anspruch. Das Sampling orientiert sich nicht an Repräsentativität, sondern strebt eine ‚theoretische Sättigung‘ (vgl. Corbin/Strauss 1996: 148ff.) an. Eine theoretische Sättigung wird erreicht, indem das Sampling im Rahmen des fortlaufenden Forschungsprozesses sukzessive anhand kontrastierender Fälle so lange ausgestaltet wird, bis der Zustand theoretischer Sättigung erreicht wird und mit Blick auf die Forschungsfrage relevante Unterschiede in den jeweiligen Fällen zum Ausdruck kommen. Da diese Unterschiede im strengen Sinne erst in der Analyse sichtbar werden, können die Untersuchungseinheiten nach den Prinzipien der maximalen und minimalen Kontrastierung systematisch ausgewählt werden. Auf diese Weise wird das Forschungsfeld anhand von Einzelfällen kartographiert, ohne jedoch eine Aussage über die Häufigkeit typischer Fälle treffen zu können (vgl. Corbin/Strauss 1996). Da bei kleinen Forschungsprojekten oder Abschlussarbeiten kaum genug Zeit für ein theoretisches Sampling zur Verfügung steht, nutzt man häufig das Vorwissen für ein ‚selektives Sampling‘ (vgl. Merkens 2013): Bei diesem wird vorab ein Sampling derart konzipiert, dass es die vermeintlich zentralen Kriterien abdeckt. Dies widerstrebt zwar dem Prinzip der Offenheit, stellt aber eine pragmatische Verkürzung des Forschungsprozesses dar.

Fasst man alle der hier bereits ausgeführten idealtypischen Merkmale und Kennzeichen quantitativer und qualitativer Forschungsprozesse zusammen, so lassen diese sich schlussendlich als hypothesenprüfende (quantitative) und hypothesengenerierende (qualitative) Verfahren typisieren. Bei der quantitativen Forschung stehen die Hypothesen als konkret überprüfbare Aussagen, die in ihrer Gesamtheit in der Lage sind, eine forschungsleitende Frage zu beantworten, am Beginn der Forschung und bestimmen den gesamten anschließenden Ablauf der Forschung von der Operationalisierung über die Datenerhebung bis hin zur Datenauswertung. Die qualitative Forschung hingegen beginnt mit einer Forschungsfrage und schränkt sich dann gerade nicht durch Hypothesen ein, sondern sucht nach hypothetischen Antworten auf die forschungsleitende Frage. Dies tut sie, indem sie möglichst offen und unvoreingenommen an den Forschungsgegenstand herantritt und der Forschende die Haltung einnimmt, sein eigenes Wissen permanent auszuklammern, es schlussendlich zu revidieren und zu reformulieren. Qualitative Forschung ist sich im Sinne des Sozialkonstruktivismus stets dessen bewusst, dass alles sozial konstruiert ist und dass es sich bei dem Forschungsprozess und der Formulierung der Forschungsergebnisse selbst lediglich um theoretische und methodisch angeleitete Konstruktionen handelt. Demzufolge handeln Menschen im Alltag in einer naiven Haltung zur Wirklichkeit, indem sie diese als wahr akzeptieren (Wirklichkeit erster Ordnung), wohingegen Kommunikationsforscher systematisch diese Wirklichkeit erster Ordnung in Frage stellen und Modelle und Theorien (Wirklichkeit zweiter Ordnung) formulieren. Insofern stellt jede Theorie in diesem Sinne lediglich eine bloße Annahme dar, die soziale Prozesse in ihrer Genese und Gültig verstehen und erklären soll.

Qualitativ und quantitativ – ein paradigmatischer Widerspruch?

Auf den ersten Blick erscheint die Entscheidung für ein Forschungsparadigma lediglich eine Entscheidung zwischen zwei unterschiedlichen Umgangsweisen mit Daten darzustellen. Bei genauerer Betrachtung im Rahmen einer methodologischen Debatte lässt sich allerdings feststellen, dass beide Forschungsparadigmen je nach Forschungsproblem spezifische Eigenheiten aufweisen, welche es bei der Auswahl des methodischen Instrumentariums systematisch zu reflektieren gilt. Diese eindeutig zurechenbaren Kriterien stellen harte methodologischen Kriterien dar. Diesen werden nun, mit Blick auf die dem Artikel zugrundeliegende Frage nach der angemessenen Methodenwahl, weiche Kriterien hinzugefügt, die bei dem methodischen Design berücksichtigt werden sollten.

Qualitativ oder quantitativ zu forschen sollte zunächst nicht nur als grundsätzliche methodische Differenz, sondern als unterschiedliche Haltung verstanden werden, die der Forschende dem Forschungsgegenstand gegenüber einnimmt: Wenn ein Forscher einen detaillierten Einblick in die Lebenswelt seines Gegenübers erhalten und seine Relevanzen zu (re-)konstruieren (qualitativ) versucht, dann muss er wissen, dass dies ein riskantes und mitunter kreatives (abduktiver Sprung) Unterfangen ist. Vielleicht möchte er aber auch etwas darüber herausfinden, wie bestimmte Meinungen mengenmäßig verteilt sind (quantitativ) und sich an Regeln der Interpretation der Daten (Kennzahlen; Korrelationskoeffizienten) festhalten können? Um herauszufinden, welches Vorgehen einem selbst mehr und welches weniger liegt, gibt es nur eine Möglichkeit: Man muss beide Verfahren selbst anwenden und den Forschungsprozess erleben und reflektieren. Allerdings hilft auch eine Herzensentscheidung dann relativ wenig, wenn nicht vor Beginn der Forschungstätigkeit sichergestellt werden kann, ob man in der Lage ist, an die betreffenden Daten zu gelangen. Deshalb muss ein weiteres pragmatisches Argument in die Entscheidung miteinbezogen werden, nämlich das der forschungspragmatischen Durchführbarkeit der Studie. Jeder Forscher sollte sich bei der Konzeption einer Studie fragen, ob eine ausreichende Anzahl an kompetenten und mitwirkungswilligen Interviewpartnern zur Verfügung steht. Schlussendlich steht und fällt jede Analyse mit ihrer empirischen Durchführbarkeit.

Eine weiterer forschungspraktischer Hinweis lautet, einzelne Forschungsschritte zeitlich angemessen zu planen: Ein quantitatives Vorgehen muss sehr gut geplant und durchdacht sein, es erfordert vor der Befragung viel Zeit und gute theoretische Kenntnisse, um angemessene Hypothesen und Skalen konzipieren zu können. Zudem muss bereits im Vorhinein festgelegt werden, welche Auswertungsmethode für welche Hypothese eingesetzt wird. Die Auswertung der statistischen Daten kann dann recht zügig erfolgen, wenn der Forschende sich gut mit der entsprechenden Auswertungssoftware auskennt.

Ein qualitatives Verfahren sollte recht früh initiiert werden. Dies liegt vornehmlich daran, dass die Interviewführung zeitlich aufwendig ist (häufig dauert ein Interview mit Anfahrt um die zwei bis drei Stunden), die Transkription eines aufgezeichneten Interviews pro gesprochener Minute selbst bei geübten Schreibern ca. fünf Minuten dauert und die Auswertung des komplexen Datenkorpus mitunter zwei Wochen dauern kann. Anschließend muss noch genügend Zeit bleiben, das Material an die Darstellung der theoretischen Grundlagen einer Arbeit zurückzubinden.

Die hier aufgezeigten Kennzeichen stellen die idealtypischen Endpunkte eines Kontinuums zwischen qualitativen und quantitativen Verfahren dar. Die im Kanon der Lehrbücher auffindbaren Methoden sind selten streng einem der beiden Pole zuordenbar. Vielmehr handelt es sich bei den bewährten Methoden häufig um Mischformen, die trotz klar erkennbarer Ausrichtung nicht alle typischen Kennzeichen im vollen Sinne aufweisen. Dies ist ein Hinweis darauf, dass sich die Forschungsparadigmen nicht grundsätzlich ausschließen, sondern sich durchaus ergänzen und forschungspraktisch zueinander anschlussfähig sind, was in der Literatur als Mixed-Methods bezeichnet wird (vgl. Kuckartz 2014). Insofern kann es je nach Forschungsproblem durchaus sinnvoll sein, unterschiedliche Methoden im Rahmen eines Forschungsdesigns anzuordnen und auf diese Weise zu umfassenderen Ergebnissen zu gelangen.

Literaturverzeichnis

Atteslander, P. (2008). Methoden der empirischen Sozialforschung. Berlin: Schmidt.

Beck, U. (1986). Risikogesellschaft. Frankfurt a.M.: Suhrkamp.

Beck, U., Bonß W., Lau, C. (2001). Modernisierung der Moderne., Frankfurt a. M.: Suhrkamp.

Berger, P. L., Luckmann, T. (2003). Die gesellschaftliche Konstruktion der Wirklichkeit., Frankfurt a.M.: Fischer 203.

Blasius, J., Baur, N. (2014). Multivariate Datenanalyse, in: Blasius, J/Baur, N. [Hrsg.], 2014: Handbuch Methoden der empirischen Sozialforschung,  Wiesbaden: Springer VS.

Brandom, R. (2000). Expressive Vernunft. Begründung, Repräsentation und diskursive Vernunft. Frankfurt a.M.: Suhrkamp.

Corbin, J., Strauss, A. (1996). Grounded Theory. Grundlagen qualitativer Sozialforschung, Weinheim: Psychologie Verlags Union.

Flick, U., von Kardoff, E., Steinke, I. (2013). Was ist qualitative Forschung? Einleitung und Überblick, in: Flick, U., von Kardoff, E., Steinke, I., Qualitative Forschung. Ein Handbuch. Hamburg: Rowohlt.

Helfferich, C. (2009). Die Qualität qualitativer Daten: Manual für die Durchführung qualitativer    Interviews. Wiesbaden: Springer VS.

Hitzler, R. (1991). Dummheit als Methode. Eine dramatologische Textinterpretation, in: Garz, D., Kraimer, K. [Hrsg.], Qualitativ-empirische Sozialforschung: Konzepte, Methoden, Analysen. Opladen: Westdeutscher.

James, W. (1977). Der Pragmatismus. Ein neuer Name für alte Denkmethoden. Hamburg: Meiner.

Keller, R., Knoblauch, H., Reichertz, J. [Hrsg.] (2013). Kommunikativer Konstruktivismus. Theoretische und empirische Arbeiten zu einem neuen wissenssoziologischen Ansatz., Wiesbaden: Springer VS.

Knoblauch, H. (1995). Kommunikationskultur. Die kommunikative Konstruktion kultureller Kontexte. Berlin/New York: De Gruyter.

Kuckartz, U. (2014). Mixed Methods. Methologie, Forschungsdesigns und Analyseverfahren. Wiesbaden: Springer VS.

Kuckartz, U., Rädiker, S., Ebert, T., Schehl, J. (2013). Statistik. Eine verständliche Einführung. Wiesbaden: Springer VS.

Lamnek, S. (1995). Qualitative Sozialforschung. Band 1: Methodologie. Weinheim: Beltz.

Marquardt, O. (1981). Abschied vom Prinzipiellen. Philosophische Studien. Stuttgart: Reclam.

Merkens, H. (2013). Auswahlverfahren, Sampling, Fallkonstruktion, in Flick, U., von Kardoff, E., Steinke, I., Qualitative Forschung. Ein Handbuch. Hamburg: Rowohlt.

Popper, K. (1972). Objektive Erkenntnis. Ein evolutionärer Entwurf. Hamburg: Hoffmann & Campe.

Popper, K. (2005). Logik der Forschung. Tübingen: Mohr Siebeck.

Porst, R. (2014). Fragebogen. Ein Arbeitsbuch. Wiesbaden: Springer VS.

Raithel, J. (2008). Quantitative Forschung. Ein Praxisbuch. Wiesbaden: Springer VS.

Reichertz, J. (2009). Kommunikationsmacht. Was ist Kommunikation und was vermag sie? Und    weshalb vermag sie das? Wiesbaden: Springer VS.

Reichertz, J. (2013a). Objektive Hermeneutik und hermeneutische Wissenssoziologie, in: Flick, U., von Kardoff, E., Steinke, I., Qualitative Forschung. Ein Handbuch. Hamburg: Rowohlt.

Reicherz, J. (2013b). Abduktion, Deduktion und Induktion in der qualitativen Forschung, in: Flick, U., von Kardoff, E., Steinke, I., Qualitative Forschung. Ein Handbuch. Hamburg: Rowohlt.

Reichertz, J. (2013c). Gemeinsam interpretieren. Die Gruppeninterpretation als kommunikativer Prozess. Wiesbaden: Springer VS.

Rommerskirchen, J. (2014). Soziologie & Kommunikation. Wiesbaden: Springer VS.

Soeffner, H.- G. (2004). Die Auslegung des Alltags – der Alltag der Auslegung. Konstanz: UVK.

Strübing, J. (2008). Grounded Theory. Zur sozialtheoretischen und epistemologischen Fundierung des Verfahrens der empirisch begründeten Theoriebildung. Wiesbaden: Springer VS.

Thomas, W. I., Thomas, D.S. (1928). The Child in America. Behavior Problems and Programs. New York: Knopf.

Weber, M. (1976). Wirtschaft und Gesellschaft. Grundriss der verstehenden Soziologie. Tübingen: Mohr Siebeck.

 

Hier gibt’s die PDF-Version des Fachartikels