Das Potenzial quantitativer Methoden für die Intersektionalität

Patricia Hill Collins und Sirma Bilge betonen in ihrem Buch „Intersectionality“ (2016), dass Offenheit in Hinblick auf Intersektionalität eine große Bedeutung hat (vgl. Collins & Bilge 2016: 31). Sowohl bei der Erforschung als auch in der praktischen Umsetzung ist somit alles erwünscht, was Intersektionalität als Feld vorantreiben kann. Speziell in Hinblick auf die methodische Auseinandersetzung mit der Thematik sind bisher qualitative Verfahren dominant vertreten, unter anderem, weil diese in epistemologischer Hinsicht als geeigneter erscheinen als quantitative Methoden, denen unterstellt wird, zu positivistisch zu agieren (vgl. Else-Quest & Hyde 2016: 160). Dennoch hat sich in den letzten Jahren auch der Einsatz quantitativer Methoden mehr und mehr bei der Erforschung von Intersektionalität etabliert, auch wenn hier noch viele Fragen offen sind und Unsicherheiten bestehen (vgl. Bauer et al. 2021: 1). Aus dieser Situation heraus ergibt sich nun die für dieses Wiki zentrale Frage, bei der näher betrachtet werden soll, inwiefern quantitative Methoden als geeignete Möglichkeit bei der Erforschung von Intersektionalität erscheinen.
Um die Frage zu beantworten, wird zunächst auf die grundlegende Logik quantitativer Forschung eingegangen. Anschließend wird der aktuelle Stand der quantitativen Erforschung von Intersektionalität aufgezeigt. Anhand des Forschungsstands werden bereits grundlegende Grenzen und Möglichkeiten quantitativer Methoden ersichtlich, die in einem dritten Schritt anhand einer Tabelle veranschaulicht und um weitere Punkte ergänzt werden. Abschließend wird ein Fazit gezogen und ein kleiner Ausblick gegeben.

Keywords Intersektionalität - quantitative Methoden – deduktiv-nomologisch – methodologischer Individualismus – Falsifizierbarkeit – Statistische Methoden

1. Die Logik quantitativer Forschung

Es ist schwierig, von DER Logik quantitativer Forschung zu sprechen. Dennoch lassen sich starke Tendenzen erkennen, die momentan in der Forschung prominent vertreten sind. Dabei ist insbesondere der Einfluss des österreichisch-britischen Philosophen und Mitbegründer des kritischen Rationalismus Karl Poppers zu nennen, der die Logik der quantitativen Forschung wegweisend geprägt hat. In seinem bereits 1934 erschienen Werk „Logik der Forschung. Zur Erkenntnistheorie der modernen Naturwissenschaft“ werden hierfür grundlegende Gedanken formuliert. So wendet sich quantitative Forschung von induktiver Logik ab und wendet sich einer nomologisch-deduktiven Logik zu (vgl. Hempel & Oppenheim 1948: 138). Grund hierfür ist die Annahme, dass nur durch letztere „sichere“ Erkenntnis möglich ist, wenn vom Allgemeinen auf den Einzelfall Rückschlüsse gezogen werden (und nicht umgekehrt, wie bei der Induktion). Nach Popper sollte die Deduktion dabei dem Prinzip des Falsifikationismus folgen (vgl. Popper 2002 [1935]: 47ff.). Demnach können aufgestellte Hypothesen nur verworfen und niemals bestätigt werden. Ein Beispiel (von Popper) soll diese Überlegungen näher verdeutlichen.

1.1 Induktiver Fehlschluss
Stellen wir beispielsweise die Hypothese auf, dass alle Schwäne dieser Welt weiß sind (beschränken wir uns ausschließlich auf unseren Planeten - wer weiß, vielleicht gibt es ja irgendwo einen Planeten, der von bunten Schwänen bevölkert wird). Nun bereisen wir die halbe Welt und sehen ausschließlich weiße Schwäne. Daraus schlussfolgern wir, dass alle Schwäne unseres Planeten weiß sein müssen. Das ist jedoch ein Fehlschluss. Denn im Grunde können wir uns nur dann komplett sicher sein, wenn wir wirklich alle Exemplare der Gattung Schwan auf unserem Planeten gesehen haben, was ziemlich unrealistisch erscheint. Zudem können wir niemals falsifizieren, ob es nicht doch irgendwo auf dieser Welt einen schwarzen Schwan (zugegeben sind weiß und schwarz eigentlich keine Farben) gibt, wie dies in Australien der Fall ist. In Poppers Vorstellung werden sich die schwarzen Schwäne über unseren Fehlschluss ins Fäustchen lachen - wenn sie denn Fäustchen hätten (vgl. Popper 2002 [1935]: 3).

1.2 Deduktiv-nomologisch
Bei der Deduktion gehen wir nun, wie beschrieben, vom umgekehrten Fall aus und schließen vom Allgemeinen auf den Einzelfall. Das logische Vorgehen wird anhand des Hempel-Oppenheim-Schemas deutlicher. Dieses basiert vereinfacht gesagt, auf dem Prinzip von Ursache und Wirkung. Die Ursache wird Explanans genannt, das Erklärende. Dieses besteht aus einem allgemeingültigen Gesetz und einer oder mehreren Randbedingungen. Aus dem Erklärenden, der Ursache, wird das zu Erklärende, das Explanandum, die Wirkung oder Folge geschlussfolgert (vgl. Hempel & Oppenheim 1948: 138).
Gehen wir beispielsweise spazieren und sehen ein Tier. Wir stellen die Hypothese auf, dass es sich bei genau diesem Tier um einen Schwan handelt. Wir wissen aus der Forschung, dass per allgemeingültigem Gesetz Schwäne Federn haben und einen Schnabel ohne Zähne. Das Tier vor uns grinst uns nun aber mit einer Reihe spitzer Zähne an (die Randbedingung). Damit können wir unsere Hypothese verwerfen und wissen, dass es sich nicht um einen Schwan handelt (im Grunde auch nicht letztgültig - vielleicht handelt es sich nämlich um einen genmanipulierten Schwan mit Zähnen - Deduktion ist also auch nicht felsenfest!) und wir wahrscheinlich die Flucht ergreifen sollten. (Was im Grunde auch für den Fall gegolten hätte, wenn es ein Schwan gewesen wäre).

1.3 Methodologischer Individualismus
Die deduktive Logik findet insbesondere in den Naturwissenschaften Anwendung, vor allem bei der Erforschung von Naturgesetzen. Da herrschaftstrukturell „gute“ Wissenschaft meist mit Naturwissenschaften gleichgesetzt wird, haben auch die Sozialwissenschaften versucht, deren Logik auf ihre Fragestellungen zu übertragen. Eine der gängigsten Herangehensweisen stellt dabei der methodologische Individualismus dar. Zur Verdeutlichung seines Vorgehens wird häufig die Colemansche Badewanne herangezogen, die auf den amerikanischen Soziologen James Samuel Coleman zurückgeht (siehe Abb. rechts (vgl. Greve et al. 2008: 8)).
Ausgangspunkt bildet die Makroebene, der obere Teil der Abbildung. Hier wird, wie in der Abbildung rechts ersichtlich wird, ein Makrophänomen beobachtet, dass zu einem gewissen kollektiven Effekt führt. Ein Beispiel aus der Intersektionalität wäre, dass das patriarchal-kapitalistische System zur Diskriminierung schwarzer Frauen auf dem Arbeitsmarkt führt. Um diesen kollektiven Effekt zu erklären, muss im Sinne des methodologischen Individualismus jedoch der Umweg über die Mikroebene genommen werden. Nur so kann die Logik der Deduktion eingehalten werden. Der Übergang von der Makro- zur Mikroebene findet durch eine Kontexthypothese statt. Damit ist gemeint, welche Folgen sich aus dem Makrophänomen (im Beispiel das patriarchal-kapitalistische System) für die einzelnen Individuen ergeben (beispielsweise bestimmte Werte, die vorgeben, was als gut und schlecht angesehen wird oder Stereotype, die bestimmten Personengruppen zugesprochen werden. Schwarze Frauen werden beispielsweise als leistungsschwächer, fauler, etc. angesehen als weiße Frauen (von Männern brauchen wir erst gar nicht anzufangen). Dieser Einfluss des Makrophänomens auf einzelnen Personen beeinflusst diese in ihren Handlungen (Entscheidungsregel). Für unser Beispiel entscheiden sich Arbeitgeber*innen eher gegen schwarze Frauen, weil diesen unterstellt wird, noch weniger Leistung zu erbringen als beispielsweise weiße Frauen. Werden diese einzelnen Entscheidungen vieler Menschen (im Beispiel Arbeitgeber*innen) aggregiert, ergibt sich das Makrophänomen, der Diskriminierung von schwarzen Frauen gegenüber weißen Frauen und Männern (vgl. Greve et al. 2008: 8f.).

2. Momentaner Stand der Anwendung quantitativer Methoden in der Intersektionalität

Das interdisziplinäre Team um Greta R. Bauer et al. hat im Jahr 2021 das riesige Projekt unternommen, alle existierenden Studien aus dem Bereich quantitative Erforschung von Intersektionalität aus dem Zeitraum von 1989 bis Mitte 2020 zusammenzutragen und systematisch auszuwerten. Es wurden dabei insgesamt 681 brauchbare Studien gefunden. Auch wenn mittlerweile einige neue Studien hinzugekommen sind, sollten die Ergebnisse dennoch ein relativ aktuelles Bild abliefern, welche quantitativen Strategien bei der Untersuchung von Intersektionalität Verwendung finden (vgl. Bauer et al. 2021: 8). Die methodische Durchführung einer Studie stellt dabei einen komplexen, mehrstufigen Prozess dar, angefangen bei der Fragestellung auf Basis des theoretischen Rahmens, über die Wahl der Hypothesen und deren Operationalisierung, das Studiendesign, der Art und Ziehung der Stichprobe, der Messebenen, den für die Datenauswertung herangezogenen statistischen Modellen, deren Interpretation, aber auch der Einbezug weiterer Methoden uvm.
Alle diese Schritte müssen an die zentralen Dimensionen der Intersektionalität angepasst werden, da die Ergebnisse ansonsten im Grunde unbrauchbar sind. Wie Hannah Schönberger in ihrer Bachelorarbeit am Institut für Soziologie in Freiburg herausgestellt hat (2023), ist es beispielsweise sinnvoll, für dieses Vorhaben die von Collins herausgestellten sechs Dimensionen (die keinen Anspruch auf Vollständigkeit erheben) heranzuziehen: Relationalität, Macht, soziale Ungleichheit, sozialer Kontext, Komplexität (der Kategorien) und soziale Gerechtigkeit (vgl. Collins 2019: 44). Wie Schönberger weiterhin herausstellt, stellen insbesondere die drei Dimensionen Relationalität, Komplexität und Kontext die größten Herausforderungen für die quantitative methodische Umsetzung dar, vor allem in Hinsicht auf den Aspekt der statistischen Auswertung erhobener Daten (vgl. Schönberger 2023: 12). In Bezug auf einige der anderen methodischen Schritte zeigen Else-Quest und Hyde eine Fülle an Möglichkeiten auf, wie in Bezug auf Intersektionalität damit umgegangen werden könnte (vgl. Else-Quest & Hyde 2016: 1ff.). Es zeigt sich bei Schönberger und Else-Quest und Hyde jedoch, dass diese Übersetzung der Intersektionalität in die Sprache der quantitativen Methoden nicht ganz einfach ist, bzw. stellt sich erneut die zentrale Frage des Wikis, ob dies überhaupt möglich ist. Bevor diese Frage in Abschnitt drei des Wikis näher beleuchtet wird, soll aber zunächst anhand der oben eingeführten Studie von Bauer et al. ein sehr grober Überblick über den aktuellen Stand des quantitativ-methodischen Umgangs mit Intersektionalität gegeben werden (siehe Abb.: Häufigkeiten der verwendeten statistischen Methoden in Intersektionalitäts-Studien von 1989 bis Mitte 2020 (Bauer et al. 2021: 8)).
Es zeigt sich zunächst, dass die meisten der Studien rein quantitativ arbeiten und kaum qualitative Methoden einbezogen werden.
Hinsichtlich des Studiendesigns zeigt sich eine klare Tendenz hin zu Querschnittstudien, die Längsschnittstudien in vielerlei Hinsicht unterliegen, gerade in Hinblick auf die Untersuchung kausaler Effekte, aber forschungspragmatisch Geld und Zeit sparen (vgl. Diekmann 2018 [1995]: 314ff.).
Die Stichprobengröße ist erstaunlicherweise generell sehr groß, was als positiv bewertet werden kann, denn Intersektionalität verlangt durch ihre hohe Kategorienvielfalt auch eine große Zahl an Proband*innen (siehe Punkt 2 der Tabelle). Dennoch ist etwa ein Viertel der Studien mit einer Stichprobengröße kleiner als 500 Proband*innen für die Aussagekraft der statistischen Analysen möglicherweise eher kritisch zu bewerten. Dazu müsste auf die Effektgrößen der jeweiligen Studien geschaut werden (vgl. Döring 2023 [1984]: 798ff.).
Bei der statistischen Auswertung der Ergebnisse zeigt sich wenig verwunderlich eine klare Tendenz hin zur Verwendung von Regressionen verschiedener Art. Hier zeigt sich insbesondere, dass intersektionale Kategorien meist als abhängige Variable (als Wirkung) verwendet werden (was auch den hohen Anteil logistischer Regressionen erklären dürfte), etwa ein Drittel diese aber als unabhängige Variablen (als Ursachen) gebraucht. Sehr wenige Studien beziehen den Einfluss von Kontexten mit ein, wie dies insbesondere beim Multilevel-Modelling gemacht wird (nur 55 Studien). Wie im zweiten und achten Punkt der Tabelle des dritten Teils des Wikis näher ausgeführt wird, spielen Kontexte eine zentrale Rolle bei der Untersuchung von Intersektionalität, da diese einen zentralen Einfluss auf die Wechselwirkung von Variablen im Bereich der Intersektionalität haben (vgl. Collins 2019: 44). Es wäre also zukünftig wünschenswert, dass mehr Studien Kontexte in ihre Analysen einbeziehen. Ein wesentlich größerer Teil der Studien arbeitet hingegen mit Interaktionseffekten. Dabei wird davon ausgegangen, dass die intersektionale Überschneidung von Kategorien nicht rein additiv abgebildet werden kann (wie dies bei den einfachsten Formen der Regression der Fall ist), sondern nur multiplikativ, also in Interaktion mit einer weiteren Kategorie (vgl. Hardmeier & Vinz 2007: 24). Etwa ein Sechstel betrachtet hingegen Regressionen mit Haupteffekten, bei denen es vereinfacht gesagt darum geht, die Effekte bestimmter Ursachen bzw. Kategorien auf die interessierende abhängige Variable getrennt voneinander zu betrachten (vgl. Fehrmair et al. 2016 [1997]: 486), was dem intersektionalen Gedanken eher widerspricht.
Zusammenfassend weist der Überblick darauf hin, dass erste Versuche unternommen wurden, intersektionale Eigenschaften in die Sprache der quantitativen Methoden zu übersetzen. Es wird zugleich aber auch deutlich, dass die Übersetzung noch an vielen Stellen eher schwach ausfällt. Da der Überblick von Bauer et al. (2021) nicht sonderlich in die Tiefe geht, soll im folgenden Abschnitt noch stärker auf die Möglichkeiten und Grenzen einer Übersetzung der Intersektionalität in die Sprache der quantitativen Methoden eingegangen werden.

3. Potenzial quantitativer Methoden für Intersektionalität

In diesem Teil werde ich nun (soweit es mir als Masterstudent möglich ist, der sich nur zwei Wochen in die Thematik einlesen konnte) eine Tabelle mit den Möglichkeiten darbieten, die quantitative Methoden für die Erforschung von Intersektionalität bereithalten, als auch die Grenzen, auf die sie stoßen. Es sollen dadurch zentrale Aspekte für die Leitfrage des Wikis bereitgestellt werden, inwiefern sich quantitative Methoden für die Erforschung von Intersektionalität eignen. (Die Tabelle ist sicherlich nicht erschöpfend.)

Grenze Möglichkeit
1.Quantitativ vs. Qualitativ - Die Quantifizierung des Menschen führt zur Nichtbeachtung des subjektiven Anteils, der Qualia des menschlichen Erlebens (vgl. Bauer et al. 2021: 2; Fromm 2016 [1991]: 59ff.). Erfahrungen werden nicht wirklich berücksichtigt und einbezogen (oder auf eher schwammige Weise operationalisiert und dadurch wiederum vereinheitlicht). Kann die Erforschung von Intersektionalität ohne die Berücksichtigung der Qualia funktionieren? Sind die Ergebnisse dann noch valide?
- Es können mit quantitativen Methoden nur gewisse Arten von Fragen untersucht werden, die der unterstellten deduktiv-nomologischen Logik folgen (vgl. Hempel & Oppenheim 1948: 138). Viele Fragen sind damit nicht untersuchbar.
- Durch den quantitativen (deduktiven) Zugang wird eine andere Form von Erkenntnissen zugänglich (vgl. Greve et al. 2008: 8f.), insbesondere im Hinblick auf zugrundeliegende Ursachen. Die Erkenntnisse können Nährboden für weitere qualitative Forschung als auch für mögliche Interventionen darstellen.
- Durch quantitative Methoden können Ergebnisse gefunden werden, die durch qualitative Forschung schwer zugänglich sind.
2.Stichprobengröße/-ziehung - Für statistisch aussagekräftige Ergebnisse ist es nötig, eine ausreichend große Stichprobe zu ziehen (deren Mindestgröße über Effektgrößen ermittelbar ist (vgl. Döring 2023 [1984]: 798ff.)). An eine ausreichend große Stichprobe zu gelangen, kostet meist viel Zeit und Geld. Die interessierenden Populationen bei intersektionalen Studien sind teilweise schwer zugänglich, was das Problem einer ausreichend großen Stichprobe noch verschärft.
- Wenn zusätzlich noch die Dimension „Kontext“ berücksichtigt wird, wird das Problem der Stichprobengröße noch drastischer, weil weitere Gruppen mit ausreichender Anzahl an Personen gebildet werden müssen.
- Es ist möglich, Daten zu clustern oder auf Verfahren zurückzugreifen, bei denen mehr Personen erreicht werden können, wie beispielsweise Online-Surveys, wobei beide Fälle für starke Verzerrungen prädestiniert sind (vgl. Diekmann 2018 [1995]: 378).
3.Randomisierung - Stichproben sollten randomisiert gezogen werden, um die Verzerrung der Ergebnisse zu verhindern (vgl. Diekmann 2018 [1995]: 339). Wie im Fall der Stichproben kann es in Bezug auf bestimmte Kontexte und Intersektionen schwer werden, randomisiert Personen für eine Stichprobe zu ziehen.
- Je nach Erhebungsmethode, beispielsweise bei online Datenerhebung, ist das Prinzip der Randomisierung ohnehin verletzt (vgl. ebd. 521).
- Dieses Problem findet sich jedoch bei einigen Forschungsthematiken, nicht nur der Intersektionalität, weshalb es schon viele Überlegungen diesbezüglich gibt (vgl. ebd.: 335ff.).
4.Forschungsdesign - Je nach Forschungsdesign sind nur Korrelationen und keine Kausalitäten feststellbar (vgl. Diekmann 2018 [1995]: 329ff.). (Für letzteres bräuchte es experimentelle Designs.) Damit ist das Verhältnis von Ursache und Wirkung häufig nicht aufklärbar. - Im Kontext der Intersektionalität sind durchaus experimentelle Designs möglich, wodurch jedoch die ohnehin schon schwache externe Validität weiter aufgegeben werden müsste; siehe auch Punkt 14 in der Tabelle (vgl. ebd.: 345).
- Außerdem sollte das Verhältnis von Ursache und Wirkung auch durch theoretische Überlegungen weitestgehend begründbar sein.
5.Operationalisierung - Es müssen der deduktiven Logik folgend bereits vermutete Ursachen schon vorab formuliert werden. Diese müssen weiterhin operationalisiert, also messbar gemacht werden (vgl. Fahrmeir et al. 2016 [1997]: 19). Diese Operationalisierungen sind häufig sehr fragwürdig und insbesondere im Bereich der Intersektionalität häufig schwer umsetzbar oder oberflächlich. Sie vereinfachen und verallgemeinern zudem Eigenschaften, die dann möglicherweise nicht mehr in ihrer Komplexität abgebildet werden können. - Andererseits liegt in Operationalisierungen als kreativer Prozess das Potenzial, den Blick für zugrundliegende Ursachen zu weiten und der Komplexität einen Fokus zu verleihen.
6.Makroebene nicht als Ursache - Dem methodologischen Individualismus folgend, werden Ursachen rein über den Weg der Mikroebene gesucht. Gewisse Ursachen sind aber vielleicht nicht reduktionistisch, sondern holistisch. Aber Holismus ist nicht vereinbar mit der bestehenden quantitativen Logik. -
7.Daten mehrfach verwenden - Große Datensätze werden aufgrund ihrer hohen Fallzahlen im Kontext vieler Studien verwendet, bzw. werden häufig mehrere Datensätze zusammengenommen. So basieren häufig die Ergebnisse vieler Studien auf denselben Daten. Dadurch kann es zu einer Verzerrung dahingehend kommen, dass diese häufiger verwendeten Daten zu sehr ins Gewicht fallen und Kontexte vermischt werden, die eigentlich viel zu unterschiedlich sind (und Kontexte haben, wie gesagt, eine große Bedeutung in der Intersektionalität). - Es kann geprüft werden, ob dieselben Daten zu unterschiedlichen Ergebnissen führen.
- Anhand derselben Daten können verschiedene Fragen untersucht werden.
8.Statistische Umsetzung - In der statistischen Analyse von Daten haben sich spezielle Vorgehensweisen und Modelle als Standards etabliert (im Grunde Regressionen und Signifikanztests (vgl. Fahrmeir et al. 2016 [1997]: 12), die im Übrigen nicht nur hinsichtlich intersektionaler Fragestellungen problematisch sind. Bezüglich der quantitativen Erforschung von Intersektionalität treten diese Problematiken jedoch besonders hervor, was insbesondere anhand der unter 2. besprochenen Dimensionen (vor allem Relationalität, Komplexität und Kontext) deutlich wird, die mit den momentanen „Standard“-Modellen schwer vereinbar sind. Beispielsweise lässt der additive Charakter von Regressionsmodellen die Relationalität von Kategorien schwer erfassen und führt mitunter zu dem Problem, dass zugrundeliegende Ursachen verdeckt bleiben (vgl. Schönberger 2023: 59). Für eine detaillierte Auseinandersetzung bezüglich der statistischen Umsetzung von Intersektionalität sei an dieser Stelle erneut auf Schönberger verwiesen, die diese hinsichtlich der erwähnten sechs Dimensionen von Intersektionalität auf Möglichkeiten und Grenzen hin untersucht (vgl. ebd.: 18ff., 44ff., 68ff.). Dies würde hier jedoch den Rahmen des Wikis sprengen. - Wie in Schönbergers Bachelorarbeit ebenso herausgestellt wird, werden bereits kreative Lösungen für die intersektionalen Dimensionen erprobt, auch wenn bisher keine vollends überzeugen kann (vgl. ebd.).
- Außerdem machen technologische Fortschritte Hoffnung, dass in Zukunft vermehrt komplexere statistische Modelle umgesetzt werden können (vgl. Bauer et al. 2021: 8). Dabei kann insbesondere auf das Potenzial künstlicher Intelligenz gespannt sein.
9.Kategorien - Welche Kategorien werden für die Analyse herangezogen? Wie wird damit umgegangen, dass sich diese ändern können? Bisher zeigt sich noch keine Einigung hinsichtlich der Kategorien-Frage in der quantitativen Forschung und es ist auch schwer, eine übergreifende Einheitlichkeit herzustellen, ein Problem, dass auch die qualitativen Methoden betrifft (vgl. Degele & Winker 2011: 74). Es zeigt sich, dass bestimmte Kern-Kategorien übergreifend verwendet werden, aber teilweise fällt die Kategorienwahl auch sehr willkürlich aus (vgl. Bauer et al. 2021: 7). - Auch wenn ein allgemeiner Standard (der ohnehin der Offenheit der Intersektionalität widerspricht) vorhanden ist, so zeigt sich dennoch eine Tendenz zur Verwendung der in der Intersektionalität am den zentralsten verhandelten Kategorien (vgl. Bauer et al. 2021: 7). Schließlich fußen Studien immer auf einer theoretischen Basis und beziehen sich auch aufeinander, existieren also nicht im luftleeren Raum. Vollkommen willkürliche Kategorien sollten daher nach und nach verschwinden. Es besteht aber weiterhin die Gefahr, dass sich Kategorien etablieren, die nicht im Sinne der Intersektionalität stehen oder sich pfadabhängig Kategorien herausbilden, die kritisch zu betrachten sind. Dies könnte durch einen reflektierten Umgang mit intersektionalen Theorien verhindert werden.
10. Epistemologie / Kritisches Potenzial - Eine häufige Kritik an quantitativer Forschung ist, dass sie zu positivistisch sei (vgl. Else-Quest & Hyde 2016: 158f.). So herrscht noch große Übereinkunft, dass Wissenschaft nicht normativ und politisch sein dürfe. Der Anspruch ist, dass aufzudecken, was vorliegt, welche Ursachen zu welchen Folgen führen. Die eigene Meinung dürfe hier keine Rolle spielen. Wissenschaft dürfe keinen ethischen Anspruch erheben, was besser oder schlechter für Menschen sei. - Im Grunde ist das positivistische Postulat immer schon Schein gewesen. Denn jede Motivation hinter Forschung ist niemals neutral. Wenn die Ursachen sozialer Ungleichheit erforscht werden, wird das Forscher*innen-Team auch ein Interesse daran haben, diese zu beseitigen (oder in manch tragischem Fall auch zu verdecken). Welchen Zweck hätte die Forschung sonst?
11.Missbrauch und Manipulation - Häufig werden Statistiken für eigene Zwecke ausgelegt bzw. die Auswertung bereits manipuliert, damit die erwünschten Ergebnisse erzielt werden (vgl. Krämer 2009 [2000]: 10). Insbesondere bei einem dermaßen systemkritischen Forschungsgebiet wie der Intersektionalität besteht von vielen Seiten ein Interesse, die Ursachen und Folgen sozialer Ungleichheit im Dunkeln zu lassen (vgl. Latour 2023 [2020]: 50). Quantitative Befunde sind hier besonders beliebt, weil Zahlen schließlich nicht lügen können. - Durch Reflexion und eingehende Recherche sind diese „Betrugsfälle“ teilweise erkennbar. Insgesamt ist es aber schwer lösbar. Und nur weil Statistiken missbraucht und manipuliert werden können, sollte das kein Argument gegen ihre Verwendung sein.
12.Ergebnisse - Da Intersektionalität ohnehin ein interdisziplinäres Unterfangen darstellt, erhöht der Einbezug quantitativer Methoden und das hierbei komplexe methodische Vorgehen den Grad der Schwierigkeit deutlich. - Die nötige Interdisziplinarität kann als Chance betrachtet werden. Je mehr Forschende am Prozess beteiligt sind, desto mehr Perspektiven fließen mit ein und desto eher werden Verzerrungen ausgeschlossen.
13.Signifikante Ergebnisse (ein Problem, dass nicht nur Intersektionalität betrifft) - Wie bereits unter Punkt 6 aufgeführt wurde, gilt als Forschungsstandard die Verwendung statistischer Signifikanztests. Diese basieren auf dem anfangs erläuterten Prinzip der Falsifizierbarkeit (vgl. Popper 2002 [1935]: 47ff.). Es können demnach nur Hypothesen verworfen werden (und das auch nur zu einer gewissen Wahrscheinlichkeit), aber niemals Hypothesen angenommen werden (vgl. Fahrmeir et al. 2016 [1997]: 12). Im Grunde ist dadurch immer nur klar, was nicht der Fall ist, aber nie, was der Fall ist, was die Aussagekraft quantitativer Forschung schmälert. - Wenigstens gibt es eine Form von Erkenntnisgewinn (auch wenn diese nicht sicher ist).
14.Generalisierbarkeit - Quantitative Forschung verfolgt unter anderem das Ziel, generalisierbare Ergebnisse zu erhalten; Stichwort externe Validität (vgl. Diekmann 2018 [1995]: 345). Dieses Ziel ist ohnehin häufig nicht gegeben. Doch im Bereich der Intersektionalität kommt hinzu, dass die untersuchten Intersektionen teilweise sehr spezifisch sind, beispielsweise je eigene Ursachen zugrunde liegen, die zusätzlich von Randfaktoren abhängen, wie dem Kontext, etc. Um dieser Bandbreite gerecht zu werden erfordert Intersektionalität eine immense Anzahl an Studien, ganz zu schweigen von erforderlichen Replikationen zur Ergebnis-Validierung. Auch durch die stetige Weiterentwicklung der Disziplin der Intersektionalität muss quantitative Forschung in allen Schritten ständig angepasst werden. Inwiefern liegt dies im Rahmen des Möglichen? - Vermutlich sind dennoch übergreifend ähnliche Ursachen zu finden. Eine Meta-Analyse, in der vorhandene Studienergebnisse systematisch ausgewertet werden, lag mir leider nicht vor.
- Sollten die Ergebnisse „nur“ für den jeweiligen Fall gelten, ist das allerdings auch schon ein Gewinn.
15.Machstrukturen - Quantitative Forschung wird dominiert von westlichen Ländern (vgl. Bauer et al. 2021: 6) und hier insbesondere von weißen Männern. Situiertheit (vgl. Haraway 1995: 73ff.) ist in der quantitativen Forschung leider noch ein Fremdwort.
- Quantitative Forschung ist, um es kurz zu fassen, der methodische Innbegriff und Ausdruck patriarchal-kapitalistischen Denkens in seiner Reinform (siehe auch Tabellen-Punkt 1).
- Quantitative Forschung hat das Primat der „Neutralität“. So werden ein weißer Mann und eine schwarze Frau bei der korrekten Anwendung der quantitativen Methoden zu denselben Ergebnissen kommen. Dieses Primat kann jedoch, wie verdeutlicht wurde, stark angezweifelt werden, da jeder Schritt der methodischen Planung voller Entscheidungen steckt, in die Machtstrukturen einfließen. (Ich würde sogar so weit gehen, zu sagen, dass ein weißer Mann und eine schwarze Frau nicht auf dieselben Ergebnisse kommen).
- Ist eine von Machstrukturen befreite Form der quantitativen Forschung möglich?

4. Fazit und Ausblick

Inwiefern eignen sich nun quantitative Methoden für die Erforschung von Intersektionalität? Wie unter Punkt drei deutlich wurde, ist das Potenzial quantitativer Methoden recht ambivalent zu sehen. Auf der einen Seite kann es die in der Einleitung angesprochene Funktion eines nützlichen Werkzeugs für die wissenschaftliche Erforschung von Intersektionalität einnehmen. Die aus den Naturwissenschaften entlehnten Verfahren können Befunde hervorbringen, die durch rein qualitative Methoden nicht oder nur schwierig zu finden wären.
Auf der anderen Seite gibt es wohl keine Methode, die dem Grundgedanken der Intersektionalität so weit entgegensteht, wie die quantitative. Das große Ziel der Intersektionalität kann darin gefasst werden, die Bedeutung der bestehenden Herrschaftsstrukturen herauszustellen und zu überwinden, die zu Benachteiligungen in sich überschneidenden Kategorien führen (vgl. Collins 2019: 10). Quantitative Methoden versuchen, den Menschen zur Zahl zu machen, ihn zu quantifizieren, aufgrund äußerlicher oder innerlicher Merkmale. Der Mensch wird im Grunde methodisch entfremdet und seinem Wesen beraubt (vgl. Fromm 2016 [1991]: 59ff.). Ob die Forschung von Intersektionalität methodisch ohne die Qualia des Menschen auskommt, ist sehr fraglich, da ihr damit ein zentraler Wesensteil abhandenkommt.
Zudem stößt die Intersektionalität gerade mit Blick auf die statistische Umsetzung auf große Schwierigkeiten (vgl. Schönberger 2023: 18ff., 44ff., 68ff.). Inwiefern mit diesen umgegangen werden kann, ist noch nicht gänzlich ersichtlich.
Es wäre meiner Meinung nach jedoch zu voreilig aus diesem Grund quantitative Methoden von vornherein auszuschließen. Vielmehr kann beispielsweise auf das Potenzial gemischter Methoden geschaut werden. Eine Zusammenarbeit qualitativer und quantitativer Methoden könnte das Fehlen der Qualia zu einem gewissen Grad beheben. Zudem steht die quantitative Erforschung der Intersektionalität noch ganz am Anfang. So werden nach und nach immer bessere Übersetzungsmöglichkeiten der Intersektionalität in die quantitative Sprache gefunden. Zunehmende technische Fortschritte ermöglichen unter anderem, komplexere statistische Modelle anzuwenden und Daten auf neue Weise auszuwerten (vgl. Bauer et al. 2021: 8). Auch hier sollte jedoch nicht unkritisch verblieben werden, denn auch diese Verfahren sind Produkt der bestehenden Herrschaftsverhältnisse und spiegeln menschliche Fehler wider.
Wahrscheinlich liegt die beste Antwort in der Praxis begründet: Ganz im Sinne von Collins und Bilge (2016) heißt es ausprobieren, schauen was möglich ist und was nicht, wenn sich ein methodischer Pfad als Sackgasse erweisen sollte, fallen lassen oder weiterentwickeln (vgl. ebd.: 31). Da Intersektionalität eine noch sehr junge (eigentlich noch nicht einmal eigenständige) Disziplin ist und es, wie gesagt, große Fortschritte in den quantitativen Methoden gibt, bleibt es spannend, was zukünftige Forschung ergeben wird.

Literatur

  • Bauer, Greta R. et al. 2021. Intersectionality in quantitative research: A systematic review of its emergence and applications of theory and methods. SSM - Population Health 14: 1–11.
  • Degele, Nina, und Gabriele Winker. 2011. Intersektionalität als Beitrag zu einer gesellschaftstheoretisch informierten Ungleichheitsforschung. Berliner Journal für Soziologie 21: 69–90.
  • Diekmann, Andreas. 2018. Empirische Sozialforschung: Grundlagen, Methoden, Anwendungen. Reinbek bei Hamburg: rowohlts enzyklopädie im Rowohlt Taschenbuch Verlag.
  • Döring, Nicola. 2023. Forschungsmethoden und Evaluation in den Sozial- und Humanwissenschaften. Berlin: Springer.
  • Else-Quest, Nicole M., & Janet Shibley Hyde. 2016a. Intersectionality in Quantitative Psychological Research: I. Theoretical and Epistemological Issues. Psychology of Women Quarterly 40: 155–170.
  • Else-Quest, Nicole M., & Janet Shibley Hyde. 2016b. Intersectionality in Quantitative Psychological Research: II. Methods and Techniques. Psychology of Women Quarterly 40: 319–336.
  • Fahrmeir, Ludwig, Christian Heumann, Rita Künstler, Iris Pigeot, & Gerhard Tutz. 2016. Statistik. Berlin, Heidelberg: Springer Berlin Heidelberg.
  • Fromm, Erich. 2016. Die Pathologie der Normalität: zur Wissenschaft vom Menschen. Hrsg. Rainer Funk. Berlin: Ullstein.
  • Greve, Jens, Annette Schnabel, & Rainer Schützeichel. 2008. Das Mikro-Makro-Modell der soziologischen Erklärung: zur Ontologie, Methodologie und Metatheorie eines Forschungsprogramms. Wiesbaden: VS Verlag für Sozialwissenschaften.
  • Haraway, Donna. 1995. Die Neuerfindung der Natur: Primaten, Cyborgs und Frauen. Hrsg. Carmen Hammer & Immanuel Stieß. Frankfurt/Main New York: Campus Verlag.
  • Hardmeier, Sibylle, & Dagmar Vinz. 2007. Diversity und Intersectionality. Eine kritische Würdigung der Ansätze für die Politikwissenschaft. FEMINA POLITICA 16: 23–32.
  • Hempel, Carl G., & Paul Oppenheim. 1948. Studies in the Logic of Explanation. Philosophy of Science 15: 135–175.
  • Hill Collins, Patricia. 2019. Intersectionality as critical social theory. Durham: Duke University Press.
  • Hill Collins, Patricia, und Sirma Bilge. 2016. Intersectionality. Cambridge, UK; Malden, MA: Polity Press.
  • Krämer, Walter. 2009. So lügt man mit Statistik. München Zürich: Piper.
  • Latour, Bruno. 2023. Kampf um Gaia: acht Vorträge über das neue Klimaregime. Berlin: Suhrkamp.
  • Popper, Karl R. 2002. Logik der Forschung. Tübingen: Mohr Siebeck.
  • Schönberger, Hannah. 2023. Multivariate Analyseverfahren in der intersektionalen Forschung. Methodologische Überlegung quantitativer Ansätze für die empirische Untersuchung verwobener Machstrukturen. Freiburg: noch unveröffentlicht.
Drucken/exportieren