Einführung in das Wiki zur Repräsentativität qualitativer Forschung
Seitenübersicht
[Ausblenden]- 1 Kritische Diskursanalyse nach Jäger → zum Text
- 2 Diskursivität in qualitativen Interviews: Methodische Herangehensweisen zu übergeordneten Diskurszusammenhängen → zum Text
- 3 Grounded Theory. Strategien qualitativer Forschung → zum Text
- 4 Corbin/Straus: Grundlagen der Grounded Theory → zum Text
- 5 Die Online-Inhaltsanalyse im Kontext sozialer Netzwerke → zum Text
- 6 Vom Einzelfall zum Typus – Konstruktion von Typen und Typologien → zum Text
- 7 Die Typenbildung der dokumentarischen Methode → zum Text
- 8 Die Situationsanalyse → zum Text
- 9 Anmerkungen
- 10 Fazit zur Repräsentativität
Die folgenden Abschnitte führen in die Fragestellung und die im Seminar besprochenen Themen ein und enthalten die Links zu den Seminararbeiten.
1 Kritische Diskursanalyse nach Jäger → zum Text
Die Auffassung, qualitative Forschung sei nicht repräsentativ, ist weit verbreitet. Ob das den Tatsachen entspricht oder überhaupt ein Problem darstellt, ist abhängig vom Selbstverständnis und Ziel jeweiliger qualitativer Forschung und von der Definition des Begriffs „Repräsentativität“. In diesem Wiki sollen verschiedene qualitative Methoden vorgestellt werden, um ein kompaktes Format für den Vergleich der verschiedenen Auffassungen zu schaffen.
Die kritische Diskursanalyse nach Siegfried Jäger geht aus einer Auseinandersetzung mit Foucaults Diskurstheorie hervor. Nach Foucault sind Diskurse Praktiken, in denen die Gegenstände von denen diese Handeln hervorgebracht werden. Der Begriff des Diskurses ist ein Analyseinstrument, mit Hilfe dessen es möglich ist aufzuzeigen, wie bestimmte Diskursobjekte in bestimmten Diskursfeldern entstehen. Die zugrunde liegende Frage lautet: Wie werden Dingen und Tatsachen innerhalb gesellschaftlicher Praktiken, Bedeutungen zugeschrieben? Diskurs bezeichnet eine Struktur des Wissens zu einer bestimmten Zeit. Gültiges Wissen wird erst durch Diskurse hervorgebracht. Der Begriff bezeichnet demnach eine diskursive Einigung über die Tatsächlichkeit von Tatsachen. Er ist seinem Wesen nach dynamisch. Einzelne Wissensinhalte sind somit nur Wissensinhalte innerhalb eines historisch gewachsenen Wissenssystems.
Bedingungen für die Art und die Ergebnisse von Diskursen sind die, diesen vorausgehenden Dispositive. Dispositive sind solche Strukturen, die die Möglichkeit und das Ausmaß von Diskursen vorstrukturieren. (Währen Diskurse Züge, so wäre das Schienennetz das Dispositiv, auf welchem sie erst in Erscheinung treten können.) Ein zentraler Aspekt hinsichtlich der dynamik von Diskursen ist Macht. Macht und Wissen sind miteinander verschränkt: Wer Macht hat, kann bestimmen, was im Diskurs erlaubt ist und was wie verstanden wird. Diese Machtposition wird diesen Diskursteilnehmern auf der Basis des vorhandenen Wissens anderer zugeschrieben. Verbunden mit dem faucoulschen Verständnis von Diskursen ist eine Dezentrierung des Subjekts. Nicht Subjekte stellen Diskurse her sondern Diskurse stellen Subjekte her, indem sie bestimmen was wann wo als Subjekt gilt. Diesen Zusammenhang zwischen Diskurs und Subjekt kritisiert Jäger durch Bezugnahme auf Leontjews Tätigkeitstheorie. Dieser zufolge bezeichnet Tätigkeit den Zusammenhang von Denken, Sprechen und Handeln. Alles was gedacht und gesagt werden kann muss ich auf bereits gedachtes und gesagtes beziehen (Historizität). Subjekt und Objekt werden in der Tätigkeit vermittelt indem eines von etwas spricht und somit dessen Bedeutung reproduziert bzw. definiert. Tätigkeiten werden ausgeführt um Bedürfnisse zu befriedigen. Motivierte Tätigkeit werden als Handlung bezeichnet. (Ziel der Tätigkeit ist die bewusste Bedürfnisbefriedigung) Im Gegensatz dazu bezeichnen Operationen unbewusste, routinisierte Handlungen.
Da es außerhalb eines Diskurses keine Subjekte gibt, bezieht sich alles subjektiv Gemeinte auf einen objektiven Aspekt eines Diskurses, in welchem die Aussage getätigt wird. Hierbei entsteht die Frage: wie der Schluss vom subjektiven Gehalt einer Aussage auf den objektiven Diskurs, in den diese eingebettet ist und der qualitativen Forschung praktisch gehandhabt werden kann. Ziel der Diskursanalyse ist es, Diskursstränge und Verschränkungen von Diskurssträngen zu analysieren; also eine Analyse der Diskursstränge sowohl historisch als auch gegenwärtig. Dadurch soll die Struktur und Funktion eines Diskurses, also den Bereich des sagbaren innerhalb eines Diskurses innerhalb eines bestimmten Zeitraumes erfasst werden. Um das zu ermöglichen entwickelte Jäger eine spezielle Vorgehensweise die im folgenden vorgestellt werden soll.
Zunächst ist es nötig anhand bestimmter Kategorien (Diskursfragmente) die helfen sollen Art, Verlauf und Inhalt des Diskurses zu definieren, den diffus erscheinenden Diskurs zu strukturieren und ordnen. Hierzu wird eine thematische Strukturierung der vorliegenden Daten vorgenommen. (quantitativ – welche Themen treten vermehrt auf). Darauf aufbauend erfolgt eine Auswahl typischer Artikel (Feinanalyse).
Zweck der Feinanalyse ist es, durch Verallgemeinerung einen bestimmten Diskursstrang aus einem Gesamtdiskurs heraus zu arbeiten. Um dies zu gewährleisten stehen verschiedene Herangehensweisen zur Verfügung:
Die Diskursanalyse hat den Anspruch auch als Gesellschaftsanalyse zu funktionieren. Dies folgt aus der Forderung, neben der Analyse einzelner Diskursfragmente, auch den Kontext zu analysieren, in dem der Diskurs stattfindet. Analysiert man z.B. ein bestimmtes mediales Ereignis, ist es nötig den Gesamten medialen Diskurs zu verstehen, in welchem dieses Ereignis auftritt. Um diesen Anspruch erfüllen zu können, muss die Diskursanalyse eine Dispositivanalyse sein. Sie muss also neben dem Wissen, dass ein Diskurs hervorbringt auch das Wissen das in sog. Nicht-diskursiven Praxen enthalten ist, berücksichtigen. Hierbei muss zudem besonderer Wert auf die Darstellung des Zusammenhangs von Diskursen und Dispositiven gelegt werden.
Bedingungen für die Art und die Ergebnisse von Diskursen sind die, diesen vorausgehenden Dispositive. Dispositive sind solche Strukturen, die die Möglichkeit und das Ausmaß von Diskursen vorstrukturieren. (Währen Diskurse Züge, so wäre das Schienennetz das Dispositiv, auf welchem sie erst in Erscheinung treten können.) Ein zentraler Aspekt hinsichtlich der dynamik von Diskursen ist Macht. Macht und Wissen sind miteinander verschränkt: Wer Macht hat, kann bestimmen, was im Diskurs erlaubt ist und was wie verstanden wird. Diese Machtposition wird diesen Diskursteilnehmern auf der Basis des vorhandenen Wissens anderer zugeschrieben. Verbunden mit dem faucoulschen Verständnis von Diskursen ist eine Dezentrierung des Subjekts. Nicht Subjekte stellen Diskurse her sondern Diskurse stellen Subjekte her, indem sie bestimmen was wann wo als Subjekt gilt. Diesen Zusammenhang zwischen Diskurs und Subjekt kritisiert Jäger durch Bezugnahme auf Leontjews Tätigkeitstheorie. Dieser zufolge bezeichnet Tätigkeit den Zusammenhang von Denken, Sprechen und Handeln. Alles was gedacht und gesagt werden kann muss ich auf bereits gedachtes und gesagtes beziehen (Historizität). Subjekt und Objekt werden in der Tätigkeit vermittelt indem eines von etwas spricht und somit dessen Bedeutung reproduziert bzw. definiert. Tätigkeiten werden ausgeführt um Bedürfnisse zu befriedigen. Motivierte Tätigkeit werden als Handlung bezeichnet. (Ziel der Tätigkeit ist die bewusste Bedürfnisbefriedigung) Im Gegensatz dazu bezeichnen Operationen unbewusste, routinisierte Handlungen.
Da es außerhalb eines Diskurses keine Subjekte gibt, bezieht sich alles subjektiv Gemeinte auf einen objektiven Aspekt eines Diskurses, in welchem die Aussage getätigt wird. Hierbei entsteht die Frage: wie der Schluss vom subjektiven Gehalt einer Aussage auf den objektiven Diskurs, in den diese eingebettet ist und der qualitativen Forschung praktisch gehandhabt werden kann. Ziel der Diskursanalyse ist es, Diskursstränge und Verschränkungen von Diskurssträngen zu analysieren; also eine Analyse der Diskursstränge sowohl historisch als auch gegenwärtig. Dadurch soll die Struktur und Funktion eines Diskurses, also den Bereich des sagbaren innerhalb eines Diskurses innerhalb eines bestimmten Zeitraumes erfasst werden. Um das zu ermöglichen entwickelte Jäger eine spezielle Vorgehensweise die im folgenden vorgestellt werden soll.
Zunächst ist es nötig anhand bestimmter Kategorien (Diskursfragmente) die helfen sollen Art, Verlauf und Inhalt des Diskurses zu definieren, den diffus erscheinenden Diskurs zu strukturieren und ordnen. Hierzu wird eine thematische Strukturierung der vorliegenden Daten vorgenommen. (quantitativ – welche Themen treten vermehrt auf). Darauf aufbauend erfolgt eine Auswahl typischer Artikel (Feinanalyse).
Zweck der Feinanalyse ist es, durch Verallgemeinerung einen bestimmten Diskursstrang aus einem Gesamtdiskurs heraus zu arbeiten. Um dies zu gewährleisten stehen verschiedene Herangehensweisen zur Verfügung:
- Analyse des institutionellen Rahmens: Die Form und die Verortung der Daten und Quellen im Untersuchungsfeld wird analysiert. (z.B. Zielgruppe, äußeres Erscheinungsbild, Autoren).
- Analyse der Textoberfläche: Textstruktur wird analysiert. (Absätze, Gliederung, Argumentationsstruktur). Dies kann einen ersten Einblick in mögliche Diskursverschränkungen bieten.
- Analyse sprachlicher und rethorischer Mittel: Tiefere Analyse der Textstruktur. Der Fokus wird hierbei auf die Logik des Aufbaus, Relativierungen, Übertreibungen etc. gelegt. Also auf Fragen wie: Wie wird Sprache verwendet? Welche Metaphern und Symbole tauchen auf? Um welche Textart handelt es sich oder an welche Textart ist der Text angelehnt?
- Analyse der inhaltlichen, ideologischen Aussagen: Analysiert die Daten hinsichtlich der Diskursposition, des Menschenbildes und der darin vermittelten Einstellung zu bestimmten Themen.
- Interpretation des Diskursfragments: Die gesammelten Erkenntnisse werden, vor dem Hintergrund des Diskursstrangs in welchem die Daten in Erscheinung getreten sind, interpretiert und ihre Bedeutung für diesen Diskurs herausgearbeitet.
Die Diskursanalyse hat den Anspruch auch als Gesellschaftsanalyse zu funktionieren. Dies folgt aus der Forderung, neben der Analyse einzelner Diskursfragmente, auch den Kontext zu analysieren, in dem der Diskurs stattfindet. Analysiert man z.B. ein bestimmtes mediales Ereignis, ist es nötig den Gesamten medialen Diskurs zu verstehen, in welchem dieses Ereignis auftritt. Um diesen Anspruch erfüllen zu können, muss die Diskursanalyse eine Dispositivanalyse sein. Sie muss also neben dem Wissen, dass ein Diskurs hervorbringt auch das Wissen das in sog. Nicht-diskursiven Praxen enthalten ist, berücksichtigen. Hierbei muss zudem besonderer Wert auf die Darstellung des Zusammenhangs von Diskursen und Dispositiven gelegt werden.
2 Diskursivität in qualitativen Interviews: Methodische Herangehensweisen zu übergeordneten Diskurszusammenhängen → zum Text
Die wissenssoziologische Diskursanalayse (WDA) geht im wesentlichem auf Reiner Keller zurück unter Berücksichtigung der Ansätze verschiedener Autor*innen wie Jäger, Focault oder Berger und Luckmann. Entscheidend Aspekte in der wissensoziologischen Diskursanalyse sind die Wirklichkeitskonstruktion, der Wissensbegriff und die Rolle der Individuen/Akteur*innen. Die wissensoziologische Diskursanalyse findet heut in verschiedenensten Wissenschaften wie der Archäologie oder der Kriminologie Berücksichtigung. Durch die Methoden der Diskursanalyse sollen die Repräsentativität qualitativer Forschung ermöglicht werden.
Zentrales Mittel für die Diskursanalyse ist das diskursive Interview. Diese können sowohl in Einzelinterviews und Gruppeninterviews durchgeführt werden, was verschiedene Vor- und Nachteile einschließt. Jens Schneider arbeitet dabei heraus, wie durch die Methoden der Diskursanalyse die Problematiken qualitativer Forschung, wie hoher Auswertungsaufwand und geringe Fallzahl, positiv umgesetzt werden können. Dabei kommen den Faktoren der Kommunikation und Diskursivität eine besondere Bedeutung zu.
Kommunikationsfaktoren
Von den Forschenden muss vor allem die Kommunikationsebene berücksichtigt werden. Dabei sollte zwischen Interviewten und Forschenden keine Hierarchien bestehen und je nach Bedarf verschiedene Atmosphäre wie persönliche oder offizielle geschaffen werden.
Diskursivität in qualitativen Interviews
Der Diskurs ist eine Verflechtung von Aussagen und Praxen und konstruiert dabei durch Sprache soziale Strukturen, die Normen und Realität zu einer gewissen Zeit bestimmen. Er ist dabei unabhängig von speziellen Situationen und wird von Individuen mit unterschiedlicher Macht und Deutungsansprüchen verschieden stark geprägt. Zentral sind dabei die Rolle diskursiver Begriffe, die in kontrolliert ins Interview eingebracht werden sollten. Diskurse haben häufig eine hegemoniale Macht und wirken sich auf die individuellen Meinungen, zu weiten Teilen durch Sprache, aus. Die Sprachpraxis ist daher ein wichtiger methodischer Zugang zu diskursiven Interviews und lassen auch in einzelnen Interviews oft Rückschlüsse auf Gruppen zu.
Methode
Durch methodisch geführte diskursive Interviews soll eine Methode geschaffen werden, die die Generalisierbarkeit von qualitativer Forschung gewährleisten soll. Es werden dabei verschiedene Verfahren und Techniken, wie der Grounded Theory, zu einem besonderen Interviewverfahren verbunden. Im speziellen wird dabei auf das Auswahlverfahren, die Auswertungstechniken und auf Fragestil und Befragungstechnik wert gelegt.
Für das Auswahlverfahren ist die Auswahl von Prototypen nach Bornemann für eine bestimmte Gruppe oder ein Untersuchungsobjekt besonders geeignet. Die Prototypen müssen dabei nicht immer idealtypisch sein, sondern können nach repräsentativen Eigenschaften ausgesucht werden und auch die Ränder des Untersuchungsfeldes abbilden.
Im Fragestil und der Befragungstechnik ist ein starker Interviewleitfaden empfehlenswert, in dem je nach Interesse Nähe oder Distanz aufgebaut werden kann um persönliche oder offizielle Antworten zu erhalten. Darüber hinaus können in einem Interviewleitfaden mit dem Verlauf des Interviews auch spontan variiert werden und es bieten sich verschiedene Mittel wie Begründungsaufforderungen und Konfrontationen an, mit denen auch Randpositionen, Sichtweisen oder Sachverhalte erfragt werden können. Der Leitfaden sollte allerdings während den Befragungen möglichst ähnlich bleiben.
Die Auswertungstechniken bestehen aus verschiedenen Methoden zur Auswertung der diskursiven Interviews, wie z.B. die minimale oder maximale Kontrastierung oder die Entwicklung einer Typologie von Diskurssträngen. Dabei ist es wichtig vor allem auch im Nachhinein die Kommunikationsebene zu berücksichtigen.
Durch die methodische Untersuchung von diskursiven Mitteln in einem Interview lässt sich eine geringe Abweichung zu allgemein gesellschaftlichen Diskursen feststellen und daher generalisierbare Aussagen treffen, was sich vor allem durch die hegemoniale Macht von Diskursen erklärt. Durch die Rückschlussmöglichkeiten die bei der Untersuchung diskursiver Mittel entstehen fallen viele Probleme der Generalisierbarkeit, wie geringe Interviewzahlen, weg.
Zentrales Mittel für die Diskursanalyse ist das diskursive Interview. Diese können sowohl in Einzelinterviews und Gruppeninterviews durchgeführt werden, was verschiedene Vor- und Nachteile einschließt. Jens Schneider arbeitet dabei heraus, wie durch die Methoden der Diskursanalyse die Problematiken qualitativer Forschung, wie hoher Auswertungsaufwand und geringe Fallzahl, positiv umgesetzt werden können. Dabei kommen den Faktoren der Kommunikation und Diskursivität eine besondere Bedeutung zu.
Kommunikationsfaktoren
Von den Forschenden muss vor allem die Kommunikationsebene berücksichtigt werden. Dabei sollte zwischen Interviewten und Forschenden keine Hierarchien bestehen und je nach Bedarf verschiedene Atmosphäre wie persönliche oder offizielle geschaffen werden.
Diskursivität in qualitativen Interviews
Der Diskurs ist eine Verflechtung von Aussagen und Praxen und konstruiert dabei durch Sprache soziale Strukturen, die Normen und Realität zu einer gewissen Zeit bestimmen. Er ist dabei unabhängig von speziellen Situationen und wird von Individuen mit unterschiedlicher Macht und Deutungsansprüchen verschieden stark geprägt. Zentral sind dabei die Rolle diskursiver Begriffe, die in kontrolliert ins Interview eingebracht werden sollten. Diskurse haben häufig eine hegemoniale Macht und wirken sich auf die individuellen Meinungen, zu weiten Teilen durch Sprache, aus. Die Sprachpraxis ist daher ein wichtiger methodischer Zugang zu diskursiven Interviews und lassen auch in einzelnen Interviews oft Rückschlüsse auf Gruppen zu.
Methode
Durch methodisch geführte diskursive Interviews soll eine Methode geschaffen werden, die die Generalisierbarkeit von qualitativer Forschung gewährleisten soll. Es werden dabei verschiedene Verfahren und Techniken, wie der Grounded Theory, zu einem besonderen Interviewverfahren verbunden. Im speziellen wird dabei auf das Auswahlverfahren, die Auswertungstechniken und auf Fragestil und Befragungstechnik wert gelegt.
Für das Auswahlverfahren ist die Auswahl von Prototypen nach Bornemann für eine bestimmte Gruppe oder ein Untersuchungsobjekt besonders geeignet. Die Prototypen müssen dabei nicht immer idealtypisch sein, sondern können nach repräsentativen Eigenschaften ausgesucht werden und auch die Ränder des Untersuchungsfeldes abbilden.
Im Fragestil und der Befragungstechnik ist ein starker Interviewleitfaden empfehlenswert, in dem je nach Interesse Nähe oder Distanz aufgebaut werden kann um persönliche oder offizielle Antworten zu erhalten. Darüber hinaus können in einem Interviewleitfaden mit dem Verlauf des Interviews auch spontan variiert werden und es bieten sich verschiedene Mittel wie Begründungsaufforderungen und Konfrontationen an, mit denen auch Randpositionen, Sichtweisen oder Sachverhalte erfragt werden können. Der Leitfaden sollte allerdings während den Befragungen möglichst ähnlich bleiben.
Die Auswertungstechniken bestehen aus verschiedenen Methoden zur Auswertung der diskursiven Interviews, wie z.B. die minimale oder maximale Kontrastierung oder die Entwicklung einer Typologie von Diskurssträngen. Dabei ist es wichtig vor allem auch im Nachhinein die Kommunikationsebene zu berücksichtigen.
Durch die methodische Untersuchung von diskursiven Mitteln in einem Interview lässt sich eine geringe Abweichung zu allgemein gesellschaftlichen Diskursen feststellen und daher generalisierbare Aussagen treffen, was sich vor allem durch die hegemoniale Macht von Diskursen erklärt. Durch die Rückschlussmöglichkeiten die bei der Untersuchung diskursiver Mittel entstehen fallen viele Probleme der Generalisierbarkeit, wie geringe Interviewzahlen, weg.
3 Grounded Theory. Strategien qualitativer Forschung → zum Text
Die Grounded Theory ist eine von Anselm Strauss und Barney Glaser entwickelte Methode zur Generierung von Theorien auf Basis empirischer Daten. Die Methode wurde von Corbin/Strauss weiterentwickelt.
Den philosophischen Hintergrund der Methode bildet der Pragmatismus wie er an der Chicago School entwickelt wurde. Daraus folgt das für die Grounded Theory bezeichnende Theorieverständnis. Die Entwicklung von Theorien wird als ein ewig dynamischer, niemals abgeschlossener Prozess verstanden, in welchem die vollendete Theorie immer auch als Ausgangspunkt für die Entwicklung weiterer Theorien angesehen wird.
Die Grounded Theory folgt einer abduktiven Logik. Dies soll u.a. Offenheit während des Forschungsverlaufs und einfache Handhabung ermöglichen. Eine Besonderheit der Grounded Theory ist, dass die Konzepte, an denen sich die Forschung orientiert, aus den Daten gewonnen werden, anstatt gewonnene Daten zuvor entwickelten Konzepten zuzuordnen. Analyse der Daten und Datenerhebung bedingen sich wechselseitig, wodurch der Forschungsprozess eng mit dem Forschungsgegenstand verflochten bleibt. Die Wahl des zur Untersuchung herangezogenen Materials ist nicht festgelegt, sondern ergibt sich aus den Vorlieben des Forschers, den verfügbaren Ressourcen und des Forschungsziels.
Eine weitere Besonderheit ist der exakte Umgang mit erhobenen Datensätzen in deren Analyse. Ein Werkzeug das dem Wissenschaftler in der Grounded Theory zur Auswertung der Daten zur Verfügung steht, ist u.a. die Methode des permanenten Vergleichs (constant comparison). Hierzu werden die gesammelten Daten in jeder Analysesequenz mit den bereits vorhandenen kontrastiert. Dies ermöglicht es den Forschenden Unstimmigkeiten und Widersprüchen gewahr zu werden und durch deren Aufdeckung und Überwindung den Forschungsprozess zu optimieren bzw. die Erklärungskraft bereits entwickelter Konzepte zu erhöhen.
Die methodische Vorgehensweise wird den Froscher_innen weitestgehend selbst überlassen. Zentral sind lediglich drei Punkte, die je nach Vorliebe mit verschiedenen Tools durchgeführt werden können: Analyse, Theoretical Sampling und Theoriegenese.
Die Analyse beginnt nach der Erhebung erster Daten. Das Sammeln neuer Daten orientiert sich an der Analyse der vorherigen Daten. Das Abwechseln von Analyse- und Erhebungseinheiten ermöglicht den Forscher_innen die Richtung der Forschung zu unter Kontrolle zu behalten. Zwar mag ein solches Vorgehen nicht immer in der Idealform funktionieren, wenn es möglich ist, sollte es allerdings so gehandhabt werden. Durch dieses Verfahren wird sichergestellt, dass die entwickelten Kategorien sich möglichst nah an den zur Verfügung stehenden Datensätzen orientieren.
Nach der Sammlung von Daten werden diese Analysiert. Daraus entstehen neue Fragen, Kategorien und Vorstellungen. Diese bestimmen die Auswahl der nächsten Daten. Das Wechselspiel zwischen Analyse und Theoretical Sampling wird solange fortgesetzt, bis die meisten allgemeinen Kategorien voll entwickelt sind, Variationen aufweisen, und miteinander logisch Verbunden sprich, gesättigt sind und ein stabiles System ergeben, in welchem sie sich gegenseitig stützen. Die verschiedenen Eigenschaften müssen in ihren Ausprägungen unter unterschiedlichen Bedingungen verstanden und geprüft sein. Ziel ist es, genug Daten zu erheben, um die gebildeten Kategorien und Konzepte deutlich voneinander abgrenzen zu können und Zusammenhänge von Bedeutungen und Ereignissen erklären zu können.
Ziel der Grounded Theory ist die Entwicklung einer neuen Theorie die die Zusammenhänge von Phänomenen Erklärt. Theorie wird verstanden als eine Ansammlung gut ausgearbeiteter Kategorien, die nach Eigenschaften und Dimensionen und Beziehungen der Eigenschaften zueinander ausgearbeitet wurden, um einen theoretischen Rahmen zu erzeugen, welcher sich eignet um ein Phänomen zu erklären. Im Zentrum steht der Leitsatz (core concept), unter dem sich alle daraus folgenden Sätze versammeln.
Den philosophischen Hintergrund der Methode bildet der Pragmatismus wie er an der Chicago School entwickelt wurde. Daraus folgt das für die Grounded Theory bezeichnende Theorieverständnis. Die Entwicklung von Theorien wird als ein ewig dynamischer, niemals abgeschlossener Prozess verstanden, in welchem die vollendete Theorie immer auch als Ausgangspunkt für die Entwicklung weiterer Theorien angesehen wird.
Die Grounded Theory folgt einer abduktiven Logik. Dies soll u.a. Offenheit während des Forschungsverlaufs und einfache Handhabung ermöglichen. Eine Besonderheit der Grounded Theory ist, dass die Konzepte, an denen sich die Forschung orientiert, aus den Daten gewonnen werden, anstatt gewonnene Daten zuvor entwickelten Konzepten zuzuordnen. Analyse der Daten und Datenerhebung bedingen sich wechselseitig, wodurch der Forschungsprozess eng mit dem Forschungsgegenstand verflochten bleibt. Die Wahl des zur Untersuchung herangezogenen Materials ist nicht festgelegt, sondern ergibt sich aus den Vorlieben des Forschers, den verfügbaren Ressourcen und des Forschungsziels.
Eine weitere Besonderheit ist der exakte Umgang mit erhobenen Datensätzen in deren Analyse. Ein Werkzeug das dem Wissenschaftler in der Grounded Theory zur Auswertung der Daten zur Verfügung steht, ist u.a. die Methode des permanenten Vergleichs (constant comparison). Hierzu werden die gesammelten Daten in jeder Analysesequenz mit den bereits vorhandenen kontrastiert. Dies ermöglicht es den Forschenden Unstimmigkeiten und Widersprüchen gewahr zu werden und durch deren Aufdeckung und Überwindung den Forschungsprozess zu optimieren bzw. die Erklärungskraft bereits entwickelter Konzepte zu erhöhen.
Die methodische Vorgehensweise wird den Froscher_innen weitestgehend selbst überlassen. Zentral sind lediglich drei Punkte, die je nach Vorliebe mit verschiedenen Tools durchgeführt werden können: Analyse, Theoretical Sampling und Theoriegenese.
Die Analyse beginnt nach der Erhebung erster Daten. Das Sammeln neuer Daten orientiert sich an der Analyse der vorherigen Daten. Das Abwechseln von Analyse- und Erhebungseinheiten ermöglicht den Forscher_innen die Richtung der Forschung zu unter Kontrolle zu behalten. Zwar mag ein solches Vorgehen nicht immer in der Idealform funktionieren, wenn es möglich ist, sollte es allerdings so gehandhabt werden. Durch dieses Verfahren wird sichergestellt, dass die entwickelten Kategorien sich möglichst nah an den zur Verfügung stehenden Datensätzen orientieren.
Nach der Sammlung von Daten werden diese Analysiert. Daraus entstehen neue Fragen, Kategorien und Vorstellungen. Diese bestimmen die Auswahl der nächsten Daten. Das Wechselspiel zwischen Analyse und Theoretical Sampling wird solange fortgesetzt, bis die meisten allgemeinen Kategorien voll entwickelt sind, Variationen aufweisen, und miteinander logisch Verbunden sprich, gesättigt sind und ein stabiles System ergeben, in welchem sie sich gegenseitig stützen. Die verschiedenen Eigenschaften müssen in ihren Ausprägungen unter unterschiedlichen Bedingungen verstanden und geprüft sein. Ziel ist es, genug Daten zu erheben, um die gebildeten Kategorien und Konzepte deutlich voneinander abgrenzen zu können und Zusammenhänge von Bedeutungen und Ereignissen erklären zu können.
Ziel der Grounded Theory ist die Entwicklung einer neuen Theorie die die Zusammenhänge von Phänomenen Erklärt. Theorie wird verstanden als eine Ansammlung gut ausgearbeiteter Kategorien, die nach Eigenschaften und Dimensionen und Beziehungen der Eigenschaften zueinander ausgearbeitet wurden, um einen theoretischen Rahmen zu erzeugen, welcher sich eignet um ein Phänomen zu erklären. Im Zentrum steht der Leitsatz (core concept), unter dem sich alle daraus folgenden Sätze versammeln.
4 Corbin/Straus: Grundlagen der Grounded Theory → zum Text
Die US-amerikanischen Soziologen Anselm L. Strauss und Barney G. Glaser entwickelten die Methode der Grounded Theory zur Generierung von Theorien auf Basis empirischer Daten. Im späteren Verlauf seiner wissenschaftlichen Laufbahn entwickelte Strauss einen eigenen Ansatz der Grounded Theory weiter, welcher stärker an induktiven Vorgehensweisen orientiert ist. [1] Die Grounded Theory Anselm Strauss' bildet die Basis des Lehrbuches „Basics of Qualitative Research – Techniques and Procedures for Developing Grounded Theory“ von Juliet Corbin und Anselm Strauss, auf welches sich dieser Artikel inhaltlich bezieht. Die Grounded Theory wurde somit von Corbin/Strauss weiterentwickelt.
5 Die Online-Inhaltsanalyse im Kontext sozialer Netzwerke → zum Text
Ein praktisches Beispiel für die Anwendung bestimmter Methoden qualitativer Forschung bildet D. Schirmers Studie „Ehe für alle – Gleichstellung oder Geschlechterkampf“.
Die zuhnehmende Digitalisierung der Kommunikation wirft Fragen der Methodische Ausrichtung auf und bildet dadurch neue Herausforderungen für die Soziologische Forschung.
Hieraus entstehen jedoch auch neue Möglichkeiten, da ein leichterer Zugang zu den Interpretationen und Deutungen der Menschen möglich ist. Die Form der Kommunikation in sozialen Netzwerken unterscheidet sich von Kommunikationsformen in anderen bereichen: Sie ist meist nicht-reflektiert, subjektiv und emotional und das alles in kurzen Nachrichten. Dies muss bei der Auswahl der Methoden einer Inhaltsanalyse berücksichtigt werden. Inhaltsanalyse ist nach Früh eine empirische Methode um inhaltliche und formale Merkmale von Kommunikation allgemein verständlich zu beschreiben. Meist geht damit eine Interpretation der gewonnenen Ergebnisse im Bezug auf deren Kontext einher.
Die Online-Inhaltsanalyse ist ein spezieller Fall der Analyse in dem die Daten aus dem Netz erhoben werden. Beispiele für verschiedene Arten der Inhaltsanalyse sind die klassische Analyse (inhaltliche Aspekte/ Art der Selbstdarstellung), Strukturanalyse (formaler Aufbau einer Internetseite), Linkanalyse (verbindungen zwischen Seiten), kombinierte Verfahren.
Im Fall einer Online-Inhaltsanalyse entstehen gewisse methodische Herausforderungen:
Der oder die Forscher_in hat keinen Einfluss auf die Form der Daten. Die Akteure hinterlassen, abhängig von ihrer eigenen Intention, Artefakte. Das führt zu einem Kontrollverlust über die Datenerhebungssituation. Zudem erfolgt der Zugriff auf die Daten zu einem anderen Zeitpunkt als die Entstehung der Daten. Das kann ein Vorteil sein, da Verzerrungseffekte, die durch die Anwesenheit eines Forschers oder eine Forscherin entstehen können, entfallen.
Weitere Aspekte, die es zu berücksichtigen gilt sind die Flüchtigkeit der Daten - da sich das Internet ständig wandelt so wie Nonlinearität - Die Themen haben keine klare, lineare Struktur und streuen. Aus diesen Gründen ist eine Eingrenzung des Erhebungsrahmens notwendig besonders notwendig. Herausvorderung entstehen zudem bei der Auswahl und Festlegung des Ziels und der dazu verwendeten Mittel (komplette Untersuchung oder partiell – wenn letzteres: Was und was nicht?).
Die zuhnehmende Digitalisierung der Kommunikation wirft Fragen der Methodische Ausrichtung auf und bildet dadurch neue Herausforderungen für die Soziologische Forschung.
Hieraus entstehen jedoch auch neue Möglichkeiten, da ein leichterer Zugang zu den Interpretationen und Deutungen der Menschen möglich ist. Die Form der Kommunikation in sozialen Netzwerken unterscheidet sich von Kommunikationsformen in anderen bereichen: Sie ist meist nicht-reflektiert, subjektiv und emotional und das alles in kurzen Nachrichten. Dies muss bei der Auswahl der Methoden einer Inhaltsanalyse berücksichtigt werden. Inhaltsanalyse ist nach Früh eine empirische Methode um inhaltliche und formale Merkmale von Kommunikation allgemein verständlich zu beschreiben. Meist geht damit eine Interpretation der gewonnenen Ergebnisse im Bezug auf deren Kontext einher.
Die Online-Inhaltsanalyse ist ein spezieller Fall der Analyse in dem die Daten aus dem Netz erhoben werden. Beispiele für verschiedene Arten der Inhaltsanalyse sind die klassische Analyse (inhaltliche Aspekte/ Art der Selbstdarstellung), Strukturanalyse (formaler Aufbau einer Internetseite), Linkanalyse (verbindungen zwischen Seiten), kombinierte Verfahren.
Im Fall einer Online-Inhaltsanalyse entstehen gewisse methodische Herausforderungen:
Der oder die Forscher_in hat keinen Einfluss auf die Form der Daten. Die Akteure hinterlassen, abhängig von ihrer eigenen Intention, Artefakte. Das führt zu einem Kontrollverlust über die Datenerhebungssituation. Zudem erfolgt der Zugriff auf die Daten zu einem anderen Zeitpunkt als die Entstehung der Daten. Das kann ein Vorteil sein, da Verzerrungseffekte, die durch die Anwesenheit eines Forschers oder eine Forscherin entstehen können, entfallen.
Weitere Aspekte, die es zu berücksichtigen gilt sind die Flüchtigkeit der Daten - da sich das Internet ständig wandelt so wie Nonlinearität - Die Themen haben keine klare, lineare Struktur und streuen. Aus diesen Gründen ist eine Eingrenzung des Erhebungsrahmens notwendig besonders notwendig. Herausvorderung entstehen zudem bei der Auswahl und Festlegung des Ziels und der dazu verwendeten Mittel (komplette Untersuchung oder partiell – wenn letzteres: Was und was nicht?).
6 Vom Einzelfall zum Typus – Konstruktion von Typen und Typologien → zum Text
Die Autor*innen Udo Kelle und Susann Kluge beteiligen sich, mit einem Verfahren zur Konstruktion von Typologien, ebenfalls an der Methodendiskussion der qualitativen Sozialforschung. Sie nehmen dabei eine Auswertung und Diskussion der Vor- und Nachteile verschiedener Methoden vor und führen diese in einem Strang zusammen, in dessen Teilschritten, die Verwendung verschiedener Methoden, je nach Forschungsgebiet, möglich ist. Ihr Ziel ist dabei die Bildung von Typologien, die helfen sollen die für ein Forschungsfeld relevanten Phänomene abzubilden und mit Sinnzusammenhängen zu füllen. Dabei sind drei Schritte von entscheidender Bedeutung.
Erstens das Qualitative Sampling. Kelle und Kluge stellen drei verschiedene Strategien für die Erhebung von Daten vor, die Suche nach Gegenbeispielen, das Theoretical Sampling und die Qualitativen Stichprobenpläne. Die Auswahl eines geeignetes Erhebungsverfahren erfolgt nach Kelle und Kluge vor allem anhand von theoretischem Vorwissen und wie groß dieses ausgeprägt ist. Das Theoretical Sampling z.B., das auf die Grounded Theory zurück zu führen ist, ist eine Methode für ein Forschungsfeld über das ein geringes theoretisches Vorwissen besteht.
Zweitens werden mit dem Kodierverfahren Methoden vorgestellt, mit denen das Datenmaterial systematisch erschlossen werden kann. Beim Kodieren werden Daten, in Form von Zeilen oder Textausschnitten, verschiedenen Merkmalen oder Kategorien, wie Geschlecht oder Handlungsmuster zugeordnet. Kelle und Kluge stellen dabei zwei Arten des Kodierens, das subsumptive und das abduktive Kodieren vor. Beim subsumptiven Kodieren werden die Daten bereits bestehenden Kategorien zugeordnet, beim abduktiven Kodieren werden Kategorien anhand der Daten entwickelt. Kelle und Kluge empfehlen unter der Berücksichtigung der besonderen Rolle von Vorwissen eine Kombination aus beiden Kodierarten.
Der abschließende Schritt ist die Bildung der Prozess der Typenbildung. Typen sind Gruppen, die aufgrund verschiedener Kategorie- oder Merkmalskombinationen gebildet werden. So können verschiedene Merkmale zu z.B. besonderen Handlungstypen zusammengefasst werden. Der Prozess der Typenbildung unterteilt sich dabei in vier entscheidende Schritte: 1. Die Erarbeitung relevanter Vergleichsdimensionen 2. Gruppierung der Fälle und Analyse empirischer Regelmäßigkeiten 3. Analyse inhaltlicher Sinnzusammenhänge 4. Charakterisierung der gebildeten Typen. Die einzelnen Teilschritte können im Prozess der Typenbildung dabei mehrfach durchlaufen werden und sind die Basis der Theoriegenerierung.
Im Verlauf ihrer Arbeit erklären Kelle und Kluge, dass das Ziel der empirisch begründeten Typenbildung die Abbildung für ein Phänomen theoretisch relevanter Merkmalskombinationen ist. Ziel qualitativer Forschung ist es nicht eine Häufigkeitsverteilung abzubilden sondern sich einen Überblick über die Heterogenität des Forschungsfeldes zu machen. Dies entspricht auch der eigentlichen Defintion des Repräsentativitätsbegriff. Kelle und Kluge belegen daher die repräsentativen Möglichkeiten qualitativer Forschung, bevorzugen jedoch den Begriff der Relevanz.
Erstens das Qualitative Sampling. Kelle und Kluge stellen drei verschiedene Strategien für die Erhebung von Daten vor, die Suche nach Gegenbeispielen, das Theoretical Sampling und die Qualitativen Stichprobenpläne. Die Auswahl eines geeignetes Erhebungsverfahren erfolgt nach Kelle und Kluge vor allem anhand von theoretischem Vorwissen und wie groß dieses ausgeprägt ist. Das Theoretical Sampling z.B., das auf die Grounded Theory zurück zu führen ist, ist eine Methode für ein Forschungsfeld über das ein geringes theoretisches Vorwissen besteht.
Zweitens werden mit dem Kodierverfahren Methoden vorgestellt, mit denen das Datenmaterial systematisch erschlossen werden kann. Beim Kodieren werden Daten, in Form von Zeilen oder Textausschnitten, verschiedenen Merkmalen oder Kategorien, wie Geschlecht oder Handlungsmuster zugeordnet. Kelle und Kluge stellen dabei zwei Arten des Kodierens, das subsumptive und das abduktive Kodieren vor. Beim subsumptiven Kodieren werden die Daten bereits bestehenden Kategorien zugeordnet, beim abduktiven Kodieren werden Kategorien anhand der Daten entwickelt. Kelle und Kluge empfehlen unter der Berücksichtigung der besonderen Rolle von Vorwissen eine Kombination aus beiden Kodierarten.
Der abschließende Schritt ist die Bildung der Prozess der Typenbildung. Typen sind Gruppen, die aufgrund verschiedener Kategorie- oder Merkmalskombinationen gebildet werden. So können verschiedene Merkmale zu z.B. besonderen Handlungstypen zusammengefasst werden. Der Prozess der Typenbildung unterteilt sich dabei in vier entscheidende Schritte: 1. Die Erarbeitung relevanter Vergleichsdimensionen 2. Gruppierung der Fälle und Analyse empirischer Regelmäßigkeiten 3. Analyse inhaltlicher Sinnzusammenhänge 4. Charakterisierung der gebildeten Typen. Die einzelnen Teilschritte können im Prozess der Typenbildung dabei mehrfach durchlaufen werden und sind die Basis der Theoriegenerierung.
Im Verlauf ihrer Arbeit erklären Kelle und Kluge, dass das Ziel der empirisch begründeten Typenbildung die Abbildung für ein Phänomen theoretisch relevanter Merkmalskombinationen ist. Ziel qualitativer Forschung ist es nicht eine Häufigkeitsverteilung abzubilden sondern sich einen Überblick über die Heterogenität des Forschungsfeldes zu machen. Dies entspricht auch der eigentlichen Defintion des Repräsentativitätsbegriff. Kelle und Kluge belegen daher die repräsentativen Möglichkeiten qualitativer Forschung, bevorzugen jedoch den Begriff der Relevanz.
7 Die Typenbildung der dokumentarischen Methode → zum Text
Die Typenbildung gilt als Produkt der komparativen Analyse in der dokumentarischen Methode, die ihren Ursprung in einem Forschungsprojekt zur Interpretation von Gruppendiskussionen hat und der Artikulation von kollektiven Erfahrungen und Orientierungsrahmen (spezifische Orientierungen, Richtwerte) dient.
Mit der Typenbildung versucht man zu erreichen, dass die ForscherInnen ihren Fall nicht nur gut kennen, sondern auch eine Richtung zur Bildung der Typen zu identifizieren, indem man die in Form von Stichproben gefundene Elemente von einem Fall auswählt, um sie in anderen ähnlichen Fällen zu entdecken und zu gruppieren.
Mit der Typenbildung versucht man zu erreichen, dass die ForscherInnen ihren Fall nicht nur gut kennen, sondern auch eine Richtung zur Bildung der Typen zu identifizieren, indem man die in Form von Stichproben gefundene Elemente von einem Fall auswählt, um sie in anderen ähnlichen Fällen zu entdecken und zu gruppieren.
8 Die Situationsanalyse → zum Text
Adele E. Clarke stellt mit dem „postmodernen turn“ ein Verfahren vor mit der Repräsentativität in qualitativer Forschung erlangt werden kann und verbindet hierfür verschiedene Ansätze der Soziologie miteinander. Nach dem Postmodernen Turn steht vor allem der Wissensbegriff in Kritik. Adele Clarke erläutert, dass menschliches Wissen in der Regel situativ und konstruiert ist. Daher erforschend Sozialwissenschaften häufig nur Einzelsituationen, der Anspruch auf universale Gültigkeit wird von ihr als ignorant bezeichnet, weswegen sie eine grundsätzliche Überarbeitung wissenschaftlicher Methoden erwägt.
Methode
Clarke bezieht sich grundlegend auf die Grounded Theory und will diese durch die Situationsanalyse ergänzen, bei der nicht sichtbare Elemente, wie z.B. historische oder kulturelle Elemente, Diskurse oder Machtverhältnisse, einbezogen werden. Ziel ist es die soziale Wirklichkeit möglichst genau abzubilden und alle Elemente zu berücksichtigen die für ein Phänomen relevant sind. Ein geeignetes Mittel für diese Situationanalyse sind die Erstellung von „Maps“, die einen Überblick über den konkreten Stand der Forschung zu geben und systematisches Denken unterstützen. Clarke unterscheidet dabei vier Typen von Maps. Erstens die Situationsmaps, zweitens Maps von sozialen Welten/Arenen, drittens die Positionsmaps und viertens die Projektmaps. Situationsmaps vor allem alle menschlichen und nicht menschlichen Elemente die für ein Phänomen abseits der untersuchten Fälle relevant sind. Dabei können nach Clare besonders gewöhnlich wirkende Umstände besonders relevant sein. Die relevanten Elemente werden in den Maps berücksichtigt und anschließend einzeln miteinander in Beziehung gesetzt. Anschließend werden bestimmte Beziehungen näher verfolgt. Der Prozess funktioniert ähnlich wie bei der Grounded Theory wiederholend und ist nur abgeschlossen wenn sich keine neuen Aspekte ergeben.
Für die Situationsmaps ist es im spezielle wichtig in welchen sozialen Situationen sich das Objekt befindet hier können menschliche Beziehungen aber auch materielle oder kulturelle Ressourcen wie Bildung relevant sein.
Bei Maps sozialer Welten geht es um symbolischen Interaktionismus, also wie menschen kollektiv handeln. Hier sind vor allem Diskurse und Machtverhältnisse relevant. Der Dualismus zwischen einem Subjekt und einem Objekt soll dabei aufgehoben werden und kollektive Elemente, wie Verpflichtungen, Normen oder auch Technologien, berücksichtigt werden. Akteur*innen bewegen sich dabei oft in verschiedenen konstruierten und auch diskursiven Welten.
Positionsmaps stellen die verschieden Positionen zu relevanten Phänomen und Hauptthemen dar und stellen umstrittene Themen und abweichende Positionen und auch Fragen dar. Auch hier sind Diskurse und Machtverhältnisse relevant. Die Heterogenität der Diskurse und die verschiedenen Machtverhältnisse in den sozialen Welten sollen beleuchtet werden.
Projektmaps haben die Aufgabe einen gesamten Überblick über das Forschungsprojekt geeignet. Als Projektmaps können auch die anderen drei Arten von Maps berücksichtigt.
Das Mapping bietet der qualitativen Sozialforschung neue Methoden der Analyse unter besonderer Berücksichtigung der Grouded Theory, mit der die soziale Wirklichkeit deutlicher abgebildet werden kann.
Repräsentativität
Clarke nimmt dabei durchaus die Positionen, dass eine repräsentative und generalisierbare Abbildung der Wirklichkeit aufgrund der verschiedenen Welten kaum möglich ist, versucht aber durch Methoden der Grounded Theory auch Sättigungen etc. zu erreichen. Clarke lässt daher die Frage der Repräsentativität weitgehend unbeanwortet, verwendet jedoch eine analytische Methode die deutlich mehr Variablen berücksichtigt und daher immer wieder repräsentative Phänomene aufzeigt, die andern Methoden verschlossen bleiben. Offen bleibt auch ob Clarke den Begriff der Repräsentativität für die qualitative Forschung überhaupt als zielführend erachtet, so wie er in begriffspolitischen Diskursen in den Sozialwissenschaften diskutiert wird.
Methode
Clarke bezieht sich grundlegend auf die Grounded Theory und will diese durch die Situationsanalyse ergänzen, bei der nicht sichtbare Elemente, wie z.B. historische oder kulturelle Elemente, Diskurse oder Machtverhältnisse, einbezogen werden. Ziel ist es die soziale Wirklichkeit möglichst genau abzubilden und alle Elemente zu berücksichtigen die für ein Phänomen relevant sind. Ein geeignetes Mittel für diese Situationanalyse sind die Erstellung von „Maps“, die einen Überblick über den konkreten Stand der Forschung zu geben und systematisches Denken unterstützen. Clarke unterscheidet dabei vier Typen von Maps. Erstens die Situationsmaps, zweitens Maps von sozialen Welten/Arenen, drittens die Positionsmaps und viertens die Projektmaps. Situationsmaps vor allem alle menschlichen und nicht menschlichen Elemente die für ein Phänomen abseits der untersuchten Fälle relevant sind. Dabei können nach Clare besonders gewöhnlich wirkende Umstände besonders relevant sein. Die relevanten Elemente werden in den Maps berücksichtigt und anschließend einzeln miteinander in Beziehung gesetzt. Anschließend werden bestimmte Beziehungen näher verfolgt. Der Prozess funktioniert ähnlich wie bei der Grounded Theory wiederholend und ist nur abgeschlossen wenn sich keine neuen Aspekte ergeben.
Für die Situationsmaps ist es im spezielle wichtig in welchen sozialen Situationen sich das Objekt befindet hier können menschliche Beziehungen aber auch materielle oder kulturelle Ressourcen wie Bildung relevant sein.
Bei Maps sozialer Welten geht es um symbolischen Interaktionismus, also wie menschen kollektiv handeln. Hier sind vor allem Diskurse und Machtverhältnisse relevant. Der Dualismus zwischen einem Subjekt und einem Objekt soll dabei aufgehoben werden und kollektive Elemente, wie Verpflichtungen, Normen oder auch Technologien, berücksichtigt werden. Akteur*innen bewegen sich dabei oft in verschiedenen konstruierten und auch diskursiven Welten.
Positionsmaps stellen die verschieden Positionen zu relevanten Phänomen und Hauptthemen dar und stellen umstrittene Themen und abweichende Positionen und auch Fragen dar. Auch hier sind Diskurse und Machtverhältnisse relevant. Die Heterogenität der Diskurse und die verschiedenen Machtverhältnisse in den sozialen Welten sollen beleuchtet werden.
Projektmaps haben die Aufgabe einen gesamten Überblick über das Forschungsprojekt geeignet. Als Projektmaps können auch die anderen drei Arten von Maps berücksichtigt.
Das Mapping bietet der qualitativen Sozialforschung neue Methoden der Analyse unter besonderer Berücksichtigung der Grouded Theory, mit der die soziale Wirklichkeit deutlicher abgebildet werden kann.
Repräsentativität
Clarke nimmt dabei durchaus die Positionen, dass eine repräsentative und generalisierbare Abbildung der Wirklichkeit aufgrund der verschiedenen Welten kaum möglich ist, versucht aber durch Methoden der Grounded Theory auch Sättigungen etc. zu erreichen. Clarke lässt daher die Frage der Repräsentativität weitgehend unbeanwortet, verwendet jedoch eine analytische Methode die deutlich mehr Variablen berücksichtigt und daher immer wieder repräsentative Phänomene aufzeigt, die andern Methoden verschlossen bleiben. Offen bleibt auch ob Clarke den Begriff der Repräsentativität für die qualitative Forschung überhaupt als zielführend erachtet, so wie er in begriffspolitischen Diskursen in den Sozialwissenschaften diskutiert wird.
9 Anmerkungen
Alle Methoden benötigen eine Theorie, die erklären oder wenigstens beschreiben kann, wie die Verbindung von subjektiven und kollektiven Denkinhalten und Bewertungsschemata vorstellbar ist. Dies ist nötig um innerhalb des Wissenschaftlichen Diskurses Objektivität der Ergebnisse behaupten zu können. Dieser Anspruch auf Objektivität steht und fällt mit der Erklärungskraft und der Plausibilität der Theorien, die den Erhebungs- und Auswertungsmethoden der Forschung zugrunde liegt.
Konsequent muss man sagen: Die Auswahl und die Frage entscheidet das Ergebnis. Die Wirklichkeit ist überkomplex, die Realität kann der Wirklichkeit niemals entsprechen. Nimmt man einen Diskursstrang aus einem Gesamtdiskurs heraus und untersucht diesen, so untersucht man Teile die, aus ihrem gesamten Kontext gerissen, andere Interpretationen hervorrufen und ermöglichen als im gesamten evtl. zulässig währen. Das ist vergleichbar mit dem Einfluss des Messenden auf die Messung in der Quantenphysik. Auch im Falle der Grounded Theory entscheidet sich das Ergebnis zum einen dadurch was im Wissenschaftlichen Diskurs des Fachgebiets „sagbar“ ist, zum anderen an den philosophischen Präferenzen des Forschenden. Im Endeffekt also auf einer Einigung und individuellen Weltanschauungen. Schraf formuliert könnte man sagen, die so gewonnenen Erkenntnisse sind, als Wissen getarnte, Glaubensinhalte der Forscher_innen. Sie erhalten ihre Legitimität und objektiven Charakter nur vor dem Hintergrund einer Glaubensgemeinschaft, die diese Auffassungen in ihren Grundzügen teilt. Das ist aus sicht eines Fachbereichs kein Problem, solange Einigung über die beschriebenen Sachverhalte herrscht. Sobald allerdings mehrere Interpretationen ein und derselben Daten zulässig sind, werden Entscheidungsbegründungen relativ und subjektiv. Ob und welche Kollegen sich von den im Diskurs hervorgebrachten Argumenten überzeugen lassen hängt wiederum davon ab, ob diese Argumente mit ihrem jeweiligen Weltbild vereinbar sind.
Im Falle der Generierung einer neuen Theorie, wie es im Zentrum der Grounded Theoriy steht, kann Objektivität durch formal-logische dichte und Exaktheit hervorgbracht werden. Andererseits können auf diese Weise ebenfalls logisch konsistente, jedoch offensichtlich Falsche Theorien aufgestellt werden, da die Logik immer nur das bearbeitet, womit man sie füttert. Ob diese Elemente tatsächlich existieren, oder ihre Beziehung in einer irgendwie beschriebenen Art und weise plausibel ist, ist der Logik weitestgehend egal. Die Grenzen solcher Theorien sind die Grenzen der formalen Logiken.
Konsequent muss man sagen: Die Auswahl und die Frage entscheidet das Ergebnis. Die Wirklichkeit ist überkomplex, die Realität kann der Wirklichkeit niemals entsprechen. Nimmt man einen Diskursstrang aus einem Gesamtdiskurs heraus und untersucht diesen, so untersucht man Teile die, aus ihrem gesamten Kontext gerissen, andere Interpretationen hervorrufen und ermöglichen als im gesamten evtl. zulässig währen. Das ist vergleichbar mit dem Einfluss des Messenden auf die Messung in der Quantenphysik. Auch im Falle der Grounded Theory entscheidet sich das Ergebnis zum einen dadurch was im Wissenschaftlichen Diskurs des Fachgebiets „sagbar“ ist, zum anderen an den philosophischen Präferenzen des Forschenden. Im Endeffekt also auf einer Einigung und individuellen Weltanschauungen. Schraf formuliert könnte man sagen, die so gewonnenen Erkenntnisse sind, als Wissen getarnte, Glaubensinhalte der Forscher_innen. Sie erhalten ihre Legitimität und objektiven Charakter nur vor dem Hintergrund einer Glaubensgemeinschaft, die diese Auffassungen in ihren Grundzügen teilt. Das ist aus sicht eines Fachbereichs kein Problem, solange Einigung über die beschriebenen Sachverhalte herrscht. Sobald allerdings mehrere Interpretationen ein und derselben Daten zulässig sind, werden Entscheidungsbegründungen relativ und subjektiv. Ob und welche Kollegen sich von den im Diskurs hervorgebrachten Argumenten überzeugen lassen hängt wiederum davon ab, ob diese Argumente mit ihrem jeweiligen Weltbild vereinbar sind.
Im Falle der Generierung einer neuen Theorie, wie es im Zentrum der Grounded Theoriy steht, kann Objektivität durch formal-logische dichte und Exaktheit hervorgbracht werden. Andererseits können auf diese Weise ebenfalls logisch konsistente, jedoch offensichtlich Falsche Theorien aufgestellt werden, da die Logik immer nur das bearbeitet, womit man sie füttert. Ob diese Elemente tatsächlich existieren, oder ihre Beziehung in einer irgendwie beschriebenen Art und weise plausibel ist, ist der Logik weitestgehend egal. Die Grenzen solcher Theorien sind die Grenzen der formalen Logiken.
10 Fazit zur Repräsentativität
Abschließend stellt sich die Frage, ob mit den behandelten Methoden die Frage der Repräsentativität in der qualitativen Forschung gelöst werden konnte. In den Ausarbeitungen wird deutlich, dass in den Sozialwissenschaften der Begriff der Repräsentativität höchst umstritten ist. Häufig ist er durch quantitative Forschungen mit dem Begriff der statistischen Repräsentativität gleichgesetzt. Eine Repräsentativität im Sinne der statistischen ist durch qualitative Sozialforschung, aufgrund kleiner Fallzahlen und großem Datenvolumen kaum zu erreichen. Doch immer wieder wird von Autor*innen betont, dass Repräsentativität qualitativer Sozialforschung nicht die Abbildung einer Grundgesamtheit durch eine Zahl von Fällen ist, sondern die Heterogenität der Phänomene in einem Forschungsfeld aufzeigen und ihre Sinnzusammenhänge erschließen soll. Wenn das gesamte Spektrum von Fällen abgedeckt ist, wird in der qualitativen Forschung häufig von Repräsentativität, aber zum Beispiel auch von Generalisierbarkeit, wie bei Merkens, von Sättigung wie bei Glaser und Strauß oder von der Berücksichtigung aller relevanten Fälle, wie bei Kelle und Kluge gesprochen. Wie bereits herausgestellt, haben diese Terminologien jedoch eine sehr ähnliche Bedeutung. Im sozialwissenschaftlichen Diskus um Methoden und ihre Aufgaben ist diese Diskussion allerdings eher von begriffspolitischer Natur. Dabei wird die Frage zu klären sein, ob es sinnvoller ist am Repräsentativitätsbegriff festzuhalten, da er ein Gütesiegel für sozialwissenschaftliche Forschung ist und diesen mit einer weitergehenden oder sogar mit der vielleicht ursprünglichen Bedeutung zu füllen oder ob es sinnvoll ist neue Begriffe zu prägen, um die Aufgabe qualitativer Forschung besser herauszustellen und von der statistischen Repräsentativität abzugrenzen. Auf diese Frage können die Autor*innen keine klare Antwort geben und sind sich weitestgehend uneinig. Sicher ist jedoch, dass durch die Systematisierung qualitativer Methoden und ihren Ausführungen die qualitative Forschung zu ihrem Ziel gelangt und als eines der Begriffe bezeichnet werden. Ob es Verallgemeinbarkeit, Repräsentativität oder Sättigung ist, sei an dieser Stelle zu vernachlässigen. Wichtig ist sich der Dimension bewusst zu werden, für die die qualitative Forschung repräsentativ ist, nämlich für die Heterogenität der darzustellenden Phänomene und nicht für die Verteilung innerhalb einer Grundgesamtheit.