Die Online-Inhaltsanalyse im Kontext sozialer Netzwerke; basierend auf dem Ausgangstext von Dominique Schirmer (2015)
Seitenübersicht
[Ausblenden]- 1 Soziologische Forschung und der Wandel des Kommunikationsverhaltens
- 2 Soziale Netzwerke und die (Online-) Inhaltsanalyse
- 3 Die methodischen Herausforderungen im Kontext der (Online-) Inhaltsanalyse
- 4 Die Zufallsstichprobe im Rahmen quantitativer Forschung
- 5 Theoretical Sampling als methodische Vorgehensweise zur Gewinnung von Daten
- 6 Empirische Studie: Ehe für Alle – Gleichstellung oder Geschlechterkampf? Von Dominique Schirmer (2015)
- 7 Fazit und Schlussfolgerungen
- 8 Literaturverzeichnis
In diesem Artikel werden zunächst einige einleitenden Informationen zur Thematik der Online-Forschung dargestellt. Anschließend wird auf das Verfahren der Online-Inhaltsanalyse und die damit einhergehenden methodischen Herausforderungen eingegangen. Hierbei werden im späteren Bereich zwei Arten der Datenerhebung thematisiert. Der Fokus des Artikels richtet sich im Folgenden auf eine qualitative Studie, in der im Rahmen sozialer Netzwerke eine Online-Inhaltsanalyse durchgeführt wurde. Diese soll exemplarisch aufzeigen, inwiefern auch flüchtige und nicht-reflektierte Kommunikation im Internet für die soziologische Forschung nutzbar gemacht werden kann.
1 Soziologische Forschung und der Wandel des Kommunikationsverhaltens
Die soziologische Forschung sieht sich neuen Herausforderungen gegenübergestellt. Dies betrifft zum einen die inhaltlichen Aspekte der Soziologie, wie beispielsweise den demographischen Wandel, neue und verstärkte Migrationsbewegungen, die Globalisierung und die daraus folgende Entstehung stärkerer Formen sozialer Ungleichheit sowie eine zunehmende politische Radikalisierung der Bevölkerung. Zum anderen ergeben sich aber auch neue Herausforderungen im Sinne der methodischen Ausrichtung der soziologischen Forschung, die mit einer zunehmenden Digitalisierung der heutigen Gesellschaft einhergehen. Ein zentraler Bestandteil hierbei ist der Wandel des Kommunikationsverhaltens. Neue Kommunikationsplattformen wie Facebook [1] und Twitter [2] sowie die Kommentarfunktion auf Internetseiten verschiedener Onlinemedien [3] werden von vielen Menschen zum Informationsaustausch und zur Veröffentlichung eigener Meinungen und Einstellungen genutzt. Im Rahmen quantitativer Methoden gibt es bereits einige Studien, die sich mit dem Themengebiet der Online-Inhaltsanalyse in sozialen Netzwerken auseinandergesetzt haben (vgl. Schirmer 2015: 90), aber auch die qualitative Sozialforschung erkannte in den letzten Jahren die Möglichkeit, internetbasierte Daten für die Erhebung und Analyse soziologischer Phänomene zu nutzen (Früh 2000, Wesemann u. Grunwald 2010). In den Sozialwissenschaften, in denen Kommunikationsverhalten ein wichtiges Analyseobjekt darstellt, eröffnen sich durch die Digitalisierung neue Möglichkeiten. „Kommunikativität hat sich zur zentralen Kategorie qualitativer Forschung herausgebildet, mit der die Wissenschaft Zugang zu den Interpretationen und Deutungen der Individuen bekommen kann und die auch Aufschluss über die Gültigkeit der erhaltenen Forschungsergebnisse in Form der kommunikativen Validierung ermöglicht“ (Früh 2000: 3).
2 Soziale Netzwerke und die (Online-) Inhaltsanalyse
Die Konzentration dieses Beitrags richtet sich im Folgenden auf das methodische Verfahren der Inhaltsanalyse. Dabei spielt vor allem die in der gegenwärtigen Zeit intensive Nutzung sozialer Netzwerke eine wichtige Rolle, mit dessen Gebrauch für die sozialwissenschaftliche Forschung neue Herausforderungen auftreten. Unter sozialen Netzwerken werden im Folgenden Internetplattformen wie Twitter und Facebook verstanden. Dies wird damit begründet, dass auf den genannten Internetseiten die Nutzerinnen und Nutzer ihre Meinungen äußern und Informationen teilen können. Zudem ist die soziale Komponente erfüllt, insofern eine kommunikative Interaktion zwischen den verschiedenen Nutzern der jeweiligen Internetseiten möglich ist. Ein großer Unterschied zwischen Kommunikationsplattformen wie Twitter und eher traditionellen Internetseiten ist die Art und Weise, wie kommuniziert wird (Schirmer 2015). Die Nachrichten der Nutzerinnen und Nutzer auf Facebook und speziell auf Twitter beinhalten meistens eher flüchtige, nicht-reflektierte, subjektive und emotionale Äußerungen, die oftmals nicht sehr viele Textzeichen aufweisen. Im Gegensatz hierzu sind offizielle Internetseiten meistens durch deutlich längere Textinhalte mit einer argumentativen und reflektierten Textstruktur gekennzeichnet.
Früh (2007: 27) definiert die Inhaltsanalyse als eine „empirische Methode zur systematischen, intersubjektiv nachvollziehbaren Beschreibung inhaltlicher und formaler Merkmale von Mitteilungen, meist mit dem Ziel einer darauf gestützten interpretativen Inferenz auf mitteilungsexterne Sachverhalte“. Ein wichtiges Element der Inhaltsanalyse im Allgemeinen ist die Möglichkeit, unterschiedliche Arten von Kommunikation in messbare Objekte kategorial zu zerlegen (Welker et al. 2010: 9). Wichtige Analysekategorien in diesem Kontext sind vor allem Text, Bild und Ton (Früh 2007: 39).
Die Online-Inhaltsanalyse ist eine neu gebildete Untergruppe der allgemeinen Methode der Inhaltsanalyse. Im Vergleich zur traditionellen Inhaltsanalyse verändert sich hier das Medium, welches zur Analyse eines bestimmten Forschungsziels herangezogen wird. Anstatt Bücher oder Zeitungen zu analysieren, werden bei Online-Inhaltsanalysen auf internetbasierte Daten zurückgegriffen. Nach Schweitzer (2010: 61ff.) lassen sich im Kontext politischer Internetseiten vier verschiedene Typen von Online-Inhaltsanalysen unterscheiden. Diese sind die (1.) klassische Inhaltsanalyse, die (2.) Strukturanalyse, die (3.) Linkanalyse und das (4.) kombinierte Verfahren. Die (1.) klassische (Online-)Inhaltsanalyse bezieht ihren Namen daher, da sie sich am wenigsten von der traditionellen Inhaltsanalyse unterscheidet. Der Fokus der Analyse liegt weitestgehend auf den Selbstdarstellungs- und Argumentationsstrategien der beteiligten Akteure. Hierbei nehmen die Auswertungen von Bild- und Textmaterial einen Großteil der Arbeit ein. Die (2.) Strukturanalyse zielt im Gegensatz zur klassischen Inhaltsanalyse, bei der die inhaltlichen Aspekte eine zentrale Rolle einnehmen, ausschließlich auf den formalen Aufbau einer Internetseite. „Dieser begründet den gattungsspezifischen Online-Präsentationsstil eines Akteurs, der verstanden werden kann als die individuelle Konfiguration eines funktional-ausdifferenzierten Sets an strukturbildenden Website-Elementen. Die Strukturanalyse sucht jene Konfiguration empirisch zu erfassen und sie in nummerische Kennwerte zu überführen. Dabei […] bemüht sie sich umgekehrt darum, die technische Grundausstattung einer Homepage in ihrer Gänze zu beleuchten“ (Schweitzer 2010: 67). Die (3.) Linkanalyse wird wiederum nur selten als alleinige methodische Vorgehensweisen gewählt. Der zentrale Untersuchungsgegenstand bezieht sich hierbei weder auf den formalen Aufbau einer Homepage, noch auf die argumentativen Inhalte. Im Vordergrund stehen die bestehenden technischen Verbindungen zwischen den unterschiedlichen relevanten Internetseiten. Das (4.) kombinierte Verfahren beschreibt Untersuchungen, bei denen mehr als nur eine der zuvor genannten Verfahren angewendet wird. Hierbei wird versucht, diese in einer eigenständigen Art und Weise miteinander zu verknüpfen. „Hierdurch sollen mehrdimensionale Beschreibungen von politischen Internetauftritten ermöglicht werden, die einerseits von den jeweiligen Stärken der Verfahren profitieren und andererseits deren Schwächen wechselseitig ausgleichen“ (Schweitzer 2010: 74).
Früh (2007: 27) definiert die Inhaltsanalyse als eine „empirische Methode zur systematischen, intersubjektiv nachvollziehbaren Beschreibung inhaltlicher und formaler Merkmale von Mitteilungen, meist mit dem Ziel einer darauf gestützten interpretativen Inferenz auf mitteilungsexterne Sachverhalte“. Ein wichtiges Element der Inhaltsanalyse im Allgemeinen ist die Möglichkeit, unterschiedliche Arten von Kommunikation in messbare Objekte kategorial zu zerlegen (Welker et al. 2010: 9). Wichtige Analysekategorien in diesem Kontext sind vor allem Text, Bild und Ton (Früh 2007: 39).
Die Online-Inhaltsanalyse ist eine neu gebildete Untergruppe der allgemeinen Methode der Inhaltsanalyse. Im Vergleich zur traditionellen Inhaltsanalyse verändert sich hier das Medium, welches zur Analyse eines bestimmten Forschungsziels herangezogen wird. Anstatt Bücher oder Zeitungen zu analysieren, werden bei Online-Inhaltsanalysen auf internetbasierte Daten zurückgegriffen. Nach Schweitzer (2010: 61ff.) lassen sich im Kontext politischer Internetseiten vier verschiedene Typen von Online-Inhaltsanalysen unterscheiden. Diese sind die (1.) klassische Inhaltsanalyse, die (2.) Strukturanalyse, die (3.) Linkanalyse und das (4.) kombinierte Verfahren. Die (1.) klassische (Online-)Inhaltsanalyse bezieht ihren Namen daher, da sie sich am wenigsten von der traditionellen Inhaltsanalyse unterscheidet. Der Fokus der Analyse liegt weitestgehend auf den Selbstdarstellungs- und Argumentationsstrategien der beteiligten Akteure. Hierbei nehmen die Auswertungen von Bild- und Textmaterial einen Großteil der Arbeit ein. Die (2.) Strukturanalyse zielt im Gegensatz zur klassischen Inhaltsanalyse, bei der die inhaltlichen Aspekte eine zentrale Rolle einnehmen, ausschließlich auf den formalen Aufbau einer Internetseite. „Dieser begründet den gattungsspezifischen Online-Präsentationsstil eines Akteurs, der verstanden werden kann als die individuelle Konfiguration eines funktional-ausdifferenzierten Sets an strukturbildenden Website-Elementen. Die Strukturanalyse sucht jene Konfiguration empirisch zu erfassen und sie in nummerische Kennwerte zu überführen. Dabei […] bemüht sie sich umgekehrt darum, die technische Grundausstattung einer Homepage in ihrer Gänze zu beleuchten“ (Schweitzer 2010: 67). Die (3.) Linkanalyse wird wiederum nur selten als alleinige methodische Vorgehensweisen gewählt. Der zentrale Untersuchungsgegenstand bezieht sich hierbei weder auf den formalen Aufbau einer Homepage, noch auf die argumentativen Inhalte. Im Vordergrund stehen die bestehenden technischen Verbindungen zwischen den unterschiedlichen relevanten Internetseiten. Das (4.) kombinierte Verfahren beschreibt Untersuchungen, bei denen mehr als nur eine der zuvor genannten Verfahren angewendet wird. Hierbei wird versucht, diese in einer eigenständigen Art und Weise miteinander zu verknüpfen. „Hierdurch sollen mehrdimensionale Beschreibungen von politischen Internetauftritten ermöglicht werden, die einerseits von den jeweiligen Stärken der Verfahren profitieren und andererseits deren Schwächen wechselseitig ausgleichen“ (Schweitzer 2010: 74).
3 Die methodischen Herausforderungen im Kontext der (Online-) Inhaltsanalyse
Bei der Inhaltsanalyse besteht ein zentraler Unterschied zu anderen methodischen Verfahren wie beispielsweise der Befragung (Rössler 2010: 32). So wird im Rahmen der Inhaltsanalyse die Realität ohne das Beisein des Forschenden produziert. Während bei einer Befragung direkt oder indirekt nach den interessanten Daten gefragt werden kann, stellen Akteure im Rahmen einer Inhaltsanalyse aufgrund ihrer eigenen Intentionen und Einstellungen mediale Artefakte wie Texte oder Bilder her (Rössler 2010: 32). Erst anschließend kann der Forschende eingreifen und die von den spezifischen Akteuren zur Verfügung gestellten Daten analysieren. Folglich greifen die Forschenden bei der Inhaltsanalyse zu einem ganz anderen Zeitpunkt in den Forschungsprozess ein. Eine oft vorgebrachte Kritik in diesem Zusammenhang ist, dass die Forschenden einen Kontrollverlust über die Datenerhebungssituation erleiden (Rößler 2010: 32). Jedoch kann es auch ein möglicher Vorteil sein, wenn Akteure ohne das Beisein anderer Personen ihre Einstellungsmuster und Haltungen kommunizieren, da durch die bloße Anwesenheit einer weiteren Person empirische Ergebnisse verzerrt werden können. Speziell das Argument der sozialen Erwünschtheit ist in diesem Zusammenhang zu nennen. Während die traditionelle Inhaltsanalyse nicht zwingend an zeitliche und räumliche Bedingungen gebunden ist, ergeben sich in diesem Kontext bei der Online-Inhaltsanalyse neue Herausforderungen. Das Internet und die Informationen, die darüber geteilt werden, haben oftmals einen dynamischen und flüchtigen Charakter. Im Vergleich zu klassischen Büchern und Zeitungsartikeln sind die Informationsinhalte im Internet nicht zwangsläufig dauerhaft vorzufinden. Online-Inhalte werden ständig neu erstellt, modifiziert oder gelöscht (Welker et al. 2010: 11). Folglich spielt der zeitliche Kontext für den Forschenden eine wichtigere Rolle als bei der traditionellen Inhaltsanalyse.
Zudem unterscheiden sich die technischen Möglichkeiten des Internets und die Alternativen, mit denen Informationen vermittelt und geteilt werden, deutlich von herkömmlichen Medien. Internetbasierte Daten beschränken sich nicht auf Text- oder Bilddateien, auch Filme, Animationen und Audiodateien können benutzt werden, um Informationen zu verbreiten. Insgesamt führt die angesprochene Multimedialität zu einer deutlich höheren „Heterogenität der Inhalte“ (Welker et al. 2010: 11).
Ein weiterer spezieller Aspekt von Online-Inhalten ist die Nonlinearität (Welker et al. 2010: 11). Darunter wird verstanden, dass die Inhalte keiner linearen Struktur folgen. Speziell auf Internetportalen wie Facebook oder Twitter werden oft weiterführende Informationen via Links geteilt, was dazu führt, dass ein Wechsel zwischen verschiedenen Internetseiten stattfindet. Dies bildet für den Forschenden eine Herausforderung, da zuvor festgelegt werden muss, wie weit man sich vom eigentlichen Erhebungsmedium entfernt und welche Arten von Medien in der jeweiligen Studie mitberücksichtigt werden. Hinzu kommt, dass das Internet eine nie gekannte Fülle an Daten und Informationen bietet, die zudem immer weiter wächst. Hierbei ist es notwendig, sich auf diejenigen Daten und Informationen zu beschränken, die für die entsprechende Forschungsfrage relevant sind. Die Suche nach entsprechend spezifischen Daten erscheint hinsichtlich der ständig wachsenden Informations- und Datenangebote zunehmend schwieriger (Welker et al. 2010: 12).
Trotz der aufgezählten neuen Herausforderungen, die durch das Kommunikationsverhalten im Internet entstehen, folgt die Analyse von Online-Textinhalten oftmals der etablierten methodischen Vorgehensweisen der traditionellen Inhaltsanalyse (Früh 2007). Hinzu kommen jedoch neue Verfahren wie das Text-Mining. Hiermit können durch Computerunterstützung Kodierungsvorgänge von Texten automatisiert werden (Welker et al. 2010: 12). Diese neuen methodischen Verfahren sind jedoch nicht ausschließlich für die Online-Inhaltsanalyse geeignet, sondern führen in erster Linie dazu, dass mit geringerem Aufwand Texte ausgewertet bzw. kodiert werden können.
Eine deutlich größere Problematik der soziologischen Forschung besteht bisher in der nicht ausreichenden Qualität der methodischen Analyse von nonverbalen Inhalten visueller und audiovisueller Medien (Rössler 2010: 34). Nach Rössler (2010: 35) sind diese Defizite in der aktuellen Online-Forschung auf Versäumnisse in den traditionellen Verfahren zurückzuführen, „wo es über Jahre lang hinweg nicht gelungen ist, den Gehalt medialer Botschaften jenseits der Textebene angemessen zu erfassen“.
Jedoch ergeben sich nicht nur bei der Analyse von internetbasierten Daten einige Herausforderungen, sondern bereits am Beginn des Forschungsprozesses. Nach der Festlegung eines bestimmten Themengebietes, welches in der jeweiligen Studie vom Forschenden bearbeitet wird, müssen zunächst die zu interessierenden Erhebungsziele ausgewählt werden. Es bedarf hierbei eines Auswahlverfahrens, nach welchen Daten überhaupt gesucht werden soll, wie danach gesucht werden soll und welche Daten dann schlussendlich erhoben und für die Analyse berücksichtigt werden sollen. Um als Forscherin bzw. als Forscher zu möglichst zutreffenden Aussagen über das zu untersuchende Themengebiet zu gelangen, stehen nach Meier et al. (2010: 103ff.) zwei Vorgehensweisen zur Verfügung:
1. Es müssen alle Elemente in Bezug auf die interessierenden Merkmale untersucht werden.
2. Es wird nur ein Teil der Elemente untersucht und anschließend auf Basis einer Regel von der Teilmenge, die untersucht wurde, auf alle Elemente geschlossen.
Generell wird davon ausgegangen, dass die erste Vorgehensweise die bestmöglichen Ergebnisse erzielen kann. Wenn alle Erhebungseinheiten, an denen die Forschenden interessiert sind, untersucht werden können, existiert ein deutlich geringeres Restrisiko, dass andere relevante Merkmale nicht mitberücksichtigt wurden. In der quantitativen Forschung wird hierbei unterschieden zwischen der Stichprobe und der Grundgesamtheit (Diekmann 2010: 376).
Die erste Strategie ist demnach die bessere Option, jedoch aus Zeit- und Kostengründen und aufgrund der fehlenden Erreichbarkeit aller Elemente meistens nicht durchführbar. Deshalb wird als alternative Option oftmals auf die zweite Strategie zurückgegriffen. Wie bereits angesprochen, beinhaltet die zweite Vorgehensweise ein gewisses Risiko, um von den untersuchten Elementen der Stichprobe auf alle anderen relevanten Elemente zu schließen. Wie dieses Problem in den Sozialwissenschaften aus methodischer Sicht bearbeitet werden kann, wird im Folgenden dargestellt.
Zudem unterscheiden sich die technischen Möglichkeiten des Internets und die Alternativen, mit denen Informationen vermittelt und geteilt werden, deutlich von herkömmlichen Medien. Internetbasierte Daten beschränken sich nicht auf Text- oder Bilddateien, auch Filme, Animationen und Audiodateien können benutzt werden, um Informationen zu verbreiten. Insgesamt führt die angesprochene Multimedialität zu einer deutlich höheren „Heterogenität der Inhalte“ (Welker et al. 2010: 11).
Ein weiterer spezieller Aspekt von Online-Inhalten ist die Nonlinearität (Welker et al. 2010: 11). Darunter wird verstanden, dass die Inhalte keiner linearen Struktur folgen. Speziell auf Internetportalen wie Facebook oder Twitter werden oft weiterführende Informationen via Links geteilt, was dazu führt, dass ein Wechsel zwischen verschiedenen Internetseiten stattfindet. Dies bildet für den Forschenden eine Herausforderung, da zuvor festgelegt werden muss, wie weit man sich vom eigentlichen Erhebungsmedium entfernt und welche Arten von Medien in der jeweiligen Studie mitberücksichtigt werden. Hinzu kommt, dass das Internet eine nie gekannte Fülle an Daten und Informationen bietet, die zudem immer weiter wächst. Hierbei ist es notwendig, sich auf diejenigen Daten und Informationen zu beschränken, die für die entsprechende Forschungsfrage relevant sind. Die Suche nach entsprechend spezifischen Daten erscheint hinsichtlich der ständig wachsenden Informations- und Datenangebote zunehmend schwieriger (Welker et al. 2010: 12).
Trotz der aufgezählten neuen Herausforderungen, die durch das Kommunikationsverhalten im Internet entstehen, folgt die Analyse von Online-Textinhalten oftmals der etablierten methodischen Vorgehensweisen der traditionellen Inhaltsanalyse (Früh 2007). Hinzu kommen jedoch neue Verfahren wie das Text-Mining. Hiermit können durch Computerunterstützung Kodierungsvorgänge von Texten automatisiert werden (Welker et al. 2010: 12). Diese neuen methodischen Verfahren sind jedoch nicht ausschließlich für die Online-Inhaltsanalyse geeignet, sondern führen in erster Linie dazu, dass mit geringerem Aufwand Texte ausgewertet bzw. kodiert werden können.
Eine deutlich größere Problematik der soziologischen Forschung besteht bisher in der nicht ausreichenden Qualität der methodischen Analyse von nonverbalen Inhalten visueller und audiovisueller Medien (Rössler 2010: 34). Nach Rössler (2010: 35) sind diese Defizite in der aktuellen Online-Forschung auf Versäumnisse in den traditionellen Verfahren zurückzuführen, „wo es über Jahre lang hinweg nicht gelungen ist, den Gehalt medialer Botschaften jenseits der Textebene angemessen zu erfassen“.
Jedoch ergeben sich nicht nur bei der Analyse von internetbasierten Daten einige Herausforderungen, sondern bereits am Beginn des Forschungsprozesses. Nach der Festlegung eines bestimmten Themengebietes, welches in der jeweiligen Studie vom Forschenden bearbeitet wird, müssen zunächst die zu interessierenden Erhebungsziele ausgewählt werden. Es bedarf hierbei eines Auswahlverfahrens, nach welchen Daten überhaupt gesucht werden soll, wie danach gesucht werden soll und welche Daten dann schlussendlich erhoben und für die Analyse berücksichtigt werden sollen. Um als Forscherin bzw. als Forscher zu möglichst zutreffenden Aussagen über das zu untersuchende Themengebiet zu gelangen, stehen nach Meier et al. (2010: 103ff.) zwei Vorgehensweisen zur Verfügung:
1. Es müssen alle Elemente in Bezug auf die interessierenden Merkmale untersucht werden.
2. Es wird nur ein Teil der Elemente untersucht und anschließend auf Basis einer Regel von der Teilmenge, die untersucht wurde, auf alle Elemente geschlossen.
Generell wird davon ausgegangen, dass die erste Vorgehensweise die bestmöglichen Ergebnisse erzielen kann. Wenn alle Erhebungseinheiten, an denen die Forschenden interessiert sind, untersucht werden können, existiert ein deutlich geringeres Restrisiko, dass andere relevante Merkmale nicht mitberücksichtigt wurden. In der quantitativen Forschung wird hierbei unterschieden zwischen der Stichprobe und der Grundgesamtheit (Diekmann 2010: 376).
Die erste Strategie ist demnach die bessere Option, jedoch aus Zeit- und Kostengründen und aufgrund der fehlenden Erreichbarkeit aller Elemente meistens nicht durchführbar. Deshalb wird als alternative Option oftmals auf die zweite Strategie zurückgegriffen. Wie bereits angesprochen, beinhaltet die zweite Vorgehensweise ein gewisses Risiko, um von den untersuchten Elementen der Stichprobe auf alle anderen relevanten Elemente zu schließen. Wie dieses Problem in den Sozialwissenschaften aus methodischer Sicht bearbeitet werden kann, wird im Folgenden dargestellt.
4 Die Zufallsstichprobe im Rahmen quantitativer Forschung
In den quantitativen Methoden wird zwischen der Stichprobe (Sample) und der Grundgesamtheit (Population) unterschieden. Die Stichprobe bildet jeweils eine Auswahl von Elementen aus der entsprechenden Grundgesamtheit (Diekmann 2010: 376ff). So bilden beispielsweise bei einer Wählerbefragung alle wahlberechtigten Personen die Grundgesamtheit. Die Stichprobe wiederum ist nur ein Auszug aus dieser Grundgesamtheit. Folglich sind die erhobenen Datenpunkte auf Basis der Stichprobe, insofern damit Rückschlüsse auf alle Elemente gezogen werden, mit Unsicherheiten behaftet. Diese Unsicherheiten lassen sich im Rahmen der quantitativen Forschung jedoch berechnen und angeben. Es besteht sogar die Möglichkeit, die Unsicherheit der Aussagen, die auf Basis der Stichprobe getätigt werden, zu reduzieren. Jedoch nur, wenn gleichzeitig das (Konfidenz-)Intervall der potentiellen Ergebnisse erweitert wird.
Alle Elemente, die eine Chance haben, in die Stichprobe aufgenommen zu werden, werden als Erhebungseinheiten bezeichnet. Ein entscheidender Aspekt der Datenerhebung ist mit der Frage verbunden, wie die Stichprobe gebildet wird und welche Erhebungseinheiten im Folgenden in der Studie berücksichtigt werden. Im Rahmen quantitativer Methoden wird oftmals ein wahrscheinlichkeitsbasiertes Auswahlverfahren verwendet, um im Rahmen der Inferenzstatistik von der Stichprobe auf die Grundgesamtheit schließen zu können. Die quantitativen Methoden benötigen eine zufallsbasierte Stichprobenauswahl, weil quasi jede statistische Formel, die im Rahmen der Inferenzstatistik verwendet wird, auf den Annahmen einer Wahrscheinlichkeitsauswahl fußt.
Die Bedingungen für eine einfache Zufallsstichprobe sind, dass (a) die Auswahlwahrscheinlichkeit für alle Elemente der Grundgesamtheit identisch größer als null ist und (b) die Auswahl direkt in einem einstufigen Auswahlvorgang erfolgt (Diekmann 2010: 380ff). Um diese Bedingungen zu erreichen, wird eine Liste der Grundgesamtheit benötigt (Listenauswahl, Karteiauswahl) oder es bedarf einer Zufallsauswahl, die auf einer Gebietsauswahl basiert. Die Listenauswahl ist nur dann möglich, wenn alle Elemente der interessierenden Grundgesamtheit vorhanden sind. Wenn beispielsweise die Facebook-Nutzerinnen und -Nutzer einer Stadt analysiert werden sollen, dann muss eine Liste über alle Facebook-Nutzerinnen und -Nutzer dieser Stadt (Grundgesamtheit) existieren. Anschließend muss ausgehend von dieser Grundgesamtheit eine Zufallsauswahl erfolgen. Wenn beispielsweise 500 Nutzerinnen und Nutzer befragt werden sollen, dann kann mit Hilfe von Zufallszahlentabellen oder im Falle einer digitalisierten Liste mit einer Zufallszahlenfunktion per Computer eine Stichprobe gezogen werden.
Bei der Gebietsauswahl handelt es sich wiederum um eine Art Begehungsanweisung (Diekmann 2010: 383). Eine Form hiervon ist das Random-Route-Verfahren. Bei diesem Verfahren werden einige anfängliche Adressen vom Forschenden an die Personen, die mit der Datenerhebung beauftragt werden, vorgegeben. Anschließend wird auf Basis bestimmter Regeln eine weitere zufällige Auswahl getroffen. Eine Regel könnte beispielsweise lauten: „Gehen Sie von der Startadresse nach rechts bis zur nächsten Straße. Dort biegen Sie wieder rechts ab und befragen jeden dritten Haushalt in dieser Straße.“
Ein weiteres oft verwendetes Verfahren ist der Schwedenschlüssel (Diekmann 2010: 384). Dieser wird benutzt, um innerhalb eines Haushalts eine zufällige Auswahl zu treffen. Der Schwedenschlüssel beinhaltet eine auf den Fragebogen aufgedruckte Kombination von Zufallsziffern. Auf Basis dieser Kombination kann die jeweilige Person, die befragt werden soll, zufällig ermittelt werden. Dabei wird beispielsweise die Haushaltsgröße mitberücksichtigt. In Abhängigkeit davon, wie viele Menschen in einem Haushalt leben, wird eine jeweils andere Person des Haushalts befragt.
Generell gibt es einige praktische Anwendungsmethoden, mit denen versucht wird, eine zufällige Stichprobenauswahl zu generieren. Speziell im Rahmen der Analyse von Onlineinhalten gibt es jedoch Kritik an der Anwendung einer zufallsbasierten Stichprobenziehung. Die bereits angesprochenen neuen medialen Herausforderungen für Entwicklung von Auswahl-, Analyse- und Kodierungseinheiten einer Online-Inhaltsanalyse sind nach Rössler und Wirth (2001: 288ff.) schwer vereinbar mit den Charakteristiken einer Zufallsstichprobe. Meier und Pentzold (2010: 125) meinen hierzu, dass die Zufallsauswahl unter anderen Umständen der bewussten oder willkürlichen Auswahl vorzuziehen sei, „jedoch könne im Netz selten ein Katalog zusammengestellt werden, der einer für die Untersuchungsfrage relevanten Grundgesamtheit entspreche. Dieser sei jedoch für die Anwendung des [Zufalls-] Verfahrens notwendig. Aus diesem Grund komme in der Online-Inhaltsanalyse eher die bewusste Auswahl zur Anwendung, die dabei meist als Auswahl typischer Fälle realisiert werde“.
Auf Basis der vorliegenden Kritik wird im Folgenden auf eine alternative methodische Vorgehensweise eingegangen, die nicht auf Basis einer Zufallsauswahl erfolgt.
Alle Elemente, die eine Chance haben, in die Stichprobe aufgenommen zu werden, werden als Erhebungseinheiten bezeichnet. Ein entscheidender Aspekt der Datenerhebung ist mit der Frage verbunden, wie die Stichprobe gebildet wird und welche Erhebungseinheiten im Folgenden in der Studie berücksichtigt werden. Im Rahmen quantitativer Methoden wird oftmals ein wahrscheinlichkeitsbasiertes Auswahlverfahren verwendet, um im Rahmen der Inferenzstatistik von der Stichprobe auf die Grundgesamtheit schließen zu können. Die quantitativen Methoden benötigen eine zufallsbasierte Stichprobenauswahl, weil quasi jede statistische Formel, die im Rahmen der Inferenzstatistik verwendet wird, auf den Annahmen einer Wahrscheinlichkeitsauswahl fußt.
Die Bedingungen für eine einfache Zufallsstichprobe sind, dass (a) die Auswahlwahrscheinlichkeit für alle Elemente der Grundgesamtheit identisch größer als null ist und (b) die Auswahl direkt in einem einstufigen Auswahlvorgang erfolgt (Diekmann 2010: 380ff). Um diese Bedingungen zu erreichen, wird eine Liste der Grundgesamtheit benötigt (Listenauswahl, Karteiauswahl) oder es bedarf einer Zufallsauswahl, die auf einer Gebietsauswahl basiert. Die Listenauswahl ist nur dann möglich, wenn alle Elemente der interessierenden Grundgesamtheit vorhanden sind. Wenn beispielsweise die Facebook-Nutzerinnen und -Nutzer einer Stadt analysiert werden sollen, dann muss eine Liste über alle Facebook-Nutzerinnen und -Nutzer dieser Stadt (Grundgesamtheit) existieren. Anschließend muss ausgehend von dieser Grundgesamtheit eine Zufallsauswahl erfolgen. Wenn beispielsweise 500 Nutzerinnen und Nutzer befragt werden sollen, dann kann mit Hilfe von Zufallszahlentabellen oder im Falle einer digitalisierten Liste mit einer Zufallszahlenfunktion per Computer eine Stichprobe gezogen werden.
Bei der Gebietsauswahl handelt es sich wiederum um eine Art Begehungsanweisung (Diekmann 2010: 383). Eine Form hiervon ist das Random-Route-Verfahren. Bei diesem Verfahren werden einige anfängliche Adressen vom Forschenden an die Personen, die mit der Datenerhebung beauftragt werden, vorgegeben. Anschließend wird auf Basis bestimmter Regeln eine weitere zufällige Auswahl getroffen. Eine Regel könnte beispielsweise lauten: „Gehen Sie von der Startadresse nach rechts bis zur nächsten Straße. Dort biegen Sie wieder rechts ab und befragen jeden dritten Haushalt in dieser Straße.“
Ein weiteres oft verwendetes Verfahren ist der Schwedenschlüssel (Diekmann 2010: 384). Dieser wird benutzt, um innerhalb eines Haushalts eine zufällige Auswahl zu treffen. Der Schwedenschlüssel beinhaltet eine auf den Fragebogen aufgedruckte Kombination von Zufallsziffern. Auf Basis dieser Kombination kann die jeweilige Person, die befragt werden soll, zufällig ermittelt werden. Dabei wird beispielsweise die Haushaltsgröße mitberücksichtigt. In Abhängigkeit davon, wie viele Menschen in einem Haushalt leben, wird eine jeweils andere Person des Haushalts befragt.
Generell gibt es einige praktische Anwendungsmethoden, mit denen versucht wird, eine zufällige Stichprobenauswahl zu generieren. Speziell im Rahmen der Analyse von Onlineinhalten gibt es jedoch Kritik an der Anwendung einer zufallsbasierten Stichprobenziehung. Die bereits angesprochenen neuen medialen Herausforderungen für Entwicklung von Auswahl-, Analyse- und Kodierungseinheiten einer Online-Inhaltsanalyse sind nach Rössler und Wirth (2001: 288ff.) schwer vereinbar mit den Charakteristiken einer Zufallsstichprobe. Meier und Pentzold (2010: 125) meinen hierzu, dass die Zufallsauswahl unter anderen Umständen der bewussten oder willkürlichen Auswahl vorzuziehen sei, „jedoch könne im Netz selten ein Katalog zusammengestellt werden, der einer für die Untersuchungsfrage relevanten Grundgesamtheit entspreche. Dieser sei jedoch für die Anwendung des [Zufalls-] Verfahrens notwendig. Aus diesem Grund komme in der Online-Inhaltsanalyse eher die bewusste Auswahl zur Anwendung, die dabei meist als Auswahl typischer Fälle realisiert werde“.
Auf Basis der vorliegenden Kritik wird im Folgenden auf eine alternative methodische Vorgehensweise eingegangen, die nicht auf Basis einer Zufallsauswahl erfolgt.
5 Theoretical Sampling als methodische Vorgehensweise zur Gewinnung von Daten
Eine Möglichkeit der bewussten Auswahl einer Stichprobe ist das Theoretical Sampling. Das Theoretical Sampling ist ein wesentlicher Bestandteil der Grounded Theory von Glaser und Strauss ([1967] 2005). Deren Ziel ist die „Entdeckung von Theorie auf der Grundlage von in der Sozialforschung systematisch gewonnen Daten“ ([1976] 2005: 12). Die Grounded Theory geht mit einem induktiv angelegten Forschungsprozess einher. Auf Basis von empirischen Daten sollen Theorien entwickelt werden, die nicht nur bestimmte soziale Phänomene beschreiben, sondern auch einen verstehend-erklärenden Ansatz beinhalten. Ein wesentliches Kennzeichen der Grounded Theory ist die komparative Analyse (Meier u. Pentzold 2010: 126). Darunter wird der beständige und systematische Vergleich einzelner Fälle verstanden, die mit dem bereits angesammelten Vorwissen der Forschenden verknüpft werden. Hierbei spielt die Methode der Minimierung und Maximierung eine elementare Rolle. Durch das Minimieren und Maximieren der Unterschiede in den verschiedenen Vergleichsgruppen sollen die bisherigen Ergebnisse weiter spezifiziert und differenziert werden. Die vergleichende Auswertung bezeichnen Glaser und Strauss als Kodieren. Aus den jeweiligen Kodes werden anschließend Kategorien gebildet, die wiederum Rückschlüsse auf mögliche theoretische Zusammenhänge zulassen.
Das Theoretical Sampling wird in diesem Kontext definiert als den „auf die Generierung von Theorie zielenden Prozess der Datenerhebung, währenddessen der Forscher seine Daten parallel erhebt, kodiert und analysiert sowie darüber entscheidet, welche Daten als nächstes erhoben werden sollen und wo sie zu finden sind“ (Glaser u. Strauss [1976] 2005: 53). Das Theoretical Sampling kann in unterschiedlichen Arten von Studien angewendet werden, da es sich nicht auf einen Materialtyp beschränkt ist (Meier u. Pentzold 2010: 127). Neben der Anwendung auf Personen oder Orte sind auch Dokumente (Aufzeichnungen, Interviews, Texte) als Analyseobjekt möglich. Dies ist eine notwendige Voraussetzung für die Analyse von Online-Inhalten.
Ein weiteres Kennzeichen des Theorical Sampling ist die Zirkularität des Vorgehens. Die bereits analysierten Daten sollen den Forschenden hierbei helfen, wiederum Kriterien für die Erhebung neuer Daten zu kreieren. Somit wird eine Art Forschungsspirale geschaffen, die aufgrund der gegenseitigen Vernetzung von Datenerhebung und Datenanalyse immer zu spezifischeren Erkenntnissen und Auswahlkriterien führt. „Die ineinander verschränkten, zeitlich parallelen und funktional abhängigen Schritte der Datenerhebung, -auswertung und die darauf basierende, aber ebenfalls interaktiv zu bewältigende Theoriebildung sind ein gerichteter, spiralförmiger Prozess, an dessen Ende eine gegenstandsbezogene Theorie stehen soll“ (Meier u. Pentzold 2010: 127).
Zusammenfassend lässt sich festhalten, dass das Theoretical Sampling der Grounded Theory ein mögliches methodisches Erhebungsverfahren darstellt, um Online-Inhalte zu analysieren. Durch diese methodische Vorgehensweise kann der Vorgang der Datensammlung systematischer gestaltet und intersubjektiv nachvollziehbarer gemacht werden (Meier u. Pentzold 2010). Durch das zirkuläre Vorgehen im Forschungsprozess kann im Verlauf dessen einerseits neues relevantes Untersuchungsmaterial mitberücksichtigt werden und anderseits führt das stufenweise Vorgehen zu einer Verbesserung der Erhebungstechniken. „Die Auswahl mittels Theoretical Sampling stellt somit eine Alternative zu den willkürlichen oder bewussten Auswahlen typischer Fälle dar, wie sie häufig bei (Online-) Inhaltsanalysen vorgenommen werden. Ein solches Vorgehen expliziert die bei der Auswahl typischer Fälle zutreffenden Annahmen bezüglich der kriteriengesteuerten Bestimmung des Typischen, da sich danach die minimale/maximale Kontrastierung ausrichtet. Es erfordert weiterhin, die oft unklare Verteilung relevanter Merkmale in der Grundgesamtheit und die Erhebung von Ersatzmerkmalen“ (Kromrey 2006: 284)
Das Theoretical Sampling wird in diesem Kontext definiert als den „auf die Generierung von Theorie zielenden Prozess der Datenerhebung, währenddessen der Forscher seine Daten parallel erhebt, kodiert und analysiert sowie darüber entscheidet, welche Daten als nächstes erhoben werden sollen und wo sie zu finden sind“ (Glaser u. Strauss [1976] 2005: 53). Das Theoretical Sampling kann in unterschiedlichen Arten von Studien angewendet werden, da es sich nicht auf einen Materialtyp beschränkt ist (Meier u. Pentzold 2010: 127). Neben der Anwendung auf Personen oder Orte sind auch Dokumente (Aufzeichnungen, Interviews, Texte) als Analyseobjekt möglich. Dies ist eine notwendige Voraussetzung für die Analyse von Online-Inhalten.
Ein weiteres Kennzeichen des Theorical Sampling ist die Zirkularität des Vorgehens. Die bereits analysierten Daten sollen den Forschenden hierbei helfen, wiederum Kriterien für die Erhebung neuer Daten zu kreieren. Somit wird eine Art Forschungsspirale geschaffen, die aufgrund der gegenseitigen Vernetzung von Datenerhebung und Datenanalyse immer zu spezifischeren Erkenntnissen und Auswahlkriterien führt. „Die ineinander verschränkten, zeitlich parallelen und funktional abhängigen Schritte der Datenerhebung, -auswertung und die darauf basierende, aber ebenfalls interaktiv zu bewältigende Theoriebildung sind ein gerichteter, spiralförmiger Prozess, an dessen Ende eine gegenstandsbezogene Theorie stehen soll“ (Meier u. Pentzold 2010: 127).
Zusammenfassend lässt sich festhalten, dass das Theoretical Sampling der Grounded Theory ein mögliches methodisches Erhebungsverfahren darstellt, um Online-Inhalte zu analysieren. Durch diese methodische Vorgehensweise kann der Vorgang der Datensammlung systematischer gestaltet und intersubjektiv nachvollziehbarer gemacht werden (Meier u. Pentzold 2010). Durch das zirkuläre Vorgehen im Forschungsprozess kann im Verlauf dessen einerseits neues relevantes Untersuchungsmaterial mitberücksichtigt werden und anderseits führt das stufenweise Vorgehen zu einer Verbesserung der Erhebungstechniken. „Die Auswahl mittels Theoretical Sampling stellt somit eine Alternative zu den willkürlichen oder bewussten Auswahlen typischer Fälle dar, wie sie häufig bei (Online-) Inhaltsanalysen vorgenommen werden. Ein solches Vorgehen expliziert die bei der Auswahl typischer Fälle zutreffenden Annahmen bezüglich der kriteriengesteuerten Bestimmung des Typischen, da sich danach die minimale/maximale Kontrastierung ausrichtet. Es erfordert weiterhin, die oft unklare Verteilung relevanter Merkmale in der Grundgesamtheit und die Erhebung von Ersatzmerkmalen“ (Kromrey 2006: 284)
6 Empirische Studie: Ehe für Alle – Gleichstellung oder Geschlechterkampf? Von Dominique Schirmer (2015)
Bisher wurde in diesem Artikel auf die neuen Herausforderungen der sozialwissenschaftlichen Forschung eingegangen, die im Zeitalter der Online-Kommunikation entstehen. Im Speziellen wurden einige Problemstellungen besprochen, die mit dem methodischen Verfahren der Inhaltsanalyse im Kontext von Online-Inhalten einhergehen. Im letzten Jahrzehnt kam es zu einem starken Anstieg an Nutzerinnen und Nutzern sozialer Netzwerke. Internetplattformen wie Facebook und Twitter sind ein wesentlicher Bestandteil heutiger Kommunikation geworden. Leider sind bisher wenige empirische Studien erschienen, die sich im Rahmen einer inhaltsanalytischen Vorgehensweise mit den Kommunikationsinhalten sozialer Netzwerke beschäftigen. Im Folgenden soll deshalb eine qualitative Studie von Dominique Schirmer (2015) vorgestellt werden, die sich explizit mit diesem Themengebiet beschäftigt.
6.1 Einleitung
<<nicht abgebildet aus rechtlichen Gründen: DemonstrantInnen gegen die Öffnung der Ehe in Paris im April 2013 (s. Schirmer 2015: 123)>>
In der Studie Ehe für alle – Gleichstellung oder Geschlechterkampf von Dominique Schirmer (2015) wird die französische Protestbewegung gegen die Öffnung der Ehe im Frühjahr 2013 untersucht. Im Fokus stehen methodische Fragestellungen, inwiefern in Bezug auf die Proteste in Frankreich Daten erhoben und analysiert werden können.
Im Jahr 2012 kündigte der damalige französische Präsidentschaftskandidat François Hollande an, die Ehe für Homosexuelle öffnen zu wollen. Im Zuge des Gesetzgebungsverfahrens wurden verschiedene Vereinigungen gegründet, die sich gegen die Öffnung der Ehe aussprachen. Anschließend kam es landesweit zu vielen Protestbewegungen. Am 23. April 2013 wurde das Gesetz zur Öffnung der Ehe verabschiedet und verkündet und ist am 18. Mai 2013 in Kraft getreten.
Das primäre Ziel der Studie ist mit der Frage verbunden, welche Haltungen und Einstellungen die Gegnerinnen und Gegner des Gesetzes haben und wie methodisch vorgegangen werden kann, um die dafür notwendigen Daten zu erheben und zu analysieren. Hierzu wird versucht, die Protestbewegungen aus zwei verschiedenen Richtungen zu begutachten. Einerseits werden Mikroblogs [4] analysiert, um eher subjektive Beweggründe für die Protestierenden zu erhalten, anderseits werden statische Internetseiten der Protestorganisationen untersucht, mit dem Ziel, die offiziellen Gründe für die Proteste und Demonstrationen festzustellen. Dabei soll eine möglichst große Kontrastierung von reflektierten und nicht-reflektierten Äußerungen im Internet erreicht werden, um diese anschließend miteinander zu vergleichen.
Aus methodischer Sicht ist dabei relevant, welches Analysematerial benutzt wird und wie die Auswahl des Materials ihre Begründung findet. In der Studie werden selektive und iterative Auswahlschritte gemischt. Quellen (Internetplattformen) und Material (Texte, Mikroblogeinträge) werden einerseits bewusst nach theoretischen Gesichtspunkten sowie willkürlich ausgewählt (selektive Auswahl), anderseits wird diese methodische Vorgehensweise durch Strategien des theoretischen Samplings (iterative Auswahl) ergänzt. Die theoriebasierte Auswahl ist eine gängige Strategie zur Bestimmung von Untersuchungsmaterial. Hierbei richtet sich die Auswahl des Materials nach inhaltlichen Gesichtspunkten. Die willkürliche Auswahl ist ebenso relevant, speziell mit dem Ziel einer ersten Materialreduktion. Bei der iterativen Auswahl wiederum wird nach jeder Objektsauswahl und einer ersten Analyse der weitere Auswahlschritt festgelegt. Eine zentrale Rolle bei der iterativen Auswahl spielt die Methode der minimalen und maximalen Kontrastierung von Quellen oder Inhalten, auf welche zu einem späteren Zeitpunkt noch expliziter eingegangen wird.
Im Rahmen einer empirischen Studie hat eine forschende Person generell das Problem, sich in einer großen Menge an Material zurechtfinden zu müssen. Um den Überblick über eine bestimmte Forschungsfrage nicht zu verlieren, ist es notwendig, sich möglichst radikal auf einen bestimmten Ausschnitt zu fokussieren und nur diesen in die empirische Analyse miteinzubeziehen. In diesem Zusammenhang wird in der Studie eine zweidimensionale Materialauswahl angewendet. Die erste Auswahldimension beinhaltet die willkürliche, iterative oder theoriebasierte Auswahl von Material anhand von Internetplattformen, Themen und Kontexten. Nach der entsprechenden Auswahl folgt auf Basis dessen die zweite Auswahldimension, die – einfach ausgedrückt – den nachfolgenden Schritt nach der ersten Auswahl beschreibt. So können beispielsweise die Anzahl der Mikroblogs durch einen weiteren methodischen Vorgang weiter reduziert werden, indem durch das Zufallsprinzip nur jeder fünfte Mikroblogeintrag verwendet wird.
Im Jahr 2012 kündigte der damalige französische Präsidentschaftskandidat François Hollande an, die Ehe für Homosexuelle öffnen zu wollen. Im Zuge des Gesetzgebungsverfahrens wurden verschiedene Vereinigungen gegründet, die sich gegen die Öffnung der Ehe aussprachen. Anschließend kam es landesweit zu vielen Protestbewegungen. Am 23. April 2013 wurde das Gesetz zur Öffnung der Ehe verabschiedet und verkündet und ist am 18. Mai 2013 in Kraft getreten.
Das primäre Ziel der Studie ist mit der Frage verbunden, welche Haltungen und Einstellungen die Gegnerinnen und Gegner des Gesetzes haben und wie methodisch vorgegangen werden kann, um die dafür notwendigen Daten zu erheben und zu analysieren. Hierzu wird versucht, die Protestbewegungen aus zwei verschiedenen Richtungen zu begutachten. Einerseits werden Mikroblogs [4] analysiert, um eher subjektive Beweggründe für die Protestierenden zu erhalten, anderseits werden statische Internetseiten der Protestorganisationen untersucht, mit dem Ziel, die offiziellen Gründe für die Proteste und Demonstrationen festzustellen. Dabei soll eine möglichst große Kontrastierung von reflektierten und nicht-reflektierten Äußerungen im Internet erreicht werden, um diese anschließend miteinander zu vergleichen.
Aus methodischer Sicht ist dabei relevant, welches Analysematerial benutzt wird und wie die Auswahl des Materials ihre Begründung findet. In der Studie werden selektive und iterative Auswahlschritte gemischt. Quellen (Internetplattformen) und Material (Texte, Mikroblogeinträge) werden einerseits bewusst nach theoretischen Gesichtspunkten sowie willkürlich ausgewählt (selektive Auswahl), anderseits wird diese methodische Vorgehensweise durch Strategien des theoretischen Samplings (iterative Auswahl) ergänzt. Die theoriebasierte Auswahl ist eine gängige Strategie zur Bestimmung von Untersuchungsmaterial. Hierbei richtet sich die Auswahl des Materials nach inhaltlichen Gesichtspunkten. Die willkürliche Auswahl ist ebenso relevant, speziell mit dem Ziel einer ersten Materialreduktion. Bei der iterativen Auswahl wiederum wird nach jeder Objektsauswahl und einer ersten Analyse der weitere Auswahlschritt festgelegt. Eine zentrale Rolle bei der iterativen Auswahl spielt die Methode der minimalen und maximalen Kontrastierung von Quellen oder Inhalten, auf welche zu einem späteren Zeitpunkt noch expliziter eingegangen wird.
Im Rahmen einer empirischen Studie hat eine forschende Person generell das Problem, sich in einer großen Menge an Material zurechtfinden zu müssen. Um den Überblick über eine bestimmte Forschungsfrage nicht zu verlieren, ist es notwendig, sich möglichst radikal auf einen bestimmten Ausschnitt zu fokussieren und nur diesen in die empirische Analyse miteinzubeziehen. In diesem Zusammenhang wird in der Studie eine zweidimensionale Materialauswahl angewendet. Die erste Auswahldimension beinhaltet die willkürliche, iterative oder theoriebasierte Auswahl von Material anhand von Internetplattformen, Themen und Kontexten. Nach der entsprechenden Auswahl folgt auf Basis dessen die zweite Auswahldimension, die – einfach ausgedrückt – den nachfolgenden Schritt nach der ersten Auswahl beschreibt. So können beispielsweise die Anzahl der Mikroblogs durch einen weiteren methodischen Vorgang weiter reduziert werden, indem durch das Zufallsprinzip nur jeder fünfte Mikroblogeintrag verwendet wird.
6.2 Auswahl von Plattformen und Themen der offiziellen Stellungnahmen
Wie bereits im vorherigen Kapitel erwähnt, ist die Strategie der Studie, reflektierte und nicht-reflektierte Äußerungen und Deutungsmuster zu kontrastieren. Für die verfestigten Aussagen werden offizielle Stellungnamen analysiert, für die flüchtigen bzw. nicht-reflektierten Aussagen subjektive Einstellungen.
In Bezug auf die Erhebung von offiziellen Stellungnahmen wurden im Rahmen der ersten Auswahldimension Suchbegriffe ausgewählt, um möglichst exakt das entsprechende Thema einzugrenzen. Beispiele dafür sind die Suchbegriffe Homoehe oder Demo für alle. Demo für alle ist der offizielle Name einer Organisation in Frankreich, die sich gegen das Gesetzesvorhaben zur Öffnung der Ehe stellt und zudem einen allgemein bekannten Begriff darstellt, welcher die Protestbewegung insgesamt umschreibt. Anschließend wurden entsprechende Internetseiten ausgewählt. In diesem Fall speziell die Domain der Organisation Demo für alle, die im Internet sehr präsent ist.
Im Rahmen der zweiten Auswahldimension beginnt die Suche auf der jeweiligen Internetseite, um das spezifische Analysematerial auszuwählen. Die Internetseite Demo für alle liefert Informationen und offizielle Stellungnahmen über inhaltliche Themen und dient zudem als Netzwerk. Unter der Kategorie Kooperationspartner finden sich die Namen der Kooperationspartner der Organisation, wodurch ein Zugang zu den jeweiligen Unterstützerinnen und Unterstützern ermöglicht wurde. Auf den entsprechenden Internetseiten der Gegnerinnen und Gegner der Protestbewegung finden sich jeweils eigene ausgearbeitete Stellungnahmen und Standpunkte zum Gesetzesvorhaben. Die kooperierenden Organisationen sind unter anderem klassifiziert als kirchlich, muslimisch, feministisch, homosexuell, administrativ und politisch. Diese Seiten wurden im Rahmen der Studie als offizielle Stellungnahmen analysiert.
Hier greift das Prinzip der minimalen und maximalen Kontrastierung, welches bereits erwähnt wurde. Einerseits wurde als Ausgangspunkt für die weitere Materialauswahl die Internetseite Demo für alle benutzt, was bedeutet, dass somit inhaltlich ähnliche Domains (die Kooperationspartner) untersucht wurden (minimale Kontrastierung). Anderseits wurden dann diejenigen Kooperationspartner und deren Stellungnahmen ausgewählt, von denen ausgegangen wurde, dass diese die größten Gegensätze aufweisen (maximale Kontrastierung).
In Bezug auf die Erhebung von offiziellen Stellungnahmen wurden im Rahmen der ersten Auswahldimension Suchbegriffe ausgewählt, um möglichst exakt das entsprechende Thema einzugrenzen. Beispiele dafür sind die Suchbegriffe Homoehe oder Demo für alle. Demo für alle ist der offizielle Name einer Organisation in Frankreich, die sich gegen das Gesetzesvorhaben zur Öffnung der Ehe stellt und zudem einen allgemein bekannten Begriff darstellt, welcher die Protestbewegung insgesamt umschreibt. Anschließend wurden entsprechende Internetseiten ausgewählt. In diesem Fall speziell die Domain der Organisation Demo für alle, die im Internet sehr präsent ist.
Im Rahmen der zweiten Auswahldimension beginnt die Suche auf der jeweiligen Internetseite, um das spezifische Analysematerial auszuwählen. Die Internetseite Demo für alle liefert Informationen und offizielle Stellungnahmen über inhaltliche Themen und dient zudem als Netzwerk. Unter der Kategorie Kooperationspartner finden sich die Namen der Kooperationspartner der Organisation, wodurch ein Zugang zu den jeweiligen Unterstützerinnen und Unterstützern ermöglicht wurde. Auf den entsprechenden Internetseiten der Gegnerinnen und Gegner der Protestbewegung finden sich jeweils eigene ausgearbeitete Stellungnahmen und Standpunkte zum Gesetzesvorhaben. Die kooperierenden Organisationen sind unter anderem klassifiziert als kirchlich, muslimisch, feministisch, homosexuell, administrativ und politisch. Diese Seiten wurden im Rahmen der Studie als offizielle Stellungnahmen analysiert.
Hier greift das Prinzip der minimalen und maximalen Kontrastierung, welches bereits erwähnt wurde. Einerseits wurde als Ausgangspunkt für die weitere Materialauswahl die Internetseite Demo für alle benutzt, was bedeutet, dass somit inhaltlich ähnliche Domains (die Kooperationspartner) untersucht wurden (minimale Kontrastierung). Anderseits wurden dann diejenigen Kooperationspartner und deren Stellungnahmen ausgewählt, von denen ausgegangen wurde, dass diese die größten Gegensätze aufweisen (maximale Kontrastierung).
6.3 Auswahl von Plattformen, Themen und Kontexten der subjektiven Äußerungen
Um einen möglichst starken Kontrast zu den offiziellen Stellungnahmen zu erhalten, wurden anschließend subjektive Einstellungsmuster erhoben. Mikroblogs repräsentierten eher flüchtige, also nicht-reflektierte Äußerungen. Auch im Vergleich zu den statischen Internetseiten sind sie in dem Sinne flüchtig, da sie relativ schnell wieder in der Masse an Mikroblogs untergehen und an Aktualität verlieren. Die Analyse von Mikroblogs wurde gewählt, da diese subjektive und spontane Haltungen gut repräsentieren und zudem gut zu analysieren sind. In der Studie wurde für die Analyse von Mikroblogs die Internetseite Twitter verwendet. Twitterbeiträge haben im Rahmen der Demonstrationen und des generellen Protests gegen die Öffnung der Ehe in Frankreich eine große Rolle gespielt.
Ein wichtiges Kontextkriterium bei der Analyse der Mikroblogäußerungen ist der Zeitraum. Während bei statischen Internetseiten die Inhalte meist sehr lange einsehbar sind und unverändert bleiben, verändern sich bei Internetplattformen wie Twitter Nachrichtentrends sehr schnell und werden mit der Zeit unsichtbar. Zudem verschwinden die Nachrichten wieder relativ schnell von der Bildfläche, da ständig neue Nachrichten hinzukommen. Die alten Nachrichten werden entsprechend nach unten durchgereicht und verschwinden somit aus dem Blickfeld. Folglich ist es bei Mikroblogs umso wichtiger, den richtigen Zeitpunkt für die Analyse der Nachrichten auszuwählen. Zentral für diese Studie war der Zeitraum des Gesetzgebungsverfahrens Ende 2012 und April bzw. Mai 2013, in dessen Zeitraum das Gesetz implementiert wurde. Da es aber generell nicht möglich war, so einen großen Zeitraum mit entsprechend vielen Nachrichten qualitativ zu analysieren, wurde in der Studie der Fokus auf den Zeitraum vom 23. April 2013 bis 26. Mai 2013 gelegt.
Innerhalb dieses Zeitraums wurden wiederum einzelne Tage ausgewählt, um die Anzahl der Twitteräußerungen einzugrenzen. Diese Tage wurden gezielt ausgewählt, beispielsweise der Tag der Verabschiedung des Gesetzes und der Tag, an dem das Verfassungsgericht das Gesetz anerkannte. Anschließend wurden die Suchbegriffe ausgewählt, mit denen auf Twitter nach entsprechenden Äußerungen der Gegnerinnen und Gegner der Öffnung der Ehe gesucht wurde. Gewählt wurden die Bezeichnungen #wirgebennichtauf [5] und #demofüralle.
Ein wichtiges Kontextkriterium bei der Analyse der Mikroblogäußerungen ist der Zeitraum. Während bei statischen Internetseiten die Inhalte meist sehr lange einsehbar sind und unverändert bleiben, verändern sich bei Internetplattformen wie Twitter Nachrichtentrends sehr schnell und werden mit der Zeit unsichtbar. Zudem verschwinden die Nachrichten wieder relativ schnell von der Bildfläche, da ständig neue Nachrichten hinzukommen. Die alten Nachrichten werden entsprechend nach unten durchgereicht und verschwinden somit aus dem Blickfeld. Folglich ist es bei Mikroblogs umso wichtiger, den richtigen Zeitpunkt für die Analyse der Nachrichten auszuwählen. Zentral für diese Studie war der Zeitraum des Gesetzgebungsverfahrens Ende 2012 und April bzw. Mai 2013, in dessen Zeitraum das Gesetz implementiert wurde. Da es aber generell nicht möglich war, so einen großen Zeitraum mit entsprechend vielen Nachrichten qualitativ zu analysieren, wurde in der Studie der Fokus auf den Zeitraum vom 23. April 2013 bis 26. Mai 2013 gelegt.
Innerhalb dieses Zeitraums wurden wiederum einzelne Tage ausgewählt, um die Anzahl der Twitteräußerungen einzugrenzen. Diese Tage wurden gezielt ausgewählt, beispielsweise der Tag der Verabschiedung des Gesetzes und der Tag, an dem das Verfassungsgericht das Gesetz anerkannte. Anschließend wurden die Suchbegriffe ausgewählt, mit denen auf Twitter nach entsprechenden Äußerungen der Gegnerinnen und Gegner der Öffnung der Ehe gesucht wurde. Gewählt wurden die Bezeichnungen #wirgebennichtauf [5] und #demofüralle.
6.4 Analyse
Bei der Analyse wurde erneut unterschieden zwischen der Analyse der offiziellen Stellungnahmen und der persönlichen Standpunkte.
6.4.1 Offizielle Standpunkte: Die Analyse der Stellungnahmen
Die offiziellen Standpunkte wurden aus den Internetauftritten der Kooperationspartner der Protestbewegung Demo für alle entnommen. Dabei wurden nicht alle Stellungnahmen der verschiedenen Kooperationspartner berücksichtigt, sondern eine nach dem Prinzip der maximalen Kontrastierung theoriegeleitete Auswahl einiger möglichst gegensätzlicher Standpunkte verwendet. Den ausgewählten Stellungnahmen wurden dann im folgenden Analyseschritt induktive Kodes zugewiesen. Insgesamt ergaben sich bei der Analyse der offiziellen Standpunkte 18 Kodes, die meisten davon auf Basis einer inhaltlichen Auswahl.
Aus den verschiedenen inhaltlichen Kodes wurden insgesamt drei Kategorien entwickelt, um ein mögliches Weltbild der Gegner der Öffnung der Ehe darzustellen. Die Kategorien, die entwickelt wurden, sind Geschlecht, Generativität und Verdinglichung.
Die Kategorie Geschlecht bedeutet hierbei die Unterschiedlichkeit zwischen Mann und Frau, Generativität bezieht sich auf die konkrete Fortpflanzung einer Gesellschaft und Verdinglichung ist die Feststellung der Gegner*innen der Öffnung der Ehe, dass künstliche Reproduktion entmenschlicht und menschenunwürdig ist. Frauen werden demnach zu Gebärmaschinen und Männer zu Samenproduzenten reduziert, Kinder sind folglich nur noch die Konsequenz einer künstlichen Produktion.
Die Kategorien werden, wie auch in Abbildung 2 [6] ersichtlich, durch einen zentralen Kode miteinander verbunden: Die Zivilisation. Die soziale und biologische Konstellation Vater, Mutter und Kind bilden dabei den Kern der Zivilisation, für dessen Erhalt sich die Protestbewegung einsetzt. Bei den inhaltlichen Kodes wird zudem auf die zwei Dimensionen von Geschlechterdifferenz verwiesen: Die biologische und soziale Dimension
Die biologische Dimension bezieht sich auf die Reproduktion, die soziale Dimension auf die soziale Differenz zwischen Mann und Frau und die damit einhergehende Notwendigkeit des Zusammenlebens und Zusammenwirkens von Mann und Frau für das Wohl der Kinder (z.B. für eine angemessene Erziehung) und für den Fortbestand der Zivilisation.
Aus den verschiedenen inhaltlichen Kodes wurden insgesamt drei Kategorien entwickelt, um ein mögliches Weltbild der Gegner der Öffnung der Ehe darzustellen. Die Kategorien, die entwickelt wurden, sind Geschlecht, Generativität und Verdinglichung.
Die Kategorie Geschlecht bedeutet hierbei die Unterschiedlichkeit zwischen Mann und Frau, Generativität bezieht sich auf die konkrete Fortpflanzung einer Gesellschaft und Verdinglichung ist die Feststellung der Gegner*innen der Öffnung der Ehe, dass künstliche Reproduktion entmenschlicht und menschenunwürdig ist. Frauen werden demnach zu Gebärmaschinen und Männer zu Samenproduzenten reduziert, Kinder sind folglich nur noch die Konsequenz einer künstlichen Produktion.
Die Kategorien werden, wie auch in Abbildung 2 [6] ersichtlich, durch einen zentralen Kode miteinander verbunden: Die Zivilisation. Die soziale und biologische Konstellation Vater, Mutter und Kind bilden dabei den Kern der Zivilisation, für dessen Erhalt sich die Protestbewegung einsetzt. Bei den inhaltlichen Kodes wird zudem auf die zwei Dimensionen von Geschlechterdifferenz verwiesen: Die biologische und soziale Dimension
Die biologische Dimension bezieht sich auf die Reproduktion, die soziale Dimension auf die soziale Differenz zwischen Mann und Frau und die damit einhergehende Notwendigkeit des Zusammenlebens und Zusammenwirkens von Mann und Frau für das Wohl der Kinder (z.B. für eine angemessene Erziehung) und für den Fortbestand der Zivilisation.
6.4.2 Persönliche Standpunkte: Die Analyse des Mikroblogs
Im zweiten Teil der Analyse wurden Mikroblogs auf Basis der Internetplattform Twitter analysiert. Generell wurden nicht nur Textmedien in die Analyse miteinbezogen, sondern ebenfalls die dazugehörigen Links und die damit einhergehenden zusätzlichen Informationen. Außerdem wurden Bilder und sogenannte Retweets in der Studie berücksichtigt, die im Kern nur eine Weiterleitung von Nachrichten darstellen und mit denen keine eigenen Äußerungen einhergehen. Jedoch können durch das Weiterleiten bestimmter Informationen auf die Einstellung einer Person Rückschlüsse gezogen werden. In Abbildung 3 [7] zeigen sich einige der Standpunkte der Gegnerinnen und Gegner der Öffnung der Ehe. Der zentrale Aspekt hierbei ist die Gegenüberstellung von Mehrheit und Minderheit. Es wird durch die einzelnen Äußerungen der Nutzerinnen und Nutzern der Eindruck erweckt, die Protestierenden würden einer Mehrheit angehören. Diese Mehrheit besitzt eine quantitative (Wir sind die Mehrheit, wir sind das Volk!) und qualitative (Wir sind der Mainstream, wir sind der Maßstab!) Dimension.
Die Betonung der Mehrheit hat laut der Studie zwei Wirkungen. Einerseits dient sie nach außen hin als Rechtfertigung für die Proteste, anderseits erhöht sie den Zusammenhalt innerhalb der Bewegung. Außerdem entwickelt sich für die Protestierenden aus den subjektiven Einschätzungen von Mehr- und Minderheit eine Form von Wut, da sie glauben, die Mehrheit wird verraten, betrogen und von der staatlichen Elite nicht ernst genommen. Generell, so das Fazit der Studie, zeigt sich ein Gegensatz zwischen den Inhalten der offiziellen Stellungnahmen und den nicht-reflektierten Äußerungen. Bei den offiziellen Stellungnahmen wird betont, man wolle die Zivilisation aus selbstlosen Zwecken aufrechterhalten. Bei den flüchtigen Äußerungen wiederum zeigt sich eine eher egoistische Haltung, verbunden mit der Betonung der eigenen Sonderstellung in der gesellschaftlichen Hierarchie.
Die Betonung der Mehrheit hat laut der Studie zwei Wirkungen. Einerseits dient sie nach außen hin als Rechtfertigung für die Proteste, anderseits erhöht sie den Zusammenhalt innerhalb der Bewegung. Außerdem entwickelt sich für die Protestierenden aus den subjektiven Einschätzungen von Mehr- und Minderheit eine Form von Wut, da sie glauben, die Mehrheit wird verraten, betrogen und von der staatlichen Elite nicht ernst genommen. Generell, so das Fazit der Studie, zeigt sich ein Gegensatz zwischen den Inhalten der offiziellen Stellungnahmen und den nicht-reflektierten Äußerungen. Bei den offiziellen Stellungnahmen wird betont, man wolle die Zivilisation aus selbstlosen Zwecken aufrechterhalten. Bei den flüchtigen Äußerungen wiederum zeigt sich eine eher egoistische Haltung, verbunden mit der Betonung der eigenen Sonderstellung in der gesellschaftlichen Hierarchie.
7 Fazit und Schlussfolgerungen
Durch die voranschreitende Modernisierung und speziell durch die zunehmende Digitalisierung der Gesellschaft sind neue Formen der Kommunikation entstanden. Für die soziologische Forschung haben sich dadurch neue methodische Herausforderungen entwickelt. In diesem Artikel wurde speziell das Themengebiet der Online-Inhaltsanalyse thematisiert. Hierbei wurde anhand einer Studie von Dominique Schirmer (2015) exemplarisch aufgezeigt, inwiefern im Rahmen einer Inhaltsanalyse das Kommunikationsverhalten in sozialen Netzwerken, in diesem Fall auf Basis des Internetportals Twitter, erhoben und analysiert werden kann. Bisher gibt es jedoch speziell zur Online-Inhaltsanalyse von sozialen Netzwerken eine relativ überschaubare Anzahl an qualitativen bzw. quantitativen Studien. Dies scheint zuallererst daran zu liegen, dass soziale Netzwerke wie Twitter und Facebook noch relativ neue Internetphänomene darstellen. Jedoch gibt es auch einige methodische Probleme, auf die unter anderem im Rahmen des dritten Kapitels eingegangen wurde. Diese könnten einer intensiveren Forschungsarbeit in diesem Feld noch im Wege stehen. So besteht bisher eine unter anderem nicht ausreichendende Qualität der methodischen Analyse von nonverbalen Inhalten visueller und audiovisueller Medien (Rössler 2010: 34). Nach Rössler (2010: 35) sind diese Defizite in der aktuellen Online-Forschung auf Versäumnisse in den traditionellen Verfahren zurückzuführen, „wo es über Jahre lang hinweg nicht gelungen ist, den Gehalt medialer Botschaften jenseits der Textebene angemessen zu erfassen“. Speziell auf Twitter und Facebook werden viele Nachrichten sehr kurz gehalten bzw. nur weitergeleitet, zusätzlich mit Links zu anderen Internetseiten versehen, sowie Videos und Audiodateien angehängt. Diese Multimedialität der Internetkommunikation bedarf einer entsprechenden Antwort der soziologischen Forschung, inwiefern die verschiedenen medialen Elemente in zusammenhängender Art und Weise methodisch verwertet werden können.
8 Literaturverzeichnis
Diekmann, A. (2010): Empirische Sozialforschung. Grundlagen, Methoden Anwendungen. Hamburg: Rowohlt, 4. Auflage.
Früh, D. (2000): Online-Forschung im Zeichen des Qualitativen Paradigmas. Methodologische Reflexion und empirische Erfahrungen. Forum Qualitative Sozialforschung 1 (3): 104 Absätze. www.qualitative-research.net/index.php/fqs/article/view/1052. Überarbeitete Fassung von 2001; zuerst 2000.
Früh, W. (2007): Inhaltsanalyse. Konstanz [UVK], 6. Auflage.
Glaser, B. G., Strauss, A. L. [1976] 2005: Grounded Theory. Strategien qualitativer Forschung. 2., korr. Aufl. Bern [Huber].
Kromrey, H. (2006): Empirische Sozialforschung. Stuttgart [Lucius & Lucius].
Meier, S., Pentzold, C., (2010): Theoretical Sampling als Auswahlstrategie für Online-Inhaltsanalysen. In: Welker, Martin und Carsten Wünsch (Hrsg.). Die Online-Inhaltsanalyse: Forschungsobjekt Internet. Köln: Halem.
Meier, S., Wünsch, C., Pentzold, C., Welker, M. (2010): Auswahlverfahren für Online-Inhalte. In: Welker, Martin und Carsten Wünsch (Hrsg.). Die Online-Inhaltsanalyse: Forschungsobjekt Internet. Köln: Halem.
Rössler, P. (2010): Das Medium ist nicht die Botschaft. In: Welker, Martin und Carsten Wünsch (Hrsg.). Die Online-Inhaltsanalyse: Forschungsobjekt Internet. Köln: Halem.
Rössler, P., Wirth, W. (2001): Inhaltsanalysen im World Wide Web. In: Wirth, W., Lauf, E. (Hrsg.): Inhaltsanalysen, Perspektiven, Probleme, Potentiale. Köln [Herbert von Halem]. 280-302.
Schweitzer E., J. (2010): Politische Websites als Gegenstand der Online-Inhaltsanalyse. In: Welker, Martin und Carsten Wünsch (Hrsg.). Die Online-Inhaltsanalyse: Forschungsobjekt Internet. Köln: Halem.
Schirmer, D. (2015): Ehe für Alle – Gleichstellung oder Geschlechterkampf?
Welker, M., Wünsch, C., Böcking, S., Bock, A., Friedemann, A., Herbers, M., Isermannn, H., Knieper, T., Meier, S., Meier, S., Pentuold, C., Schweitzer, E. J. (2010): Die Online-Inhaltsanalyse: methodische Herausforderung, aber ohne Alternative. In: Welker, Martin und Carsten Wünsch (Hrsg.). Die Online-Inhaltsanalyse: Forschungsobjekt Internet. Köln: Halem.
Wesemann, D., Grunwald, M. (2010): Inhaltsanalyse für Online-Diskussionsforen für Betroffene von Essstörungen. In: Welker, Martin und Carsten Wünsch (Hrsg.). Die Online-Inhaltsanalyse: Forschungsobjekt Internet. Köln: Halem.
Früh, D. (2000): Online-Forschung im Zeichen des Qualitativen Paradigmas. Methodologische Reflexion und empirische Erfahrungen. Forum Qualitative Sozialforschung 1 (3): 104 Absätze. www.qualitative-research.net/index.php/fqs/article/view/1052. Überarbeitete Fassung von 2001; zuerst 2000.
Früh, W. (2007): Inhaltsanalyse. Konstanz [UVK], 6. Auflage.
Glaser, B. G., Strauss, A. L. [1976] 2005: Grounded Theory. Strategien qualitativer Forschung. 2., korr. Aufl. Bern [Huber].
Kromrey, H. (2006): Empirische Sozialforschung. Stuttgart [Lucius & Lucius].
Meier, S., Pentzold, C., (2010): Theoretical Sampling als Auswahlstrategie für Online-Inhaltsanalysen. In: Welker, Martin und Carsten Wünsch (Hrsg.). Die Online-Inhaltsanalyse: Forschungsobjekt Internet. Köln: Halem.
Meier, S., Wünsch, C., Pentzold, C., Welker, M. (2010): Auswahlverfahren für Online-Inhalte. In: Welker, Martin und Carsten Wünsch (Hrsg.). Die Online-Inhaltsanalyse: Forschungsobjekt Internet. Köln: Halem.
Rössler, P. (2010): Das Medium ist nicht die Botschaft. In: Welker, Martin und Carsten Wünsch (Hrsg.). Die Online-Inhaltsanalyse: Forschungsobjekt Internet. Köln: Halem.
Rössler, P., Wirth, W. (2001): Inhaltsanalysen im World Wide Web. In: Wirth, W., Lauf, E. (Hrsg.): Inhaltsanalysen, Perspektiven, Probleme, Potentiale. Köln [Herbert von Halem]. 280-302.
Schweitzer E., J. (2010): Politische Websites als Gegenstand der Online-Inhaltsanalyse. In: Welker, Martin und Carsten Wünsch (Hrsg.). Die Online-Inhaltsanalyse: Forschungsobjekt Internet. Köln: Halem.
Schirmer, D. (2015): Ehe für Alle – Gleichstellung oder Geschlechterkampf?
Welker, M., Wünsch, C., Böcking, S., Bock, A., Friedemann, A., Herbers, M., Isermannn, H., Knieper, T., Meier, S., Meier, S., Pentuold, C., Schweitzer, E. J. (2010): Die Online-Inhaltsanalyse: methodische Herausforderung, aber ohne Alternative. In: Welker, Martin und Carsten Wünsch (Hrsg.). Die Online-Inhaltsanalyse: Forschungsobjekt Internet. Köln: Halem.
Wesemann, D., Grunwald, M. (2010): Inhaltsanalyse für Online-Diskussionsforen für Betroffene von Essstörungen. In: Welker, Martin und Carsten Wünsch (Hrsg.). Die Online-Inhaltsanalyse: Forschungsobjekt Internet. Köln: Halem.
[1] facebook.com
[2] twitter.com
[4] kurze, SMS-ähnliche Textnachrichten, die meist weniger als 200 Zeichen beinhalten. Nachrichten auf Twitter.com sind ein ein Beispiel.
[5] franz: on (ne) lâche rien. Wichtiges Schlagwort für die Protestbewegung gegen die Öffnung der Ehe. Außerdem stellt dieser Begriff eine Art Schlachtruf dar, der zunehmend eine radikalere Haltung beschreibt
[6] Die Abbildung wurde für diesen Eintrag neu erstellt, die Begrifflichkeiten und grafischen Formen wurden jedoch genau übernommen
[7] Die Abbildung wurde für diesen Eintrag neu erstellt, die Inhalte wurden jedoch exakt übernommen