Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.

Link zu der Vergleichsansicht

Beide Seiten, vorherige ÜberarbeitungVorherige Überarbeitung
lv-wikis-oeffentlich:projektwikis:rechtes-netz:methoden [2021/01/06 12:39] – [Ausgelassene Methoden] ya24lv-wikis-oeffentlich:projektwikis:rechtes-netz:methoden [2021/01/06 12:40] (aktuell) – [Big Data - algorithmisch gestütze Analysen großer Datensätze] ya24
Zeile 1: Zeile 1:
 +====== Methoden ======
 +
 +Ein Ziel des Studienprojekts war es, einen Einblick in gängige Methoden der Internetforschung zu gewinnen. Im Folgenden werden einige der in der gesichteten Forschung aufgefundenen Methoden dokumentiert und auf ihren Zweck und ihre blinden Flecken hin geprüft.
 +
 +
 +
 +Um einen ersten Einblick in die Feinheiten von Internetforschung zu gewinnen wurde ein Methodenbuch, Robert Kozinets Netnography, herangezogen, in welchem der Autor seinen Ansatz einer Internetbasierten Ethnographie ebenso wie weitere Methoden vorstellt. Kozinets hat schon 2010 festgestellt, dass Internetforschung kein revolutionäres Feld mehr sei, und eigentlich nie eines war: „there is not a lot that is particularly unique about much of what goes on in the online environment.“ (vgl. Kozinets 2010: 12). Diesem Ansatz folgend, adaptiert er zumeist ‚konventionelle‛ Forschungsmethoden, wie Umfragen, Interviews, Fokusgruppenbefragung und Soziale Netzwerkanalyse, für ein Online-Umfeld. Der methodologische Ansatz ist laut Kozinets (vgl. ebd.: 43) eigentlich variabel, und soll sich primär an den zu untersuchenden Daten und an der Forschungsfrage orientieren.
 +
 +====== Big Data - algorithmisch gestütze Analysen großer Datensätze ======
 +
 +Auch wenn Internetforschung laut Kozinets kein revolutionäres Feld ist, so hat sich dennoch mit dem zeitgleichen Aufkommen des Internets und von hochleistungsfähigen Rechenmaschinen eine neue Tendenz in der sozialwissenschaftlichen Forschung gebildet. Big Data ist ein Konzept, dass laut danah boyd (Eigenschreibweise) und Kate Crawford die Auswertung großer Mengen von Daten, beispielsweise Interaktionen in [[soziale Netzwerke|sozialen Netzwerken]], mithilfe von neuen Analysemöglichkeiten - die früher nur Supercomputern zur Verfügung standen - auszuwerten, um damit Ergebnisse zu erzielen, denen eine Aura größerer Objektivität und Akkuratheit anhaftet (vgl. boyd / Crawford 2012: 663). Viele empirische Studien, insbesondere die, die von Mitgliedern des Institute for Strategic Dialogue (ISD) produziert wurden, machen sich die großen Datenmengen des Internets zunutze, indem große, online ausgelesene Datensätze mithilfe von Algorithmen analysiert werden. Einige Beispiele:
 +
 +  * Julia Ebner et al. untersuchten für das ISD die Koordination rechtsextremer Hasskampagnen auf Facebook und in verschlüsselten Discordchats. Dazu wurde zunächst eine koordinierte Anti-Hassrede-Kampagne auf Facebook, #ichbinhier, verfolgt, die vor allem in den Kommentarspalten von Medienartikeln agiert. Es wurden alle „Top-Level-Kommentare“ (Ebner et al. 2018: 11) von Nicht-#ichbinhier-Akteuren aus Kommentarspalten des Monats Dezember 2017 heruntergeladen, in denen #ichbinhier-Aktionen stattfanden (dies stellte den ersten Datensatz), zusätzlich wurden weitere „700 ähnliche Kommentarspalten“ (ebd.: 11) von 16 Medienseiten desselben Monats analysiert, in denen keine #ichbinhier-Aktion stattfanden (zweiter Datensatz). Accounts, die im ersten Datensatz (aus #ichbinhier-Aktionen) mit „Hateful-Speech-Kommentaren positiv, z.B. in Form von ‚Likes‛ interagieren“ (ebd.) wurden identifiziert, und dabei die 1.000 aktivsten Accounts ausgewählt, die bei mindestens vier #ichbinhier-Aktionen aktiv waren. Hateful-Speech wurde dabei vereinfacht definiert als jedes Kommentar, mit dem kein #ichbinhier-Akteur positiv interagiert hat. Im zweiten Datensatz wurden 5.500 weitere hoachaktive Accounts identifiziert, deren Like-Verhalten genauer betrachtet wurde. Zur Auswertung griffen die Forscherinnen auf Crimson Hexagon, welches „linguistische Analysemöglichkeiten mit Machine Learning kombiniert“ (ebd.: 8), zurück, um die Zahl von Posts mit bestimmten Hashtags oder Schlüsselworten auf Facebook und Twitter zu messen. Die Programmiersprache R wurde in Verbindung mit dem „R Facebook Plugin sowie Facebooks eigenen API-Funktionen (API Version 2.9) zum Auswerten von Datensätzen genutzt“ (ebd.: 8). Ein gesondertes Papier mit einer genaueren Ausführung der Methodik wird zwar erwähnt, ist jedoch nicht auffindbar.
 +  * In einer weiteren ISD-Studie wurde ebenfalls Crimson Hexagon verwendet, um 77.000 Postings in einem 4chan-Unterforum auszulesen, eine anschließende Kodierung wurde mithilfe des Programms Method 52 durchgeführt. Method 52 kann offenbar auf Basis von einigen manuell durchgeführten Kodierungen (in diesem Fall wurden 100 Postings von zwei Forschern unabhängig voneinander kodiert) Regeln erstellen, nach denen das Programm den restlichen Text mit einem gewissen Fehlerwert kodieren kann. Ziel war es, den Anteil an Kommentaren über Juden, die antisemitisches Gedankengut ausdrücken, zu messen (vgl. Ebner et al. 2020: 64ff.).
 +  * In derselben Studie wurde, um das Zwischenspiel zwischen Mainstream- und Alternativ-Medien in Deutschland zu messen, mithilfe des Programms Media Cloud 382.753 Mainstream-Artikel und 32.343 Alternativ-Artikel, die in einem gewissen Zeitraum veröffentlicht wurden, ausgelesen. Es wurden fünf Themenblöcke gewählt (etwa ‚Verschwörungstheorien‛ oder ‚Islamisierung‛) nach denen mithilfe von Schlüsselwörtern gesucht wurde. Anschließend wurde der prozentuale Anteil an Artikeln, die bei Mainstream- bzw. Alternativ-Medien zu einem jeweiligen Thema erschienen, gemessen und analysiert (vgl. Ebner et al. 2020: 66ff.).
 +  * Asaf Nissenbaum und Limor Shifman (vgl. 2017: 489) kopierten für ihre Untersuchung von [[Chan-Boards|4chan]]-Threads diese mithilfe des Programms HTTrack, dass über mehrere Tage hinweg mehrmals pro Tag eine Kopie eines 4chan-Unterforums anfertigte. Auf diese Weise sammelten die Forscher 840 Threads, die sie dann schlicht nach einigen wenigen Kodes durchsuchten und die Ergebnisse auf ihre Fragestellung hin analysierten.
 +  * Martin Trevor (vgl. 2017) untersuchte die Überschneidungen von Kommentatoren des r/The_Donald-Subreddits mit denen anderer Subreddits. Seine auf Maschinenlernen basierende Methode nennt er „latent semantic analysis“ (ebd.).
 +Wie an diesen Beispielen ersichtlich ist, wird Big Data vornehmlich zum Vergleichen der Quantität verschiedener Kodes in verschiedenen Medien genutzt. In den meisten Fällen werden Aussagen von Nutzerinnen kodiert, um dann eine Aussage über die Inhalte oder die Art des Diskurses auf der entsprechenden Plattform treffen zu können. 
 +
 +====== Clusteranalysen ======
 +
 +„The ability to represent relationships between people as a graph does not mean that they convey equivalent information.“ (boyd / Crawford 2012: 670).
 +
 +
 +Ebenfalls auf große Datenmengen und Analyse-Algorithmen basierend, und damit als Big Data geltend, sind viele Internet-Netzwerkanalysen, die beispielsweise auf der Messung gegenseitiger Interaktionen verschiedener Accounts basieren, und diese dann in einem Cluster darstellen. Emilie de Keulenaar (vgl. 2018) stellte etwa die YouTube-Sphäre, die sich um das [[Kekistan und Pepe der Frosch|Kekistan]]-Meme gebildet hatte, mithilfe der Software Gephi als Cluster dar. Zumeist geht damit zumindest eine inhaltliche Kodierung einher, de Keulenaar unterscheidet die Videos der YouTube-Sphäre etwa nach ihrer Form und Sprache.
 +
 +
 +
 +Leider ersetzt die Darstellung von Netzwerken als Cluster bei manchen Autorinnen die Analyse. In einer ISD-Studie (vgl. Ebner et al. 2018: 22) wird etwa der Konflikt zweier Parteien in einer Facebook-Kommentarspalte als Cluster dargestellt, um daraus lediglich zu Schlussfolgern, dass Beteiligte ihre Kommentare gegenseitig liken. Eine Erklärung des dargestellten Clusters findet lediglich mit einer stichpunktartigen Legende statt. 
 +
 +{{ lv-wikis-oeffentlich:projektwikis:rechtes-netz:cluster.jpg?600 |}}
 +<note>Abbildung: Cluster-Analyse einer Kommentarspalte auf Facebook, in der Akteure einer Hetzkampagne und einer Gegenkampagne ihre Kommentare gegenseitig liken: Die Punkte stehen für Accounts, die Linien visualisieren Likes. Was die gelben und roten Punkte bedeuten, geht auch aus dem Text nicht hervor, ebenso fehlt jede weitere Analyse des Clusters.</note>
 +
 +Hier tritt womöglich ein, was boyd und Crawford (vgl. 2012: 666) an Big Data kritisieren: Die Annahme vonseiten der Forscherinnen, dass Zahlen - oder in diesem Fall: Cluster - für sich selbst sprechen würden.
 +
 +====== Umfragen ======
 +
 +Auf deutlich kleineren Datenmengen basieren die in der gesichteten Forschung durchgeführten Umfragen oder Befragungen, die zumeist in abgeschlossenen Netzwerken, also in Foren oder Kanälen, durchgeführt werden. In den meisten Fällen interessieren sich Forscherinnen für die Radikalisierungsnarrative der Teilnehmenden. Obwohl die Umfrage die einzige hier behandelte Methode darstellt, die über die demographische Zusammensetzung von Internetakteuren Aufschluss geben kann, wurde sie in der gesichteten Forschung nur selten zu diesem Zweck verwendet.
 +
 +
 +
 +Julia Ebner et al. (vgl. 2020: 24f.) werteten sowohl geschlossene als auch offene Umfragen auf verschiedenen Internetplattformen aus. Ob die Umfragen von den Forscherinnen eingestellt wurden oder von anderen Nutzerinnen, um dann lediglich von Ebner et al. ausgewertet zu werden, ist unklar. Bei offenen Umfragen konnten die Nutzerinnen eigene Antworten formulieren, die dann von den Forscherinnen kodiert wurden. Die Teilnehmerzahl bewegte sich zwischen 69 und 187 Teilnehmenden.
 +
 +====== Inhaltsanalysen ======
 +
 +Eine qualitative Methode, die wiederholt Anwendung findet, ist die Inhaltsanalyse. Danilo Rieger et al. (vgl. 2020: 73ff.) führten eine Inhaltsanalyse von 155 rechtsextremen Memes, die zuvor von Internetnutzerinnen an die Meldestelle des Demokratiezentrums Baden-Württemberg gemeldet wurden. Auf Basis der Ergebnisse wurde auch ein thematischer Cluster erstellt, in dem sämtliche inhaltliche Bezugspunkte wie auch deren Relationen zueinander ersichtlich sind. Christian Schwarzenegger und Anna Wagner stellten 2018 (vgl.: 482) eine Inhaltsanalyse von Posts und Kommentaren bei fünf satirischen Facebookseiten und einer Facebookgruppe verschiedener Länder vor, wobei sie unter anderem darauf achteten, wie Nutzerinnen ein Gemeinschaftsgefühl ausdrücken.
 +
 +====== Ausgelassene Methoden ======
 +
 +Eine Methode, die von Kozinets (vgl. 2010: 46) behandelt wird, jedoch in der gesichteten Forschungsliteratur keine Anwendung fand, ist das Interview. Dabei wäre es möglich Nutzerinnen und Akteure in rechtsextremen Online-Netzwerken zu interviewen, um etwas über die Bedeutung dieser Netzwerke im Alltag der Akteure zu erfahren.
 +
 +
 +
 +Von Kozinets ebenfalls behandelt wird die Ethnographie in Internet-Gemeinden (von ihm ‚Netnographie‛ genannt). ISD-Studien griffen als einzige in der gesichteten Forschung auf ethnographische Methoden zurück (vgl. Ebner et al. 2018: 16; Ebner et al. 2020: 13), erläutern in ihren Forschungsberichten jedoch nicht ihre Methodik. Die Ethnographie scheint ihnen auch eher zum „monitoring“ (Ebner et al. 2020: 13) zu dienen, also um die Aktivitäten verschiedener Netzwerke im Auge zu behalten, ohne selbst in diesen aktiv zu werden, während Kozinets (vgl. 2010: 96) Ansatz den Zweck vertritt, Teilhabe an einer Gemeinschaft nachzuvollziehen.
 +
 +
 +
 +Analysen der Online-Praktiken der Untersuchungsobjekte – abseits von offenbar als relevant befundenen, ‚gefährlichen‛ Praktiken wie der Koordination von Hasskampagnen in Foren – finden sich selten. Es finden sich etwa wenige Analysen der verwendeten Memes, der gemeinschaftlichen Atmosphäre oder des Umgangstones in den entsprechenden Netzwerken. Hier liegt ein Anknüpfungspunkt für zukünftige Forschungsprojekte.
 +
 +[[startseite|Zurück zur Einstiegsseite]]
 +
 +
 +
 +[[Literaturverzeichnis|Zum Literaturverzeichnis]]
 +
 +
 +
  
Drucken/exportieren