4. Vertiefung, Ergebnisse, Schlussfolgerungen

4.1 Kann der AI Assist interpretative Codes erstellen?

Der AI Assist von MAXQDA kann neue Codes für ein Textsegment vorschlagen. Dabei werden zwei verschiedene Arten von Codes ausgegeben: thematische und interpretative Codes. Im Seminar haben wir uns ausführlich mit den interpretativen Codes des AI Assist beschäftigt und analysiert, inwieweit dieser tatsächlich in der Lage ist, zu interpretieren – also etwas zu erstellen, das keine Wiedergabe oder Zusammenfassung der vorliegenden Pressemitteilungen ist, sondern vielmehr versucht die Bedeutung des Textes, dessen Intention und die beschriebenen Phänomene zu verstehen u.a. indem dieser in Verbindung mit anderem Wissen gebracht wird.1)

Kann eine KI, die auf einem Large Language Modell basiert überhaupt interpretieren?

Bei der Frage der Interpretationsfähigkeit des AI Assist ist dessen Funktionsweise zu berücksichtigen. Die Funktionsweise von ChatGPT ist hier aufschlussreich, da sie auf der Basis des gleichen Sprachmodells arbeiten. Die KI errechnet auf Basis ihrer Datengrundlage das wahrscheinlich nächste Wort und produziert so Texte. Auf der semantischen Ebene kann sie Texte nicht inhaltlich verstehen, sondern nur berechnen.2) Andererseits ist eine Interpretation auch die Verknüpfung eines Textes mit Wissen aus einem anderen Kontext, und Large Language Modelle verfügen über eine riesige Datenbasis, die ein Mensch niemals überblicken könnte.3) Insofern ist eine Interpretation nicht auf der Verstehensebene der Sprache möglich, sondern auf der Strukturebene. Die KI kann also nicht interpretieren, aber Interpretationen nachahmen.
Was sagt ChatGPT dazu?

Prompt: Kann der AI Assist von MAXQDA interpretative Codes erstellen?

„Der AI Assist von MAXQDA kann derzeit keine interpretativen Codes erstellen. Er ist in der Lage, automatisierte Codierungen basierend auf maschinellem Lernen durchzuführen, aber diese Funktionalität ist hauptsächlich auf die Erkennung von Themen, Schlüsselwörtern oder Phrasen begrenzt, die in den Daten häufig vorkommen. Interpretative Codes erfordern jedoch ein tiefes Verständnis des Kontexts und der Bedeutung, die in den Daten enthalten sind. Diese Art der Codierung ist stark subjektiv und basiert auf dem Verständnis und der Interpretation des Forschers. Während der AI Assist in MAXQDA hilfreiche erste Schritte zur Kodierung bieten kann, bleibt die Erstellung von interpretativen Codes eine Aufgabe, die menschliches Urteilsvermögen und Fachwissen erfordert. Der Forscher muss immer noch die Bedeutung der Daten interpretieren, komplexe Zusammenhänge erkennen und auf dieser Grundlage geeignete Codes erstellen.“4)

Interpretative Codes und Codieren im Sinne der Grounded Theory

Codieren im Sinne der Gounded Theory geht über eine inhaltliche Zusammenfassung des Analysematerials hinaus. Vielmehr ist hier der Grundgedanke, „in der intensiven Auseinandersetzung mit den empirischen Daten prägnante, abstrahierende Begriffe zu finden, mit dem Ziel, Zusammenhäng und Muster i.w.S. in den Phänomenen zu erkennen und diese in Form einer in den Daten begründeten Theorie auszuarbeiten.“5) Das Codieren ist die Praktik, die den Prozess der Datenerhebung mit der Theoriebildung verbindet. Die Codes sollten also im Codierprozess zunehmend generalisierbar und abstrakter werden, um theoretische Aussagen zu ermöglichen, die über den spezifischen inhaltlichen Kontext einer Textstelle hinausgehen. Codes sind „transitional objects“, sie verbinden das vorliegende Datenmaterial mit der analytischen Abstraktion, die die forschende Person am Material interpretiert.6)

Erster Test: Der AI Assist schlägt Codes für eine einzelne Pressemitteilung vor

Zunächst haben wir im Seminar die von AI Assist vorgeschlagenen interpretativen Codes für die einzelnen Pressemitteilungen überprüft.

Intensiv diskutiert wurde die Pressemitteilung 9: „Berliner Chaos-Koalition torpediert Lieferkettengesetz“ der Partei Die Linke. Hier hat die KI folgende interpretative Codes erstellt:

Im Hinblick auf die Frage, ob KI interpretative Codes liefern kann, ist der Code „Moralischer Verfall“ von besonderem Interesse, da er unserer Meinung nach inhaltlich gut zur Pressemitteilung passt. Er soll daher im Folgenden näher betrachtet werden. Er basiert vermutlich auf den Passagen, in denen es darum geht, dass die Konzerninteressen der Regierung wichtiger seien als Menschen- und Arbeitnehmer*innenrechte und dass sie durch ihre Enthaltung im Ausschuss zum europäischen Lieferkettengesetz „aktive Beihilfe zur Ausbeutung von Menschen in Entwicklungsländern“ leisten würde.

Unmoralisches Verhalten ist ein Verhalten, dass mit geltenden Sitten und Werten einer Gesellschaft nicht vereinbar ist.7) Dass Die Linke in ihrer Pressemitteilung das Verhalten der Ampel als unmoralisch bezeichnet, erscheint als passende Interpretation. Der Code „Moralischer Verfall“ der KI ist eine abstrakte Aussage, die über den Kontext der Textstelle hinaus das Phänomen beschreibt. Gleichzeitig handelt es sich unserer Ansicht nach um eine recht oberflächliche und offensichtliche Interpretation, da sie eindeutig aus dem Text hervorgeht und keine versteckten Bedeutungen oder sprachlichen Nuancen eine Rolle spielen.

Zweiter Test: Der AI Assist schlägt Codes für mehrere Pressemitteilungen vor

Wenn sich der AI Assist bei der Ausgabe der Codes nur auf eine Pressemitteilung bezieht, kann er nur zufällig interessante Codes für das gesamte Material generieren. Aus diesem Grund haben wir im Seminar beschlossen, mehrere Pressemitteilungen zusammenzustellen und anhand dieser die Codeausgabefunktion zu testen. Exemplarisch wird hier mit den zusammengefügten Pressemitteilungen einer Seminarteilnehmerin gearbeitet. Ausgewählt wurden Pressemitteilungen der Parteien BSW, Die Linke, CDU und ein Auszug aus einer der FDP. Die Auswahl der Parteien erfolgte, da diese in dem vorliegenden Material häufig Kritik an der Regierungsarbeit üben, die Auswahl der Pressemitteilungen erfolgte aufgrund ihrer Kürze. Hier soll nun untersucht werden, ob der AI Assist interpretative Codes findet, die über eine konkrete Textstelle hinausgehen und auf mehrere Pressemitteilungen anwendbar sind. Darüber hinaus wird der Mehrwert für das Forschungsinteresse diskutiert.

Folgende interpretativen Codes wurden durch AI Assist generiert:

Die AI-Codes wurden nun in zwei Durchgängen an den ausgewählten Pressemitteilungen codiert ( Pressemitteilungen mit Codes). Dabei fällt auf, dass die Codes über eine spezifische Pressemitteilung oder ein Textsegment hinaus, auch auf andere Pressemitteilungen passend anwendbar sind. Dabei gehen sie über den offensichtlich lesbaren Inhalt hinaus. Beispielsweise passt der Code „Gesellschaftlicher Zusammenhalt“ an einem Textsegment zum Thema Inflation und Konzerngewinne der Partei Die Linke.

Die Interpretationsleistung besteht hier darin, dass eine weitere Umverteilung finanzieller Ressourcen von den weniger Begüterten hin zu den Unternehmen dem gesellschaftlichen Zusammenhalt schadet. Den Code des AI Assist mit der Textstelle in Verbindung zu bringen und diese Verbindung zu begründen, ist jedoch die interpretative Leistung der Forscherin.

Vergleich der Codes des AI Assist mit denen der Forschungsgruppe

Bei der Betrachtung der AI Codes fällt auf, dass diese sehr allgemein gehalten sind. Hierdurch entsteht der Eindruck, dass die inhaltliche Besonderheit der Pressemitteilungen und die Art wie die Regierung durch die Oppositionsparteien und die FDP diskursiv dargestellt wird, nicht ausreichend und vor allem nicht interessant genug dargestellt wird. Vielmehr werden hier sehr allgemeine Konzepte/Phänomene angesprochen, die im Kontext von politischen Pressemitteilungen erwartbar sind und realtiv offensichtlich aus dem Text hervorgehen.

Die Codes des gemeinsamen Kategoriensystems der Seminargruppe erscheinen uns aussagekräftiger. Sie sind spezifischer, beziehen sich auf tiefere und verborgene Bedeutungen der Texte und bringen einen Erkenntnisfortschritt in Bezug auf die Forschungsfrage. Beispielsweise haben wir mit dem Code „Deutschland schaden“ herausgefunden, dass der Regierung mehrfach vorgeworfen wird, dem Land grundsätzlich zu schaden oder es sogar zu zerstören. Die Folgen dieses Handelns wären demnach noch lange spürbar oder sogar irreversibel.

Schlussfolgerungen

Der KI-generierte Code „unmoralisches Verhalten“ aus dem ersten Test und die interpretativen Codes des zweiten Tests ließen sich gut auf die Textsegmente anwenden und erweisen ein hohes Abstraktionsniveau. Es handelte sich nicht lediglich um Zusammenfassung oder Wiedergabe des Inhalts, sondern ging darüber hinaus. Der AI Assist ist unserer Ansicht nach daher dazu geeigner interpretative Codes zu erstellen.

Hinsichtlich des inhaltlichen Mehrwerts zur Beantwortung der Forschungsfrage enttäuschten die KI-generierten Codes jedoch, da sie sehr allgemein gehalten waren und allenfalls Hinweise geben konnten. Tiefere Bedeutungen konnte der AI Assist offenbar nicht erkennen und in Codes umwandeln. Die interpretativen Codes des AI Assist können daher bestenfalls die Ideenfindung unterstützen und helfen, einige relevante Themen zu identifizieren. Um eine gegenstandsverankerte Theorie anhand des Datenmaterials zu entwickeln, wie es das Ziel der Grounded Theory ist, können die interpretativen Codes des AI Assist den Codierprozess durch menschliche Forscher*innen nicht ersetzen.

4.2 Produziert die KI Unwahrheiten und nutzt lediglich schlaue Begriffe?

Der AI Assist von MAXQDA stützt sich auf ein Large Language Model, dementsprechend sind die Ergebnisse ein dynamischer Prozess basierend auf künstlichen neuronalen Netzen. In der Regel ähneln sich die Code-Vorschläge, sind bei mehreren Durchläufen aber niemals identisch. Hier kommt schnell die Frage auf, ob Ergebnisse lediglich ‚gut klingen‘, inhaltlich aber wenig fundiert sind und nicht umfangreich beim Analyseprozess helfen. Gerade die Bildung von immer fortlaufenden ‚Code-Optionen‘ führt schnell zu Irritationen und Unsicherheiten beim Analyseprozess, bringt aber auch Chancen mit sich.8)

AI hallucinations

Die Produktion von Unwahrheiten, die von der KI als Fakten dargestellt werden, wird auch AI hallucinations genannt.9) Dieser Begriff kann mit Blick auf die Ungenauigkeit und Täuschung durch nicht wahrheitsgemäße Fakten kritisch gesehen werden. Michael Hicks et al. beziehen sich in Anlehnung an den amerikanischen Philosophen Harry Frankfurt auf den Begriff bullshit.10)

Sie weisen darauf hin, dass Large Language Modelle gegenüber der Wahrheit ihrer Ergebnisse gleichgültig und rücksichtslos sind. Ihr übergeordnetes Ziel ist die Imitation der menschlichen Sprache. Der Begriff der AI hallucinations bringt eine gewisse Vermenschlichung mit sich, die Verantwortung für fehlerhafte Ergebnisse wird dem KI-Modell zugeschrieben. KI-Modelle haben allerdings keine (Selbst-) Wahrnehmung, sie können also auch nichts falsch wahrnehmen. Somit halluzinieren sie nicht im eigentlichen Sinne, sondern haben vielmehr das Ziel, vor allem überzeugend aufzutreten – ob die angegebenen Fakten fundiert und wahrheitsgemäß wiedergegeben werden ist in diesem Fall zweitrangig.11)

Auffälligkeiten bei den Codes von AI-Assist

Während den eigenen Untersuchungen ist uns aufgefallen, dass einzelne von AI Assist generierte Codes häufiger auftreten als Andere. Dazu gehören beispielsweise Formulierungen wie „Systemkritik“. Hierzu im Anschluss ein Screenshot eines weiteren Durchlaufs der interpretativen Codes von AI Assist zu dem aus mehreren Pressemitteilungen bestehenden Textdokument:

Im Vergleich die bereits in Kapitel 4.1 analysierten Codeoptionen von AI Assist:

Interessant ist in diesem Zusammenhang, dass die Optionen „Gesellschaftliche Spaltung“ und „Gesellschaftlicher Zusammmenhalt“ ohne die Erläuterung des Codes durchaus gegensätzlich verstanden werden können und somit unweigerlich die Frage aufkommt, welcher Code nun der Wahrheit entspricht. Mit der Erläuterung kann eingeordnet werden, dass im Fall des Codes „Gesellschaftlicher Zusammenhalt“ dessen Gefährdung thematisiert wird. Diese Einordnung kann ohne eine anschließende Interpretation schnell missverständlich sein. Beim Code „Suche nach Alternativen“ stellt sich die Frage, welche Veränderungen und Lösungsansätze konkret gemeint sind. Er ist zu allgemein gehalten und dementsprechend wenig zielführend. Auch Wörter wie „Polarisierung“, „Symbolik“ und „Rhetorik“ traten in den von uns generierten Codes auffällig oft auf.

Schlussfolgerungen

Large Language Modelle arbeiten mit Wahrscheinlichkeiten und passen daran ihre Antworten an.12) Dementsprechend geben sie nie dieselbe Antwort zweimal und sind bis zu einem gewissen Grad eine ‚black box‘.13) Das KI-System hat nur ein begrenztes semantisches Verständnis und gleicht dies mit der Berechnung von Wahrscheinlichkeiten aus. Wissens- beziehungsweise Kombinationslücken werden mit Berechnungen und kreativen vermeintlich passenden Vorschlägen abgedeckt.14)

Latour beschreibt den Blackbox-Effekt mit den Worten:„When a machine runs efficiently, when a matter of fact is settled, one need focus only on its inputs and outputs and not on its internal complexity. Thus, paradoxically, the more science and technology succeed, the more opaque and obscure they become“ (Latour 1999, S.304) 15)

Das Problem der ‚black box‘ hat auch im datenschutzrechtlichen Sinne Relevanz. Wie die KI mit persönlichen sensiblen Daten umgeht, lässt sich nur begrenzt kontrollieren. Auch wenn MAXQDA versichert, dass AI Assist eingelesene Daten nicht für das Training der KI verwendet, liegt die Verantwortung am Ende bei den Nutzer*innen des Programms. Durch die Unklarheit bezüglich der konkreten Gewährleistung der Datenschutzrichtlinien sollte aktiuell nicht mit sensiblen Daten gearbeitet werden.16)

Dennoch lassen sich KI-generierte Codes nicht grundsätzlich als ‚Unwahrheit‘ kategorisieren. Der AI-Assist sollte beim Analyseprozess als Werkzeug dienen, um einzelne Arbeitsschritte zu überprüfen und in diesem Kontext neue Anregungen zu bekommen. Die einfache Nutzung und Quantität an Output von AI-Assist können hilfreich sein, um weitere Aspekte zu beleuchten und einen neuen Blickwinkel auf eine Forschungsthematik zu bekommen.

1)
Fahrenberg, J. (2024). Interpretation. In M. A. Wirtz (Hrsg.), Dorsch Lexikon der Psychologie. Verfügbar unter: https://dorsch.hogrefe.com/stichwort/interpretation [16.08.2024]; Gardt, A. (2017). 23. Interpretation. In A. Betten (Hrsg.), Handbuch Sprache in der Literatur (S. 487–508). Berlin/Boston: De Gruyter.
2)
Hicks, M. T., Humphries, J. & Slater, J. (2024). ChatGPT is bullshit. Ethics and Information Technology, 26(2). S. 38.; Nimsdorf, S. (2023). Was ist eigentlich … ChatGPT? Verfügbar unter: https://www.bidt.digital/was-ist-eigentlich-chatgpt/ [18.08.2024]
3)
Nimsdorf, 2023
4)
Text erstellt mit ChatGPT am 18.08.2024
5)
Muckel, P. & Breuer, F. (2015). Die Praxis der Reflexiven Grounded Theory. Beispielhaft erläutert an der Entwicklung erster Theoriefragmente aus den Kodes unterschiedlicher Daten und bereits bestehender Theorien. In C. Equit (Hrsg.), Handbuch Grounded Theory. Von der Methodologie zur Forschungspraxis (S. 158–179). Weinheim: Beltz Juventa. S. 160
6)
Charmaz, K. (2014). Constructing grounded theory (2. Aufl.). London, Thousand Oaks: Sage. S. 113
7)
Schneider, G. & Toyka-Seid, C. (2024). Moral. In bpb (Hrsg.), Das junge Politik-Lexikon. Bonn: bpb.
8)
Theisen, M. R. (2023). ChatGPT: Risiken, Gefahren und Chancen in Lehre und Forschung. WiSt. Wirtschaftswissenschaftliches Studium 52(12), 17-23, S. 21 f.
9)
Alkaissi, H. & McFarlane, S. (2023). Artificial Hallucinations in ChatGPT: Implications in Scientific Writing. Cureus 15(2).
10)
Frankfurt, H. G. (2006). Bullshit. Frankfurt: Suhrkamp Verlag.
11)
Hicks, M. T.; Humphries, J. & Slater, J. (2024). ChatGPT is bullshit. Ethics and Information Technology, 26(2). S. 37
12)
Frické, M. (2024). Artificial Intelligence and Librarianship. Notes for teaching (3. Aufl.). Minneapolis: Open Textbook Library. S. 117
13)
Klimczak, P.; Petersen, C. & Schilling, S. (2020). Maschinen der Kommunikation.Interdisziplinäre Perspektiven auf Technik und Gesellschaft im digitalen Zeitalter. Wiesbaden: Springer. S.192 f.
14)
Theisen, 2023, S.21
15)
Latour, B. (1999). Pandora’s hope. Essays on the reality of science studies. Cambridge: Harvard University Press. S. 304
16)
Schneijderberg, C. (11. März 2024). AI ASSIST in MAXQDA 24 derzeit nicht datenschutzkonform? Sozialwissenschaftliche Methodenberatung. Verfügbar unter: https://doi.org/10.58079/vzue [24. 09. 2024]
Drucken/exportieren