Literatur


Bender, Emily M., Timnit Gebru, Angelina McMillan-Major, und Shmargaret Shmitchell. 2021. „On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜“. In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610–23. Virtual Event Canada: ACM. https://doi.org/10.1145/3442188.3445922.

boyd, danah/Kate Crawford 2012. Critical Questions for Big Data. In: Information, Communication & Society, 15(5): 662-679, DOI: 10.1080/1369118X.2012.678878.

Bryson, Joanna / Alan Winfield 2017. Standardizing Ethical Design for Artificial Intelligence and Autonomous Systems. Computer, 50(5): 116–119. https://doi.org/10.1109/MC.2017.154.

Caliskan, Aylin / Joanna J. Bryson / Arvind Narayanan 2017. Semantics derived automatically from language corpora contain human-like biases. Science 14 Apr 2017: Vol. 356, Issue 6334, pp. 183-186. DOI: 10.1126/science.aal4230

Criado-Perez, Caroline 2020. Unsichtbare Frauen. Wie eine von Daten beherrschte Welt die Hälfte der Bevölkerung ignoriert. (Originaltitel: Invisible Women. Exposing data in a world designed for men.) München. btb.

D’Ignazio, Catherine and Lauren F. Klein 2020. Data feminism. Cambridge, Massachusetts. The MIT Press.

Haraway, Donna 1995. Ein Manifest für Cyborgs. Feminismus im Streit mit den Technowis­senschaften. In: Hammer, Carmen/Stieß, Immanuel: Die Neuerfindung der Natur. Primaten, Cyborgs und Frauen. Frankfurt. Campus: 33–72.

Haraway, Donna 1995. Situiertes Wissen. Die Wissenschaftsfrage im Feminismus und das Privileg einer partialen Perspektive. In: Hammer, Carmen/Stieß, Immanuel: Die Neuerfin­dung der Natur. Primaten, Cyborgs und Frauen. Frankfurt/New York: Campus: 73-97.

Irving, Geoffrey / Paul Christiano / Dario Amodei 2018. AI safety via debate. In: arXiv:1805.00899v2 [stat.ML]. https://arxiv.org/abs/1805.00899

LesMigraS, Hrsg. 2012. Nicht so greifbar und doch real. Eine quantitative und qualitative Studie zu Gewalt- und (Mehrfach-) Diskriminierungserfahrungen von lesbischen, bisexuellen Frauen und Trans* in Deutschland. Berlin.

OECD 2021. Man Enough? Measuring Masculine Norms to Promote Women’s Empowerment, Social Institutions and Gender Index. Paris. OECD Publishing. https://doi.org/10.1787/6ffd1936-en

O'Neil, Cathy 2016. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Broadway Books.

Schmidt, Francesca 2018. Netzpolitik: Eine feministische Einführung. Leverkusen. Verlag Barbara Budrich.

Sandoval, Chela 2000. Methodology of the Oppressed, Minneapolis: University of Minnesota Press.

Strittmatter, Kai 2018. Die Neuerfindung der Diktatur. Wie China den digitalen Überwachungsstaat aufbaut und uns damit herausfordert. München. Piper.

Thürmer-Rohr, Christina 1995. Denken der Differenz. Feminismus und Postmoderne. In: beiträge zur feministischen theorie und praxis, Heft. 39: 87-98.


Artikel und Videos

Babayiğit, Gökalp 2021. Danke für nichts. Was treiben eigentlich Frauen und Migranten im Bundestag? Zu einer Studie, die wieder mal nur gut gemeint war. Süddeutsche Zeitung, 6./7.3.2021: 15.

Eckardt, Lisa-Marie 2021. Gender Data Gap: „Wir sind keine Einzelfälle“. Warum es Frauen gefährdet, wenn sie bei Datenerhebungen unsichtbar bleiben: Ein Gespräch mit der Informatikerin Meike Zehlike über den Gender-Data-Gap bei Jobbörsen, Klimaanlagen und anderen Technologien. Interview: Lisa-Marie Eckardt. ZEIT Spezial Nr. 1/2021, 28. Dezember 2020 Exklusiv für Abonnenten ! (https://www.zeit.de/zeit-spezial/2021/01/gender-data-gap-frauen-maenner-datenerhebung-diskriminierung)

Frisse, Juliane 2019. Algorithmen: Was tun gegen Software, die Frauen diskriminiert? Die Künstlerin Caroline Sinders arbeitet an einem „feministischen“ Datensatz. Der soll verhindern, dass stereotype Frauenbilder durch Algorithmen gefestigt werden. Interview von Juliane Frisse. ZEIT 26. März 2019, 17:31 Uhr, https://www.zeit.de/die-antwort/2019-03/feminismus-daten-algorithmen-software-sexismus-diskriminierung/komplettansicht

Moll, Sebastian 2016. Algorithmen: Präzise berechneter Rassismus. Das US-amerikanische Justizsystem hat ein Rassismusproblem, objektive Algorithmen sollten das ändern. Doch nun wird klar: Sie verschlimmern die Lage. ZEITonline, 6. Juni 2016, 8:17 Uhr, https://www.zeit.de/gesellschaft/zeitgeschehen/2016-06/algorithmen-rassismus-straftaeter-usa-justiz-aclu

Vom Mythos neutraler Algorithmen. Netzpolitik. Eine Feministische Einführung / Online-Buchpräsentation und Diskussion vom 9. Februar 2021. https://youtu.be/fIEmrizhNmk

Stolzenburg, Frieder und Francesca Schmidt. Explainable AI: Eine mögliche Lösung des Diskriminierungsproblems? Gespräch (12.03.21). https://youtu.be/lJHDrHRc0oc Aus: Ringvorlesung „We need to talk about AI“ https://ki-convention.com/events/

Thoneick, Rosa 2020. Diskriminiert dieser Automat Schwarze? Künstliche Intelligenz benachteiligt Menschen, die nicht weiß sind. Seit Jahren wird das Problem aufgeschoben. Ein Fall aus Hamburg zeigt, wie schwierig die Suche nach den Ursachen ist. DIE ZEIT Nr. 32/2020, 30. Juli 2020. https://www.zeit.de/2020/32/kuenstliche-intelligenz-diskriminierung-hautfarbe-gesichtserkennung/komplettansicht

Wolfangel, Eva 2018. Algorithmen: Programmierter Rassismus. Suchmaschinen liefern diskriminierende Bilder, Bewerbungssoftware benachteiligt Schwarze: Woher Algorithmen ihre Vorurteile haben – und warum die so gefährlich sind. ZEIT 19. Juni 2018, 22:05 Uhr, https://www.zeit.de/digital/internet/2018-05/algorithmen-rassismus-diskriminierung-daten-vorurteile-alltagsrassismus

Wolfangel, Eva 2021. Timnit Gebru: Wie viel Ethik verträgt Google? https://www.zeit.de/digital/2021-02/google-ethik-timnit-gebru-technologie-forschung/komplettansicht