Wer kann sich in KI-Diskurse überhaupt einbringen? Wer entscheidet, wie KI-Anwendungen gestaltet und welche Trainingsdaten verwendet werden? Und welche Faktoren bestimmen, wer ausgeschlossen wird?
Mit solchen Machtfragen beschäftigten sich unsere Kolleg:innen auf der Jahrestagung der Gesellschaft für Medienwissenschaft (GfM) vom 16.09. – 19.09.2025 in Paderborn. Dort war Macht in all ihren Kontexten das zentrale Thema. Beiträge konnten von Machtmedien über Machtkrisen bis hin zu Selbstermächtigung reichen. Jana Boos, Dr. Anne Burkhardt (RHET AI Unit 2), Dr. Erwin Feyersinger (RHET AI Unit 2), Anika Kaiser (RHET AI Unit 4) und Dr. Deniz Sarikaya gestalteten auf der Tagung das partizipative Panel Künstliche Intelligenz und Epistemische Ungerechtigkeit: Ungleich verteiltes Wissen, ungleich verteilte Macht.
Das Konzept der Epistemischen Ungerechtigkeit wurde erstmals 2007 von der Philosophin Miranda Fricker formuliert. Es beschreibt, wie Vorurteilsstrukturen dazu beitragen, dass Träger:innen bestimmter identitätsbezogener Eigenschaften systematisch benachteiligt an Wissensbildungsprozessen teilnehmen.
Wo besteht Epistemische Ungerechtigkeit im Bereich der KI – und wie kann sie adressiert werden?
Das interdisziplinäre Panel hatte zum Ziel, mit Medienwissenschafler:innen und Medienpraktiker:innen die Verschränkungen von Epistemischer Ungerechtigkeit und KI zu beleuchten, zu diskutieren und Lösungsansätze zu entwickeln. Es war als partizipatives Format angelegt, um agil auf die Bedarfe und Interessen der Teilnehmenden zu reagieren und Fragen gemeinsam zu beantworten. Die Moderation des Panels übernahm Dr. Erwin Feyersinger.
Für einen Überblick über das Feld sorgten zunächst vier Impulsvorträge aus unterschiedlichen wissenschaftlichen und anwendungsbezogenen Perspektiven:
Anika Kaiser reflektierte am Beispiel des Bürger:innenrats "KI und Freiheit", inwiefern deliberative Beteiligungsformate einen Lösungsansatz für Epistemische Ungerechtigkeit darstellen – und wann sie diese ihrerseits reproduzieren.
Bei der Überführung von Bürger:innenratsergebnissen in weiterführende gesellschaftliche Aushandlungsprozesse betonte sie die besondere Verantwortung von Medienschaffenden.
Dr. Deniz Sarikaya behandelte das Thema Bias und die ethischen und erkenntnistheoretischen Ramifikationen der Gestaltung von KI sowie der damit verbundenen Geschäftsmodelle. Meist sind die Werte von WEIRD-Ländern (western, educated, industrialized, and rich) im Output von Large Language Models dominant. Auch das Fine-Tuning läuft oft unter ungerechten Bedingungen ab: Prekäre Klick-Arbeit in den Global Souths schreibt ungerechte Machtstrukturen fort. Diese Rahmenbedingungen fördern "bullshit", LLM-Output wird nur oberflächlich auf Plausibilität geprüft.
Jana Boos behandelte soziale und epistemische Ungleichheiten beim Einsatz KI-basierter Systeme in der Bildung. In diesem Zusammenhang wird im Bildungskontext vom Konzept der digitalen Spaltung (digital divides) gesprochen: Digital divides beschreiben Ungleichheiten im Zugang zu Infrastruktur, Hard- und Software sowie Ungleichheiten in der Nutzungskompetenz. Im internationalen Vergleich ist dies in Deutschland beispielsweise stark an den sozioökonomischen Hintergrund gekoppelt.
Dr. Anne Burkhardt thematisierte die Epistemischen Ungerechtigkeiten, von denen die Souths betroffen sind. Nach Milan und Treré (2019) sind Souths alle Individuen oder Gruppen, die von struktureller Diskriminierung und Unterdrückung betroffen sind. Epistemische Ungerechtigkeiten, die durch KI-Technologien reproduziert und verstärkt werden, reichen von algorithmischer Diskriminierung über die Negierung von Wissensbeständen und Erkenntnistraditionen bis hin zur mangelnden Repräsentation von Perspektiven und Expertisen in KI-bezogenen Diskursen, Gremien und Institutionen.


Dr. Deniz Sarikaya während seines Impulsvortrags. Fotos: RHET AI


Problembereiche und Lösungsansätze
Im Anschluss an die Impulse legten die Teilnehmenden gemeinsam zentrale Fragen fest, die sie als Medienschaffende in Wissenschaft und Praxis in Bezug auf KI und Epistemische Ungerechtigkeit beschäftigen, und diskutierten diese in Kleingruppen. Im Fokus stand die Entwicklung von Strategien zur Eindämmung Epistemischer Ungerechtigkeiten durch unterschiedliche mit KI befasste Akteursgruppen.

Zunächst wurden gemeinsam Cluster zu drei Problembereichen erstellt, anschließend wurden die Themencluster zusammen bearbeitet.
Um Ungerechtigkeiten im Bereich der Daten besser zu identifizieren und kritisch zu hinterfragen, ist es hilfreich, das die Datenverarbeitung durchführende Wissenskollektiv und seine Akteure systematisch zu fassen. Das Wissenskollektiv bedingt, welche Daten mit welchen Algorithmen zu welchen Zwecken verarbeitet werden.
Generative KI kann mittlerweile in vielen Fällen Texte in einer Qualität generieren, dass es beispielsweise für Schüler:innen oder Studierende verlockend ist, Leistungen einfach generieren zu lassen. Gerade in Bildungseinrichtungen kann es sich im Zuge dessen als wichtig erweisen, stärker den Output vom Weg dahin zu trennen. Die Ausbildung von KI-Kompetenz spielt eine zentrale Rolle, wenn Epistemische Ungerechtigkeiten in Bildungseinrichtungen adressiert werden sollen. Wichtig ist, kritisches Denken zu fördern und den Einsatz von KI zu Bildungszwecken zu schulen, sodass sie allen zugutekommen kann.
Die KI-Entwicklung wird stark von Tech-Konzernen und ökonomischen Interessen bestimmt. Damit prägen diese aus einer privilegierten Machtposition heraus KI-Narrative, die ein tech-solutionistisches KI-Verständnis fördern: KI erscheint als die Lösung für menschliche Probleme. Machtdefizite bleiben dagegen häufig unsichtbar. Nutzer:innen laufen Gefahr, zum unsichtbaren und ungefragten Datenlieferanten zu werden. Das gilt verstärkt für Medienschaffende, wenn etwa von ihnen angefertigte Illustrationen ungefragt für KI-Trainings verwendet werden.
Um diese Problematiken zu adressieren, sollten die Interessen von Medienschaffenden nicht individuell durchgesetzt, sondern durch passende Infrastrukturen von Arbeitgeber:innen geschützt und gefördert werden; etwa durch die Vor-Auswahl von geeigneten KI-Tools, welche die Interessen von Medienschaffenden wahren. Gleichzeitig existieren längst KI-Tools, die Ungerechtigkeiten entgegenwirken, beispielsweise Anwendungen, die vor Scraping, also unfreiwilligen Datenspenden, schützen – so besteht über KI-Tools auch das Potenzial, Ungerechtigkeiten entgegenzuwirken.
Fazit
Im partizipativ angelegten Panel wurde deutlich, dass Epistemische Ungerechtigkeit im Feld der KI viele Formen annehmen kann und dass Problematiken rund um Biases und Trainingsdaten auch die Medientheorie und –Praxis stark beschäftigen. Der KI-Diskurs steht dabei vor der besonderen Herausforderung der individuellen KI-Kompetenz der Diskursteilnehmenden: Je weniger diese ausgeprägt ist, desto schwerer ist es häufig, die eigene Stimme in den Diskurs einzubringen, im gesamtgesellschaftlichen Diskurs wie auch im Kleinen: In den Gruppendiskussionen fiel auf, dass sich insbesondere diejenigen Teilnehmenden stärker in die Diskussion einbrachten, die sich inhaltlich (theoretisch und/oder praktisch) bereits im Vorfeld intensiver mit KI befasst hatten. Was genau die individuellen Gründe für eine stärkere oder schwächere Beteiligung waren, wurde während des Panels nicht erhoben. Es wäre sicherlich gewinnbringend, bei zukünftigen partizipativen Formaten zum Thema KI das Augenmerk stärker auf diese Frage zu richten. Das partizipative Format ermöglichte den Teilnehmenden durch die gemeinsame Arbeit an den Problemfragen, eigene Schwerpunkte zu setzen und sich bedarfsorientiert über das Themenfeld von KI und Epistemischer Ungerechtigkeit auszutauschen. Es legte so die Grundlage für eine gemeinsame Wissensbildung.