Eine Hand schreibt mit einem dicken schwarzen Filzstift in großen Buchstaben auf ein Blatt Papier. Daneben liegen mehrere kleinere beschriebene Paperikarten in blau und grün.

GfM-Jahrestagung *MACHT*: Epistemische Ungerechtigkeit und Künstliche Intelligenz

Wer kann sich in KI-Dis­kur­se über­haupt ein­brin­gen? Wer ent­schei­det, wie KI-Anwen­dun­gen gestal­tet und wel­che Trai­nings­da­ten ver­wen­det wer­den? Und wel­che Fak­to­ren bestim­men, wer aus­ge­schlos­sen wird? 

Mit sol­chen Macht­fra­gen beschäf­tig­ten sich unse­re Kolleg:innen auf der Jah­res­ta­gung der Gesell­schaft für Medi­en­wis­sen­schaft (GfM) vom 16.09. – 19.09.2025 in Pader­born. Dort war Macht in all ihren Kon­tex­ten das zen­tra­le The­ma. Bei­trä­ge konn­ten von Macht­me­di­en über Macht­kri­sen bis hin zu Selbst­er­mäch­ti­gung rei­chen. Jana Boos, Dr. Anne Burk­hardt (RHET AI Unit 2), Dr. Erwin Feyer­sin­ger (RHET AI Unit 2), Anika Kai­ser (RHET AI Unit 4) und Dr. Deniz Sari­ka­ya gestal­te­ten auf der Tagung das par­ti­zi­pa­ti­ve Panel Künst­li­che Intel­li­genz und Epis­te­mi­sche Unge­rech­tig­keit: Ungleich ver­teil­tes Wis­sen, ungleich ver­teil­te Macht.

Das Kon­zept der Epis­te­mi­schen Unge­rech­tig­keit wur­de erst­mals 2007 von der Phi­lo­so­phin Miran­da Fri­cker for­mu­liert. Es beschreibt, wie Vor­ur­teils­struk­tu­ren dazu bei­tra­gen, dass Träger:innen bestimm­ter iden­ti­täts­be­zo­ge­ner Eigen­schaf­ten sys­te­ma­tisch benach­tei­ligt an Wis­sens­bil­dungs­pro­zes­sen teilnehmen.

Wo besteht Epistemische Ungerechtigkeit im Bereich der KI – und wie kann sie adressiert werden? 

Das inter­dis­zi­pli­nä­re Panel hat­te zum Ziel, mit Medienwissenschafler:innen und Medienpraktiker:innen die Ver­schrän­kun­gen von Epis­te­mi­scher Unge­rech­tig­keit und KI zu beleuch­ten, zu dis­ku­tie­ren und Lösungs­an­sät­ze zu ent­wi­ckeln. Es war als par­ti­zi­pa­ti­ves For­mat ange­legt, um agil auf die Bedar­fe und Inter­es­sen der Teil­neh­men­den zu reagie­ren und Fra­gen gemein­sam zu beant­wor­ten. Die Mode­ra­ti­on des Panels über­nahm Dr. Erwin Feyersinger.

Für einen Über­blick über das Feld sorg­ten zunächst vier Impuls­vor­trä­ge aus unter­schied­li­chen wis­sen­schaft­li­chen und anwen­dungs­be­zo­ge­nen Perspektiven:

Anika Kai­ser reflek­tier­te am Bei­spiel des Bürger:innenrats "KI und Frei­heit", inwie­fern deli­be­ra­ti­ve Betei­li­gungs­for­ma­te einen Lösungs­an­satz für Epis­te­mi­sche Unge­rech­tig­keit dar­stel­len – und wann sie die­se ihrer­seits repro­du­zie­ren.
Bei der Über­füh­rung von Bürger:innenratsergebnissen in wei­ter­füh­ren­de gesell­schaft­li­che Aus­hand­lungs­pro­zes­se beton­te sie die beson­de­re Ver­ant­wor­tung von Medienschaffenden.
Dr. Deniz Sari­ka­ya behan­del­te das The­ma Bias und die ethi­schen und erkennt­nis­theo­re­ti­schen Rami­fi­ka­tio­nen der Gestal­tung von KI sowie der damit ver­bun­de­nen Geschäfts­mo­del­le. Meist sind die Wer­te von WEIRD-Län­dern (wes­tern, edu­ca­ted, indus­tria­li­zed, and rich) im Out­put von Lar­ge Lan­guage Models domi­nant. Auch das Fine-Tuning läuft oft unter unge­rech­ten Bedin­gun­gen ab: Pre­kä­re Klick-Arbeit in den Glo­bal Souths schreibt unge­rech­te Macht­struk­tu­ren fort. Die­se Rah­men­be­din­gun­gen för­dern "bull­shit", LLM-Out­put wird nur ober­fläch­lich auf Plau­si­bi­li­tät geprüft.
Jana Boos behan­del­te sozia­le und epis­te­mi­sche Ungleich­hei­ten beim Ein­satz KI-basier­ter Sys­te­me in der Bil­dung. In die­sem Zusam­men­hang wird im Bil­dungs­kon­text vom Kon­zept der digi­ta­len Spal­tung (digi­tal divi­des) gespro­chen: Digi­tal divi­des beschrei­ben Ungleich­hei­ten im Zugang zu Infra­struk­tur, Hard- und Soft­ware sowie Ungleich­hei­ten in der Nut­zungs­kom­pe­tenz. Im inter­na­tio­na­len Ver­gleich ist dies in Deutsch­land bei­spiels­wei­se stark an den sozio­öko­no­mi­schen Hin­ter­grund gekoppelt.
Dr. Anne Burk­hardt the­ma­ti­sier­te die Epis­te­mi­schen Unge­rech­tig­kei­ten, von denen die Souths betrof­fen sind. Nach Milan und Tre­ré (2019) sind Souths alle Indi­vi­du­en oder Grup­pen, die von struk­tu­rel­ler Dis­kri­mi­nie­rung und Unter­drü­ckung betrof­fen sind. Epis­te­mi­sche Unge­rech­tig­kei­ten, die durch KI-Tech­no­lo­gien repro­du­ziert und ver­stärkt wer­den, rei­chen von algo­rith­mi­scher Dis­kri­mi­nie­rung über die Negie­rung von Wis­sens­be­stän­den und Erkennt­nis­tra­di­tio­nen bis hin zur man­geln­den Reprä­sen­ta­ti­on von Per­spek­ti­ven und Exper­ti­sen in KI-bezo­ge­nen Dis­kur­sen, Gre­mi­en und Institutionen. 

Problembereiche und Lösungsansätze

Im Anschluss an die Impul­se leg­ten die Teil­neh­men­den gemein­sam zen­tra­le Fra­gen fest, die sie als Medi­en­schaf­fen­de in Wis­sen­schaft und Pra­xis in Bezug auf KI und Epis­te­mi­sche Unge­rech­tig­keit beschäf­ti­gen, und dis­ku­tier­ten die­se in Klein­grup­pen. Im Fokus stand die Ent­wick­lung von Stra­te­gien zur Ein­däm­mung Epis­te­mi­scher Unge­rech­tig­kei­ten durch unter­schied­li­che mit KI befass­te Akteursgruppen.

Foto zeigt einen Seminarraum mit Blick nach vorne auf eine Tafel und einen großen Bildschirm mit einer laufenden Präsentation rechts oberhalb der Tafel. An mehreren Tischen mit Arbeitsmaterialien wie Laptops und Schreibutensilien sitzen Seminarteilnehmende und Leitende und unterhalten sich. Die Teilnehmenden sitzen mit dem Rücken zur Kamera, die Leitenden mit dem Rücken zur Tafel.
In ihrem Impuls­vor­trag reflek­tier­te Anika Kai­ser über Deli­be­ra­ti­on als Mit­tel gegen Epis­te­mi­sche Unge­rech­tig­keit im KI-Dis­kurs. Foto: RHET AI

Zunächst wur­den gemein­sam Clus­ter zu drei Pro­blem­be­rei­chen erstellt, anschlie­ßend wur­den die The­men­clus­ter zusam­men bearbeitet.

Um die­se Pro­ble­ma­ti­ken zu adres­sie­ren, soll­ten die Inter­es­sen von Medi­en­schaf­fen­den nicht indi­vi­du­ell durch­ge­setzt, son­dern durch pas­sen­de Infra­struk­tu­ren von Arbeitgeber:innen geschützt und geför­dert wer­den; etwa durch die Vor-Aus­wahl von geeig­ne­ten KI-Tools, wel­che die Inter­es­sen von Medi­en­schaf­fen­den wah­ren. Gleich­zei­tig exis­tie­ren längst KI-Tools, die Unge­rech­tig­kei­ten ent­ge­gen­wir­ken, bei­spiels­wei­se Anwen­dun­gen, die vor Scra­ping, also unfrei­wil­li­gen Daten­spen­den, schüt­zen – so besteht über KI-Tools auch das Poten­zi­al, Unge­rech­tig­kei­ten entgegenzuwirken.


Fazit

Im par­ti­zi­pa­tiv ange­leg­ten Panel wur­de deut­lich, dass Epis­te­mi­sche Unge­rech­tig­keit im Feld der KI vie­le For­men anneh­men kann und dass Pro­ble­ma­ti­ken rund um Bia­ses und Trai­nings­da­ten auch die Medi­en­theo­rie und –Pra­xis stark beschäf­ti­gen. Der KI-Dis­kurs steht dabei vor der beson­de­ren Her­aus­for­de­rung der indi­vi­du­el­len KI-Kom­pe­tenz der Dis­kurs­teil­neh­men­den: Je weni­ger die­se aus­ge­prägt ist, des­to schwe­rer ist es häu­fig, die eige­ne Stim­me in den Dis­kurs ein­zu­brin­gen, im gesamt­ge­sell­schaft­li­chen Dis­kurs wie auch im Klei­nen: In den Grup­pen­dis­kus­sio­nen fiel auf, dass sich ins­be­son­de­re die­je­ni­gen Teil­neh­men­den stär­ker in die Dis­kus­si­on ein­brach­ten, die sich inhalt­lich (theo­re­tisch und/oder prak­tisch) bereits im Vor­feld inten­si­ver mit KI befasst hat­ten. Was genau die indi­vi­du­el­len Grün­de für eine stär­ke­re oder schwä­che­re Betei­li­gung waren, wur­de wäh­rend des Panels nicht erho­ben. Es wäre sicher­lich gewinn­brin­gend, bei zukünf­ti­gen par­ti­zi­pa­ti­ven For­ma­ten zum The­ma KI das Augen­merk stär­ker auf die­se Fra­ge zu rich­ten. Das par­ti­zi­pa­ti­ve For­mat ermög­lich­te den Teil­neh­men­den durch die gemein­sa­me Arbeit an den Pro­blem­fra­gen, eige­ne Schwer­punk­te zu set­zen und sich bedarfs­ori­en­tiert über das The­men­feld von KI und Epis­te­mi­scher Unge­rech­tig­keit aus­zu­tau­schen. Es leg­te so die Grund­la­ge für eine gemein­sa­me Wissensbildung.