Nachbericht: Podiumsdiskussion in der Stadtbibliothek Stuttgart – "KI & Vielfalt – Wer programmiert die Zukunft?"

Am 25. Juni 2025 dis­ku­tier­ten Expert:innen aus Wis­sen­schaft und Gesell­schaft in der Stadt­bi­blio­thek Stutt­gart über Künst­li­che Intel­li­genz, Teil­ha­be und Gerech­tig­keit. Mit dabei: unse­re Kol­le­gin Anika Kai­ser vom RHET AI Cen­ter, die ihre wis­sen­schaft­li­che und prak­ti­sche Exper­ti­se in den Berei­chen epis­te­mi­sche Gerech­tig­keit und Bürger:innenbeteiligung in die Dis­kus­si­on ein­brach­te. Der Abend zeig­te: Tech­no­lo­gi­sche Ent­wick­lung braucht gesell­schaft­li­che Aus­hand­lung – und Vielfalt.


Unter dem Titel "KI & Viel­falt – Wer pro­gram­miert die Zukunft?" fand am 25.06. in der Stadt­bi­blio­thek Stutt­gart eine Podi­ums­dis­kus­si­on statt. Was dort bespro­chen wur­de, kön­nen Sie im Audio­mitt­schnitt anhö­ren, den die Stadt­bi­blio­thek hier zum Down­load anbietet:


Wer lie­ber lesen möch­te, fin­det hier eine kur­ze Zusam­men­fas­sung der dis­ku­tier­ten Inhalte:

Die Podi­ums­dis­kus­si­on war eine Koope­ra­ti­on zwi­schen dem Stutt­gar­ter Zen­trum für Simu­la­ti­ons­wis­sen­schaft (SC Sim­Tech) und dem IZKT der Uni­ver­si­tät Stutt­gart im Rah­men der Pri­de in STEM Ver­an­stal­tun­gen des SC Sim­Tech und der Ethi­kum-Vor­trags­rei­he der HFT Stuttgart.

Um einen inter­dis­zi­pli­nä­ren Dia­log über Chan­cen und Risi­ken von KI in Bezug auf Diver­si­tät, Ethik und Demo­kra­tie zu füh­ren, tra­fen hier Expert:innen aus ver­schie­de­nen Berei­chen der Wis­sen­schaft, Bil­dung, Akti­vis­mus und Gestal­tung auf ein sehr inter­es­sier­tes, offe­nes Publi­kum: Mode­riert wur­de die Podi­ums­dis­kus­si­on von Hiser Sedik (Mana­ger for Diver­si­ty and Equi­ty , Exzel­lenz­clus­ter Sim­Tech) und Patrick Barth (Exe­cu­ti­ve Assistant, Exzel­lenz­clus­ter Sim­Tech). Das Panel bestand aus Prof. Dr. Stef­fen Sta­ab (Infor­ma­tik, Uni Stutt­gart, KI & Ethik), Nata­lie Son­top­ski (Sozio­lo­gie, femi­nis­ti­sche Tech­no­lo­gie­stu­di­en) und Enri­co Kun­ze (Design-Stra­te­gist, inklu­si­ves Design, que­e­re Com­mu­ni­ty-Arbeit) sowie unse­rer Kol­le­gin Anika Kai­ser.

Bürger:innenrat "KI und Freiheit"

  • Ziel: Bürger*innenbeteiligung zur Fra­ge, wie öffent­lich geför­der­te KI-For­schung gesell­schaft­lich mit­ge­stal­tet wer­den kann
  • 40 aus­ge­los­te Teil­neh­men­de aus ganz BW, Emp­feh­lun­gen an die Landespolitik
  • Poli­cy Paper online ver­öf­fent­licht:
    Down­load hier

Sie ist Teil des Orga­ni­sa­ti­ons­teams rund um den Bürger:innenrat "KI und Frei­heit" und beglei­te­te die­sen wissenschaftlich. 

Vor die­sem Hin­ter­grund mach­te sie dar­auf auf­merk­sam, dass im Rah­men der KI-Ent­wick­lung und ‑Anwen­dung auf unter­schied­li­chen Ebe­nen Frei­heits­an­sprü­che berührt wer­den, die aus­hand­lungs­be­dürf­tig sind – zum Bei­spiel per­sön­li­che Frei­hei­ten, ein frei­er öffent­li­cher Dia­log oder auch die Wis­sen­schafts­frei­heit. In dia­lo­gi­schen Betei­li­gungs­pro­zes­sen sieht sie des­halb einen Chan­ce für eine mul­ti­per­spek­ti­visch fun­dier­te KI-For­schung und ‑Regu­lie­rung.

Machtfragen & Ethik: Wer kontrolliert die KI?

Zum Auf­takt wur­de die Funk­ti­ons­wei­se von Sprach­mo­del­len wie ChatGPT anschau­lich erklärt. Stef­fen Sta­ab beton­te, dass die­se Sys­te­me kei­ne "Intel­li­genz" im mensch­li­chen Sinn besit­zen, son­dern auf sta­tis­ti­scher Wahr­schein­lich­keits­be­rech­nung basie­ren. Die ver­wen­de­ten Trai­nings­da­ten – etwa aus dem Inter­net – sei­en jedoch vol­ler Ver­zer­run­gen, die sich in den Model­len wider­spie­geln: west­lich, weiß, mas­ku­lin dominiert.

Enri­co Kun­ze erklär­te: Grup­pen, die in den Daten unter­re­prä­sen­tiert, blei­ben auch in der KI-Aus­ga­be unsicht­bar. Um dem ent­ge­gen­zu­wir­ken, sei inklu­si­ves Design nötig – ein bewuss­tes Ein­be­zie­hen ver­schie­de­ner Per­spek­ti­ven schon im Gestal­tungs­pro­zess. Nicht nur Behin­de­rung, son­dern auch Neu­ro­di­ver­genz, que­e­re Iden­ti­tät oder Klas­sen­er­fah­rung müss­ten dabei berück­sich­tigt werden.

Nata­lie Son­top­ski erklär­te, war­um es wich­tig sei, KI aus einer femi­nis­ti­schen Per­spek­ti­ve zu ana­ly­sie­ren: Schon die Tat­sa­che, dass digi­ta­le Assis­ten­ten wie "Siri" weib­li­che Stim­men tra­gen, sei Aus­druck tra­dier­ter Geschlech­ter­bil­der. KI sei nicht neu­tral – sie pro­du­zie­re, ver­stär­ke oder ver­schleie­re gesell­schaft­li­che Narrative.

Anika Kai­ser ging dar­auf ein, dass öffent­lich geför­der­te KI-For­schung immer auch an der Schnitt­stel­le von unter­schied­li­chen Frei­hei­ten ope­rie­re: Zum einen habe KI-For­schung an Uni­ver­si­tä­ten einen gesell­schaft­li­chen Auf­trag und sei durch öffent­li­che Gel­der (mit-)finanziert. Es sol­len gesell­schafts­re­le­van­te The­men bear­bei­tet und im Zuge der Wis­sen­schafts­kom­mu­ni­ka­ti­on Erkennt­nis­se mit der Gesell­schaft bespro­chen und Falsch­in­for­ma­tio­nen rich­tig­ge­stellt wer­den, um einen evi­denz­ba­sier­ten Dia­log als Grund­la­ge einer frei­heit­li­chen Demo­kra­tie zu beför­dern. Hier­zu gehö­re auch die Aus­ein­an­der­set­zung mit der Fra­ge, was unter­schied­li­che Men­schen in Bezug auf die KI-For­schung wich­tig fin­den. Auf der ande­ren Sei­te sol­len Erkennt­nis­se auch in der KI-For­schung im Rah­men guter wis­sen­schaft­li­cher Pra­xis und der Wis­sen­schafts­frei­heit frei von instru­men­tel­len Ver­wer­tungs­in­ter­es­sen gewon­nen wer­den. Das gel­te für wirt­schaft­li­che, aber ein Stück weit auch für gesell­schaft­li­che Belan­ge, denn nur eine freie Wis­sen­schaft kön­ne unab­hän­gi­ges Wis­sen zur Ver­fü­gung stellen.

Beteiligung & KI-Kompetenz: Wer kann mitentscheiden?

Ein zen­tra­ler Schwer­punkt der Dis­kus­si­on war die Fra­ge nach demo­kra­ti­scher Mit­ge­stal­tung. Als Bei­spiel einer der Emp­feh­lun­gen, die der Bürger:innenrat "KI und Frei­heit" erar­bei­tet hat­te, nann­te Anika Kai­ser, dass die Teil­neh­men­den sich für frei­wil­li­ge Daten­spen­den an die Wis­sen­schaft im Bereich Gesund­heit aus­spra­chen. Das Ver­trau­en in For­schung war im Rat hoch – unter der Vor­aus­set­zung, dass Daten trans­pa­rent und ver­ant­wor­tungs­voll ver­wen­det wer­den. Nata­lie Son­top­ski äußer­te hier kla­re Beden­ken: Die Vor­stel­lung, Gesund­heits­da­ten zu spen­den, ber­ge enor­me Risi­ken. Was pas­sie­re, wenn sich poli­ti­sche Ver­hält­nis­se ändern, wenn Akteu­re wie Trump oder Musk Zugriff bekä­men? Daten könn­ten miss­braucht, ver­kauft oder gehackt wer­den. Sie warn­te davor, Daten­schutz leicht­fer­tig gegen kurz­fris­ti­ge For­schungs­er­fol­ge ein­zu­tau­schen – das Inter­net ver­ges­se nichts.

Auch die Fra­ge nach epis­te­mi­scher Auto­ri­tät wur­de kri­tisch dis­ku­tiert: Wenn KI-Sys­te­me heu­te schon als ver­läss­li­che Infor­ma­ti­ons­quel­le wahr­ge­nom­men wer­den, dro­he dann eine Ent­wer­tung wis­sen­schaft­li­cher und pro­fes­sio­nel­ler Exper­ti­se? Schließ­lich gestal­te KI unse­re Rea­li­tät aktiv mit – sie sei nicht ein­fach ein Medi­um, das kon­su­miert wer­de. Aus die­sem Grund sei nicht nur eine aus­ge­präg­te Medi­en­kom­pe­tenz wich­tig, son­dern sogar eine dezi­dier­te KI-Kom­pe­tenz oder AI Liter­acy, wie Stef­fen Sta­ab beton­te. In Bezug dar­auf beton­te Enri­co Kun­ze, dass Medi­en- und KI-Kom­pe­tenz zu einem Grund­recht wer­den soll­ten – gera­de für mar­gi­na­li­sier­te Grup­pen. Nur wer ver­ste­he, wie KI funk­tio­niert, kön­ne sich kri­tisch mit ihr auseinandersetzen.

Inklusion durch Technik? Chancen und Widersprüche

Auch die posi­ti­ven Poten­zia­le von KI kamen zur Spra­che. Stef­fen Sta­ab stell­te ein eige­nes Start­up-Pro­jekt vor, das sich mit bar­rie­re­frei­er Nutzer:innenführung beschäf­tigt. KI kön­ne hel­fen, Inter­faces dyna­misch an indi­vi­du­el­le Bedürf­nis­se anzu­pas­sen – etwa durch auto­ma­tisch gene­rier­te Bild­be­schrei­bun­gen oder ver­ein­fach­te Sprache.

Enri­co Kun­ze begrüß­te sol­che Ent­wick­lun­gen, mach­te aber klar: Inklu­si­on sei mehr als Tech­nik. Es gehe um struk­tu­rel­le Teil­ha­be – und dar­um, betrof­fe­ne Grup­pen von Anfang an in die Ent­wick­lung ein­zu­be­zie­hen. Tests zur Benut­zer­freund­lich­keit von digi­ta­len Anwen­dun­gen müss­ten mit den Men­schen gemacht wer­den, nicht über sie hin­weg. Der gesetz­li­che Rah­men, etwa das Bar­rie­re­frei­heits­stär­kungs­ge­setz, kön­ne Unter­neh­men zwar zum Han­deln bewe­gen. Aber Inklu­si­on sei nicht nur auf Basis von Gesetz­ge­bun­gen gebo­ten, son­dern auch öko­no­misch zu den­ken. Bar­rie­re­frei­heit von tech­no­lo­gi­schen Anwen­dun­gen kön­ne auch die Erschlie­ßung neu­er Ziel­grup­pen bedeuten.

Perspektiven aus dem Publikum: Skepsis, Zustimmung und gesellschaftliche Fragen

In der abschlie­ßen­den Fra­ge­run­de mel­de­ten sich meh­re­re Gäs­te mit poin­tier­ten Kom­men­ta­ren zu Wort. Ein älte­rer Zuhö­rer äußer­te grund­sätz­li­che Skep­sis gegen­über dem Begriff "Künst­li­che Intel­li­genz": Der Begriff sug­ge­rie­re Fähig­kei­ten, die Maschi­nen nicht besit­zen – ins­be­son­de­re kein Bewusstsein.

Eine ande­re Per­son gab zu beden­ken, dass Dis­kus­sio­nen über Inklu­si­on oft den gesell­schaft­li­chen Aus­gangs­punkt ver­ges­sen: War­um über­haupt für inklu­si­ve KI kämp­fen? Sie wies dar­auf hin, dass gegen­wär­tig auto­ri­tä­re Kräf­te welt­weit an Ein­fluss gewän­nen. Daher müs­se immer wie­der erklärt wer­den, war­um Viel­falt, Teil­ha­be und Men­schen­rech­te grund­le­gend sind – auch und gera­de im Technologiediskurs.

Auch wur­de gefragt, ob euro­päi­sche Regu­lie­rungs­an­sät­ze in einer von den USA und Chi­na domi­nier­ten KI-Land­schaft über­haupt wirk­sam sein könn­ten. Die Ant­wort der Podi­ums­gäs­te: Gera­de durch anspruchs­vol­le Stan­dards kön­ne Euro­pa Maß­stä­be set­zen – vor­aus­ge­setzt, es gelingt, gemein­sam zu han­deln und inno­va­ti­ons­freund­li­che Struk­tu­ren zu schaffen.

Fazit: Vielfalt ist kein Nebenschauplatz – sondern Kern der KI-Entwicklung

Die Dis­kus­si­on ende­te mit einem kla­ren Plä­doy­er: Wer KI men­schen­zen­triert und gemein­wohl­ori­en­tiert gestal­ten will, muss sich mit Macht­ver­hält­nis­sen, Zugang und Ver­ant­wor­tung auseinandersetzen.

Der Bürger:innenrat "KI und Frei­heit" ist ein Bei­spiel dafür, wie gesell­schaft­li­che Mit­ge­stal­tung kon­kret aus­se­hen kann. Par­ti­zi­pa­ti­on, Trans­pa­renz und Inter­dis­zi­pli­na­ri­tät sind dabei zen­tra­le Prin­zi­pi­en – eben­so wie die Fra­ge, wes­sen Per­spek­ti­ven in KI-Sys­te­men abge­bil­det wer­den. Ob in der For­schung, im Design oder im poli­ti­schen Raum: Viel­falt ist kein Add-on, son­dern Vor­aus­set­zung für gerech­te KI. Der Abend in Stutt­gart mach­te deut­lich: Nur durch offe­ne Debat­ten, kri­ti­sches Hin­ter­fra­gen und muti­ge Gestal­tung kann KI ein Werk­zeug für alle werden.