Am 25. Juni 2025 diskutierten Expert:innen aus Wissenschaft und Gesellschaft in der Stadtbibliothek Stuttgart über Künstliche Intelligenz, Teilhabe und Gerechtigkeit. Mit dabei: unsere Kollegin Anika Kaiser vom RHET AI Center, die ihre wissenschaftliche und praktische Expertise in den Bereichen epistemische Gerechtigkeit und Bürger:innenbeteiligung in die Diskussion einbrachte. Der Abend zeigte: Technologische Entwicklung braucht gesellschaftliche Aushandlung – und Vielfalt.
Unter dem Titel "KI & Vielfalt – Wer programmiert die Zukunft?" fand am 25.06. in der Stadtbibliothek Stuttgart eine Podiumsdiskussion statt. Was dort besprochen wurde, können Sie im Audiomittschnitt anhören, den die Stadtbibliothek hier zum Download anbietet:
Wer lieber lesen möchte, findet hier eine kurze Zusammenfassung der diskutierten Inhalte:
Die Podiumsdiskussion war eine Kooperation zwischen dem Stuttgarter Zentrum für Simulationswissenschaft (SC SimTech) und dem IZKT der Universität Stuttgart im Rahmen der Pride in STEM Veranstaltungen des SC SimTech und der Ethikum-Vortragsreihe der HFT Stuttgart.
Um einen interdisziplinären Dialog über Chancen und Risiken von KI in Bezug auf Diversität, Ethik und Demokratie zu führen, trafen hier Expert:innen aus verschiedenen Bereichen der Wissenschaft, Bildung, Aktivismus und Gestaltung auf ein sehr interessiertes, offenes Publikum: Moderiert wurde die Podiumsdiskussion von Hiser Sedik (Manager for Diversity and Equity , Exzellenzcluster SimTech) und Patrick Barth (Executive Assistant, Exzellenzcluster SimTech). Das Panel bestand aus Prof. Dr. Steffen Staab (Informatik, Uni Stuttgart, KI & Ethik), Natalie Sontopski (Soziologie, feministische Technologiestudien) und Enrico Kunze (Design-Strategist, inklusives Design, queere Community-Arbeit) sowie unserer Kollegin Anika Kaiser.
Bürger:innenrat "KI und Freiheit"
- Ziel: Bürger*innenbeteiligung zur Frage, wie öffentlich geförderte KI-Forschung gesellschaftlich mitgestaltet werden kann
- 40 ausgeloste Teilnehmende aus ganz BW, Empfehlungen an die Landespolitik
- Policy Paper online veröffentlicht:
Download hier
Sie ist Teil des Organisationsteams rund um den Bürger:innenrat "KI und Freiheit" und begleitete diesen wissenschaftlich.
Vor diesem Hintergrund machte sie darauf aufmerksam, dass im Rahmen der KI-Entwicklung und ‑Anwendung auf unterschiedlichen Ebenen Freiheitsansprüche berührt werden, die aushandlungsbedürftig sind – zum Beispiel persönliche Freiheiten, ein freier öffentlicher Dialog oder auch die Wissenschaftsfreiheit. In dialogischen Beteiligungsprozessen sieht sie deshalb einen Chance für eine multiperspektivisch fundierte KI-Forschung und ‑Regulierung.
Machtfragen & Ethik: Wer kontrolliert die KI?
Zum Auftakt wurde die Funktionsweise von Sprachmodellen wie ChatGPT anschaulich erklärt. Steffen Staab betonte, dass diese Systeme keine "Intelligenz" im menschlichen Sinn besitzen, sondern auf statistischer Wahrscheinlichkeitsberechnung basieren. Die verwendeten Trainingsdaten – etwa aus dem Internet – seien jedoch voller Verzerrungen, die sich in den Modellen widerspiegeln: westlich, weiß, maskulin dominiert.
Enrico Kunze erklärte: Gruppen, die in den Daten unterrepräsentiert, bleiben auch in der KI-Ausgabe unsichtbar. Um dem entgegenzuwirken, sei inklusives Design nötig – ein bewusstes Einbeziehen verschiedener Perspektiven schon im Gestaltungsprozess. Nicht nur Behinderung, sondern auch Neurodivergenz, queere Identität oder Klassenerfahrung müssten dabei berücksichtigt werden.
Natalie Sontopski erklärte, warum es wichtig sei, KI aus einer feministischen Perspektive zu analysieren: Schon die Tatsache, dass digitale Assistenten wie "Siri" weibliche Stimmen tragen, sei Ausdruck tradierter Geschlechterbilder. KI sei nicht neutral – sie produziere, verstärke oder verschleiere gesellschaftliche Narrative.
Anika Kaiser ging darauf ein, dass öffentlich geförderte KI-Forschung immer auch an der Schnittstelle von unterschiedlichen Freiheiten operiere: Zum einen habe KI-Forschung an Universitäten einen gesellschaftlichen Auftrag und sei durch öffentliche Gelder (mit-)finanziert. Es sollen gesellschaftsrelevante Themen bearbeitet und im Zuge der Wissenschaftskommunikation Erkenntnisse mit der Gesellschaft besprochen und Falschinformationen richtiggestellt werden, um einen evidenzbasierten Dialog als Grundlage einer freiheitlichen Demokratie zu befördern. Hierzu gehöre auch die Auseinandersetzung mit der Frage, was unterschiedliche Menschen in Bezug auf die KI-Forschung wichtig finden. Auf der anderen Seite sollen Erkenntnisse auch in der KI-Forschung im Rahmen guter wissenschaftlicher Praxis und der Wissenschaftsfreiheit frei von instrumentellen Verwertungsinteressen gewonnen werden. Das gelte für wirtschaftliche, aber ein Stück weit auch für gesellschaftliche Belange, denn nur eine freie Wissenschaft könne unabhängiges Wissen zur Verfügung stellen.
Beteiligung & KI-Kompetenz: Wer kann mitentscheiden?
Ein zentraler Schwerpunkt der Diskussion war die Frage nach demokratischer Mitgestaltung. Als Beispiel einer der Empfehlungen, die der Bürger:innenrat "KI und Freiheit" erarbeitet hatte, nannte Anika Kaiser, dass die Teilnehmenden sich für freiwillige Datenspenden an die Wissenschaft im Bereich Gesundheit aussprachen. Das Vertrauen in Forschung war im Rat hoch – unter der Voraussetzung, dass Daten transparent und verantwortungsvoll verwendet werden. Natalie Sontopski äußerte hier klare Bedenken: Die Vorstellung, Gesundheitsdaten zu spenden, berge enorme Risiken. Was passiere, wenn sich politische Verhältnisse ändern, wenn Akteure wie Trump oder Musk Zugriff bekämen? Daten könnten missbraucht, verkauft oder gehackt werden. Sie warnte davor, Datenschutz leichtfertig gegen kurzfristige Forschungserfolge einzutauschen – das Internet vergesse nichts.
Auch die Frage nach epistemischer Autorität wurde kritisch diskutiert: Wenn KI-Systeme heute schon als verlässliche Informationsquelle wahrgenommen werden, drohe dann eine Entwertung wissenschaftlicher und professioneller Expertise? Schließlich gestalte KI unsere Realität aktiv mit – sie sei nicht einfach ein Medium, das konsumiert werde. Aus diesem Grund sei nicht nur eine ausgeprägte Medienkompetenz wichtig, sondern sogar eine dezidierte KI-Kompetenz oder AI Literacy, wie Steffen Staab betonte. In Bezug darauf betonte Enrico Kunze, dass Medien- und KI-Kompetenz zu einem Grundrecht werden sollten – gerade für marginalisierte Gruppen. Nur wer verstehe, wie KI funktioniert, könne sich kritisch mit ihr auseinandersetzen.
Inklusion durch Technik? Chancen und Widersprüche
Auch die positiven Potenziale von KI kamen zur Sprache. Steffen Staab stellte ein eigenes Startup-Projekt vor, das sich mit barrierefreier Nutzer:innenführung beschäftigt. KI könne helfen, Interfaces dynamisch an individuelle Bedürfnisse anzupassen – etwa durch automatisch generierte Bildbeschreibungen oder vereinfachte Sprache.
Enrico Kunze begrüßte solche Entwicklungen, machte aber klar: Inklusion sei mehr als Technik. Es gehe um strukturelle Teilhabe – und darum, betroffene Gruppen von Anfang an in die Entwicklung einzubeziehen. Tests zur Benutzerfreundlichkeit von digitalen Anwendungen müssten mit den Menschen gemacht werden, nicht über sie hinweg. Der gesetzliche Rahmen, etwa das Barrierefreiheitsstärkungsgesetz, könne Unternehmen zwar zum Handeln bewegen. Aber Inklusion sei nicht nur auf Basis von Gesetzgebungen geboten, sondern auch ökonomisch zu denken. Barrierefreiheit von technologischen Anwendungen könne auch die Erschließung neuer Zielgruppen bedeuten.
Perspektiven aus dem Publikum: Skepsis, Zustimmung und gesellschaftliche Fragen
In der abschließenden Fragerunde meldeten sich mehrere Gäste mit pointierten Kommentaren zu Wort. Ein älterer Zuhörer äußerte grundsätzliche Skepsis gegenüber dem Begriff "Künstliche Intelligenz": Der Begriff suggeriere Fähigkeiten, die Maschinen nicht besitzen – insbesondere kein Bewusstsein.
Eine andere Person gab zu bedenken, dass Diskussionen über Inklusion oft den gesellschaftlichen Ausgangspunkt vergessen: Warum überhaupt für inklusive KI kämpfen? Sie wies darauf hin, dass gegenwärtig autoritäre Kräfte weltweit an Einfluss gewännen. Daher müsse immer wieder erklärt werden, warum Vielfalt, Teilhabe und Menschenrechte grundlegend sind – auch und gerade im Technologiediskurs.
Auch wurde gefragt, ob europäische Regulierungsansätze in einer von den USA und China dominierten KI-Landschaft überhaupt wirksam sein könnten. Die Antwort der Podiumsgäste: Gerade durch anspruchsvolle Standards könne Europa Maßstäbe setzen – vorausgesetzt, es gelingt, gemeinsam zu handeln und innovationsfreundliche Strukturen zu schaffen.
Fazit: Vielfalt ist kein Nebenschauplatz – sondern Kern der KI-Entwicklung
Die Diskussion endete mit einem klaren Plädoyer: Wer KI menschenzentriert und gemeinwohlorientiert gestalten will, muss sich mit Machtverhältnissen, Zugang und Verantwortung auseinandersetzen.
Der Bürger:innenrat "KI und Freiheit" ist ein Beispiel dafür, wie gesellschaftliche Mitgestaltung konkret aussehen kann. Partizipation, Transparenz und Interdisziplinarität sind dabei zentrale Prinzipien – ebenso wie die Frage, wessen Perspektiven in KI-Systemen abgebildet werden. Ob in der Forschung, im Design oder im politischen Raum: Vielfalt ist kein Add-on, sondern Voraussetzung für gerechte KI. Der Abend in Stuttgart machte deutlich: Nur durch offene Debatten, kritisches Hinterfragen und mutige Gestaltung kann KI ein Werkzeug für alle werden.