Recap: Persuasive Algorithms Tagung 12.–14. November 2024

Im Novem­ber des letz­ten Jah­res fand unser gro­ßes Event, die Per­sua­si­ve Algo­rith­ms Tagung, im Max-Planck-Insti­tu­te for Intel­li­gent Sys­tems (MPI-IS) in Tübin­gen statt. Dafür reis­ten Teil­neh­men­de von vie­len ver­schie­de­nen deut­schen Uni­ver­si­tä­ten, wie zum Bei­spiel der TU Braun­schweig, der HU Ber­lin, oder der LMU Mün­chen, an. Es gab aber auch vie­le Teil­neh­men­de von inter­na­tio­na­len Uni­ver­si­tä­ten, wie bei­spiels­wei­se Wissenschaftler:innen der New Yor­ker Ford­ham Uni­ver­si­ty, der deutsch­schwei­ze­ri­schen Uni­ver­si­ty St. Gal­len, oder der Uni­ver­si­tät Zürich. Ins­ge­samt tra­fen Fach­rich­tun­gen wie Jour­na­lis­mus, Machi­ne Lear­ning, Päd­ago­gik und natür­lich Wis­sen­schafts­kom­mu­ni­ka­ti­on, Rhe­to­rik und Medi­en­wis­sen­schaft zusam­men. Wel­che Fra­gen auf­ge­wor­fen, wel­che Per­spek­ti­ven beleuch­tet und wel­che Impul­se für den Dis­kurs über Künst­li­che Intel­li­genz gege­ben wur­den, erfahrt ihr hier im Rück­blick der Tagung.

Diens­tag, 12. Novem­ber 2024

Am Diens­tag eröff­ne­ten Olaf Kra­mer und Mar­kus Gott­sch­ling (bei­de Uni Tübin­gen) die drei­tä­gi­ge Kon­fe­renz und stell­ten dabei auch die Rhe­tAI Coali­ti­on vor. Die Rhe­tAI Coali­ti­on ist eine inter­na­tio­na­le For­schungs­ge­mein­schaft, die vom RHET AI Cen­ter gemein­sam mit der Stony Brook Uni­ver­si­ty, dem Cen­ter for Huma­ne Tech­no­lo­gy und seit 2024 auch der Aub­urn Uni­ver­si­ty getra­gen wird. Ziel der Koope­ra­ti­on ist es, den Aus­tausch zwi­schen Wis­sen­schaft, gemein­nüt­zi­gen Part­nern und der KI-Indus­trie zu för­dern, um ver­ant­wor­tungs­vol­le Rah­men­be­din­gun­gen für den Umgang mit den bis­lang unkon­trol­lier­ten Über­zeu­gungs­kräf­ten von Künst­li­cher Intel­li­genz zu entwickeln.

Was hat es mit Character.AI auf sich?

Character.AI wird als soge­nann­ter "com­pa­n­ion chat­bot" ein­ge­stuft. Hin­ter der Open Access App ste­hen die Grün­der Noam Shaze­er und Dani­el De Freitas. Mil­lio­nen von User:innen, gera­de Teenager:innen, erschaf­fen sich mit der App Bots, die mensch­li­che Eltern­tei­le, Partner:innen, oder Freund:innen erset­zen sol­len. Der Bot ahmt das mensch­li­che Ver­hal­ten nach (Stich­wort: Anthro­po­mor­phi­sie­rung der KI) und geht in der Regel unter­stüt­zend auf die Kla­gen des mensch­li­chen Gegen­übers ein. Sei­ne Kom­men­ta­re kön­nen dadurch auch eine dras­ti­sche dunk­le, unan­ge­mes­se­ne; oder gar gewalt­tä­ti­ge Wen­dung anneh­men. Es ist daher äußerst wich­tig, immer eine emo­tio­na­le Distanz zu KI-Bots auf­recht zu erhalten.

Im Anschluss dar­an fand die ers­te Key­note "‘Press 0 to Never Speak to an Ope­ra­tor: On Ente­ring an AI-Powered Bureau­cra­tic Laby­rinth" von Casey Mock (Cen­ter for Huma­ne Tech­no­lo­gy) statt. Mock ori­en­tier­te sich an der Fra­ge, wer denn kon­trol­lie­re, mit wel­chen Daten KIs trai­niert wer­den. Das zen­tra­le Pro­blem – künst­li­che Inti­mi­tät – wur­de am Bei­spiel des Fal­les von Character.AI gezeigt.

Künst­li­che Inti­mi­tät beschreibt die von KI-gestütz­ten Chat­bots erzeug­te Illu­si­on einer engen, per­sön­li­chen Bezie­hung zwi­schen Mensch und Maschi­ne. Dabei simu­lie­ren die Bots durch natür­lich wir­ken­de Kom­mu­ni­ka­ti­on und empa­thi­schen Reak­tio­nen mensch­li­che Nähe, ohne jedoch ech­te Emo­tio­nen oder Bin­dun­gen zu emp­fin­den. Man­che Men­schen las­sen sich davon täu­schen und ent­wi­ckeln eine emo­tio­na­le Bin­dung zu den Bots. Sie füh­len sich von ihnen bestä­tigt und ver­stan­den und fra­gen die­se um Rat, statt ihre Mitmenschen.

Der letz­te Pro­gramm­punkt des Vor­mit­tags war ein gemein­sa­mer Vor­trag von Olaf Kra­mer und Mar­kus Gott­sch­ling über die Rhe­to­rik von gene­ra­ti­ver KI, der die­sen ers­ten Teil der Tagung abrundete.

Wei­te­re span­nen­de Vor­trä­ge folg­ten nach einer ein­stün­di­gen Mit­tags­pau­se, bei­spiels­wei­se von den Machi­ne-Lear­ning Wis­sen­schaft­lern Bob Wil­liam­son und Micha­el Fran­ke (bei­de Uni Tübin­gen) zu den The­men "The Rhe­to­ric of Machi­ne Lear­ning" und "Under­stan­ding Lan­guage Models: The Japa­ne­se Room Argu­ment, or What It’s Like to Be a Lan­guage Model". Die­se beein­druck­ten durch ihre inhalt­li­che Tie­fe, eben­so wie die nach einer klei­nen Kaf­fee­pau­se fol­gen­den Pro­blem Pit­ches. Die­se waren ein High­light des Tages: Als neu­ar­ti­ges Kon­fe­renz­for­mat, das akti­ves Mit­dis­ku­tie­ren för­der­te, fand die­ses For­mat gro­ßen Anklang bei den Teilnehmenden.

Wie funktionieren Problem Pitches?

Das For­mat der "Pro­blem Pit­ches" schafft Raum für die Teil­neh­men­den, über mit ande­ren Wissenschaftler:innen über Pro­ble­me und Fra­gen zu dis­ku­tie­ren, die ihnen wäh­rend ihrer For­schung zu gene­ra­ti­ver KI begeg­nen. Die­se Pro­ble­me durf­ten in viel­sei­ti­gen For­men von Kon­zep­ten (inter‑, oder trans­dis­zi­pli­när, theo­re­tisch, prak­tisch, oder wei­te­re) dar­ge­stellt wer­den. Sie soll­ten mit dem Ziel der Refle­xi­on, Bera­tung und Ver­mitt­lung mög­li­cher Lösun­gen for­mu­liert wer­den. Die­se Pro­ble­me wer­den dann in Klein­grup­pen diskutiert.

Gepitcht haben Anna Hen­schel (Redak­teu­rin Wissenschaftskommunikation.de) mit "AI & Jour­na­lism" und Nina Kal­wa (KIT) gemein­sam mit Lukas Griessl (Uni­ver­si­tät Tübin­gen) und Tobi­as Kreut­zer (TU Dort­mund) zum The­ma "AI & Sci­ence Com­mu­ni­ca­ti­on". Hen­schel nutz­te ihre Rede­zeit, um die Teil­neh­men­den zu fra­gen, ob sie mit der der­zei­ti­gen Bericht­erstat­tung über KI in den Medi­en unzu­frie­den sei­en und dar­über zu dis­ku­tie­ren, wie Journalist:innen in der Kom­mu­ni­ka­ti­on über KI eine ver­ständ­li­che­re Spra­che nut­zen kön­nen. Kal­wa, Griessl und Kreut­zer kon­zen­trier­ten sich in ihrem Bei­trag auf die Her­aus­for­de­run­gen von KI für die Wissenschaftskommunikation.

Ziel der Pit­ches war es einer­seits, den For­schen­den eine Platt­form zu bie­ten und ande­rer­seits, akti­ven Aus­tausch zu för­dern, der den Pit­chen­den Impul­se für ihre Arbeit lie­fer­te und glei­cher­ma­ßen die Teil­neh­men­den über den Stand Ihrer For­schun­gen zu infor­mie­ren. Bemer­kens­wert war auch, dass einer der ursprüng­lich geplan­ten Pit­ches kurz­fris­tig aus­fiel, sich jedoch spon­tan eine Grup­pe zum The­ma zusam­men­fand, die trotz des feh­len­den vor­be­rei­te­ten Inputs inten­siv diskutierte.

Abschlie­ßend zum ers­ten Kon­fe­renz­tag lei­te­te die Tech­jour­na­lis­tin Eva Wol­fan­gel (MPI-IS) eine Podi­ums­dis­kus­si­on mit der Bezeich­nung "Is AI ine­vi­ta­ble?" an, in der sie zu Beginn KI als eine "power (strugg­le) tech­no­lo­gy" umschrieb. Die Teil­neh­men­den Moritz Hardt (Direk­tor MPI-IS Tübin­gen), Annet­te Leßm­öll­mann (KIT) und Esther Greus­sing (TU Braun­schweig) spra­chen unter Wol­fan­gels Mode­ra­ti­on über die trans­for­ma­ti­ven Aus­wir­kun­gen von gene­ra­ti­ver KI auf Kom­mu­ni­ka­ti­on, Bil­dung und Fair­ness. Im Ver­lauf der Dis­kus­si­on stell­te Wol­fan­gel die Fra­ge, wer eigent­lich Zugang zu KIs habe, und die­se kon­trol­lie­ren kön­ne – beson­ders im Kon­takt der Wis­sen­schafts­kom­mu­ni­ka­ti­on und der öffent­li­chen Wahr­neh­mung. Was bedeu­tet Auto­ri­tät in einer sol­chen Gesell­schaft und wer wird sie aus­üben? Die­se Fra­ge­stel­lung führ­te zu wei­te­ren, tief­ge­hen­den Über­le­gun­gen: Greus­sing­frag­te, was Exper­ti­se heu­te über­haupt noch bedeu­te und wie sie sich ver­än­de­re, wenn KI als "Exper­te" auf­trä­te. Leßm­öll­mann woll­te wis­sen, wie KIs, Lar­ge Lan­guage Models oder Social Media die Demo­kra­tie unter­stüt­zen könn­ten. Die Dis­kus­si­on ver­deut­lich­te schnell: Alle müs­sen sich aktiv in den KI-Dis­kurs ein­brin­gen und ihre Posi­ti­on in die­sem Feld finden.

Nach die­sem viel­sei­ti­gen und infor­ma­ti­ven ers­ten Tag der Per­sua­si­ve Algo­rith­ms Tagung ging es gemein­sam zum Abend­essen in den Neckar­mül­ler, ein bekann­tes Tübin­ger Lokal mit schwä­bi­schen Spe­zia­li­tä­ten. So konn­te jede:r gestärkt in den nächs­ten Tag starten.

Mitt­woch, 13. Novem­ber 2024

Ein­drü­cke des zwei­ten Kon­fe­renz­ta­ges. Fotos: @Sil­ves­ter Kel­ler

Am Mitt­woch­mor­gen dreh­te sich in zwei Panels alles um die über­ge­ord­ne­ten The­men "AI, Poli­tics and their Media" und "Towards AI Liter­acy". Im erst­ge­nann­ten Panel spra­chen Mela­nie Lei­de­cker-Sand­mann und Tabea Lüders (bei­de KIT) über das The­ma "More than Huma­no­id Robots and Cyborgs? How Ger­man Print Media Visua­li­ze Artic­les on Arti­fi­cal Intel­li­gence". Bei­de Wis­sen­schaft­le­rin­nen beschäf­ti­gen sich mit die­ser Fra­ge auch in ihrem aktu­el­len Pre­print, den sie gemein­sam mit drei wei­te­ren For­schen­den gestal­ten. Wei­te­re Vor­trä­ge des Panels waren "GenAI and the Dis­rup­ti­on of Ani­ma­ti­on Pro­duc­tion" von Erwin Feyer­sin­ger, Ani­ma­ti­ons­exper­te in der Medi­en­wis­sen­schaft an der Uni­ver­si­tät Tübin­gen und "From Public Dis­cour­se to Pri­va­te Echo? The Role of Sel­ec­ti­ve Expo­sure in Poli­ti­cal Inter­ac­tions with ChatGPT" von Cor­ne­lia Sin­der­mann (Uni­ver­si­tät Stuttgart).

Im zwei­ten Panel, das gleich­zei­tig statt­find, spra­chen Ole Engel und Eli­sa­beth May­weg (HU Ber­lin) über "Reaso­ning with Gene­ra­ti­ve Arti­fi­ci­al Intel­li­gence". Jan Batz­ner vom Wei­zen­baum-Insti­tut hielt einen Vor­trag über "Ger­m­an­Par­ties­QA: Bench­mar­king Com­mer­cial Lar­ge Lan­guage Model for Poli­ti­cal Bias and Syco­phan­cy" und Char­ley Wu (Uni­ver­si­tät Tübin­gen) sprach über "The Libra­ri­an of Babel" im Zusam­men­hang mit AI Literacy.

Nach einer Pau­se ging es wie­der wei­ter mit Pro­blem Pit­ches zu den The­men "AI & Public Dis­cour­se", "AI and Crea­ti­vi­ty" und "AI & Rhe­to­ric". Wäh­rend des Pit­ches "AI & Public Dis­cour­se" wur­de daher bei­spiels­wei­se in Grup­pen über ver­schie­de­ne Aspek­te des Ein­sat­zes von KI in Dis­kur­sen und öffent­li­chen Dis­kus­sio­nen debat­tiert. (Foto: @Sil­ves­ter Kel­ler)

Am Nach­mit­tag hat­ten die Teil­neh­men­den die Gele­gen­heit, durch wei­te­re Vor­trä­ge in den Panels "Inclu­si­ve Sci­ence Com­mu­ni­ca­ti­on" und "Towards AI Liter­acy" neue Impul­se zu erhal­ten. Die The­men reich­ten von "AI Fora: Inclu­si­ve Sci­ence Com­mu­ni­ca­ti­on" bis hin zu "Gene­ra­ti­ve AI as Pedago­gi­cal Machi­ne".

Außer­dem wid­me­te sich Zol­tan Maj­dik (North Dako­ta Sta­te Uni­ver­si­ty) aus­führ­lich dem The­ma "Bridging the gap: A Frame­work for Rhe­to­ri­cal Audits of Lar­ge Lan­guage Models" und beleuch­te­te dabei, wie rhe­to­ri­sche Ele­men­te auf KI-Sys­te­me über­tra­gen wer­den kön­nen. Dabei ging es ins­be­son­de­re um rhe­to­ri­sche Tro­pen, deli­be­ra­ti­ve Nor­men und seman­ti­sche Kom­ple­xi­tät. Maj­dik zeig­te, dass gene­ra­ti­ve KI häu­fig Meta­phern wie etwa Kriegs­bil­der erzeugt, die den Dis­kurs über KI beein­flus­sen. Außer­dem hob er die Bedeu­tung von Dis­kurs­wer­ten wie Vali­di­tät her­vor, die eine ent­schei­den­de Rol­le für die Akzep­tanz von KI-gene­rier­ten Bei­trä­gen spie­len. Er beton­te, dass es not­wen­dig sei, seman­tisch reich­hal­ti­ge Inhal­te zu schaf­fen, um die Kom­mu­ni­ka­ti­on über­zeu­gen­der und wir­kungs­vol­ler zu gestal­ten. Dadurch kön­nen KI-Sys­te­me bes­ser in bestehen­de Dis­kur­se ein­ge­bun­den werden.

Bern­hard Schöl­kopf (MPI-IS/ELLIS Tübin­gen) hielt die letz­te Key­note des Tages. In sei­ner For­schung bezieht er sich auf Jor­ge Luis Bor­ges und ver­bin­det des­sen phi­lo­so­phi­schen Anschau­un­gen mit Künst­li­cher Intel­li­genz im heu­ti­gen Zeit­al­ter. In sei­nem Vor­trag dreh­te sich dem­nach alles um das Kon­zept des kul­tu­rel­len Ler­nens, das für mensch­li­ches Ver­ständ­nis und Kom­mu­ni­ka­ti­on zen­tral ist, jedoch von KI-For­schen­den bis­her sel­ten berück­sich­tigt wird. Schöl­kopfs Ansatz sieht vor, Model­le spe­zi­ell auf kul­tu­rel­les Ler­nen zu trai­nie­ren. Das sei beson­ders wich­tig, da Men­schen die Welt oft durch Fik­ti­on und Nar­ra­ti­ve erfas­sen, wes­halb kul­tu­rel­les und fik­tio­na­les Wis­sen auch für die Mensch-Maschi­ne-Kom­mu­ni­ka­ti­on eine zen­tra­le Rol­le spie­le. Der­zeit befin­de sich KI jedoch noch auf dem Niveau der Mus­ter­er­ken­nung: Es sei noch nicht in der Lage, Kau­sa­li­tät zu verstehen.

Don­ners­tag, 14. Novem­ber 2024

Was ist ein KI-Ouroboros?

Ein wei­te­res The­ma von Mike Schä­fers Vor­trag war das Kon­zept des KI-Ourob­oros. Hier geht es dar­um, dass KI-Gene­ra­to­ren zuneh­mend mit KI-gene­rier­ten Inhal­ten gefüt­tert wer­den. Die­ser Kreis­lauf erin­nert an den Ourob­oros aus der anti­ken Mytho­lo­gie, das sym­bo­li­sche Bild einer Schlan­ge, die sich selbst in den Schwanz beißt. Über­tra­gen auf den Kon­text KI bedeu­tet das, dass der Inhalt, der von Künst­li­chen Intel­li­gen­zen erzeugt wird, wie­der­um KIs als Lern­ma­te­ri­al dient. Dadurch ent­steht ein sich selbst ver­stär­ken­der Zyklus, in dem KI-Sys­te­me ihre eige­nen Inhal­te nut­zen, um wei­ter zu ler­nen und neue Inhal­te ohne mensch­li­che Inputs zu generieren.

Die Vor­mit­tags­vor­trä­ge des letz­ten Tages der Ver­an­stal­tung beschäf­tig­ten sich mit der Ver­knüp­fung von Lite­ra­tur­wis­sen­schaft, Phi­lo­so­phie und Rhe­to­rik mit KI. Eröff­net wur­de der Tag durch Mike Schä­fer (Uni­ver­si­tät Zürich) mit einer Key­note über Wis­sen­schafts­kom­mu­ni­ka­ti­on in Zei­ten von KI. Die­se ver­deut­lich­te, dass Künst­li­che Intel­li­genz einen tief­grei­fen­den Ein­fluss auf die Wis­sen­schafts­kom­mu­ni­ka­ti­on hat und haben wird – sowohl als Chan­ce als auch als Her­aus­for­de­rung. Wäh­rend KI dazu bei­tra­gen kann, evi­denz­ba­sier­te Dis­kus­sio­nen zu för­dern und Infor­ma­tio­nen bes­ser zugäng­lich zu machen, birgt sie auch Risi­ken durch die Ver­brei­tung von Fehl­in­for­ma­tio­nen. Die zuneh­men­de Nut­zung von KI-Tools wie JECT.AI zeigt, wie sich die Arbeits­wei­sen im Jour­na­lis­mus und in der Wis­sen­schafts­kom­mu­ni­ka­ti­on wan­deln. Die­se Ent­wick­lun­gen machen deut­lich, dass ein kri­ti­scher und ver­ant­wor­tungs­vol­ler Umgang mit KI unver­zicht­bar ist, um ihre Poten­zia­le sinn­voll zu nut­zen und ihre Gren­zen zu erkennen.

Das letz­te Panel der Per­sua­si­ve Algo­rith­ms Tagung bestand aus diver­sen Unter­the­men zu "Rhe­to­ri­cal Con­cepts of Gene­ra­ti­ve AI". Unter ande­rem sprach Fabi­an Erhardt (Uni­ver­si­tät Tübin­gen) über "Algo­rith­mic Per­sua­si­on as Meta­co­gni­ti­ve Per­sua­si­on". In sei­ner For­schung unter­sucht Erhardt, wie KI-gestütz­te Über­zeu­gungs­stra­te­gien mit meta­ko­gni­ti­ven Pro­zes­sen zusam­men­hän­gen. Er stell­te in sei­ner Ana­ly­se vor, ob und inwie­fern algo­rith­mi­sche Kom­mu­ni­ka­ti­ons­for­men gezielt meta­ko­gni­ti­ve Mecha­nis­men anspre­chen – also die Art und Wei­se, wie Men­schen ihr eige­nes Den­ken und ihre Über­zeu­gun­gen reflektieren.

Nach einem letz­ten gemein­sa­men Mit­tag­essen, vie­len posi­ti­ven Stim­men und der Ver­ab­schie­dung in küh­ler Novem­ber­luft, trenn­ten sich die Wege der Teil­neh­men­den, mit dem aus­drück­li­chen Wunsch nach Wie­der­ho­lung des mehr­tä­gi­gen Events, bei dem Wissenschaftler:innen aus ver­schie­de­nen Dis­zi­pli­nen zusam­men­tref­fen und sich aus­tau­schen kön­nen. (Foto: @Sil­ves­ter Kel­ler)

Für alle Inter­es­sier­ten gab es am Abend zusätz­lich die Sci­ence Notes Ver­an­stal­tung im Kino Muse­um, mode­riert von Olaf Kra­mer. Die­se war Teil der Sci­ence and Inno­va­ti­on Days der Uni­ver­si­tät Tübin­gen und wur­de von dem Cogni­ti­ve Sci­ence Cen­ter beglei­tet. Hier ging es um die Erfor­schung und Dis­kus­si­on von Stra­te­gien, wie Online-Debat­ten fai­rer und kon­struk­ti­ver gestal­tet wer­den kön­nen, um zur Stär­kung unse­rer demo­kra­ti­schen Kul­tur bei­zu­tra­gen. Kurz­um: Wie kön­nen wir "bes­ser streiten".

Wir bedan­ken uns bei dem Orga­ni­sa­ti­ons­team und allen Hel­fe­rin­nen und Hel­fern, die so ein groß­ar­ti­ges Event über­haupt erst mög­lich gemacht haben.

Hier geht es zur Tagungs­an­kün­di­gung und Pro­gramm­ab­lauf 2024.