KI als emotionale Ansprechpartner:innen? – Im Gespräch mit Journalist in Residence Christoph Koch

Seit Grün­dung des RHET AI Cen­ters gehört das Jour­na­list-in-Resi­dence Pro­gramm (kurz JIR) fest zu unse­rem Jah­res­pro­gramm. Gemein­sam mit dem Cyber Val­ley ermög­li­chen wir Journalist:innen einen län­ge­ren For­schungs­auf­ent­halt in Tübin­gen, um an einem The­ma an der Schnitt­stel­le Künst­li­che Intel­li­genz und Jour­na­lis­mus zu arbeiten. 

Wäh­rend ihrer Zeit in Tübin­gen und bei Cyber Val­ley haben die Journalist:innen die Mög­lich­keit, sich mit For­schen­den aus dem Bereich Künst­li­che Intel­li­genz aus­zu­tau­schen, Netz­wer­ke zu knüp­fen und vom Arbeits­um­feld sowie der Exper­ti­se im Cyber Val­ley und RHET AI zu pro­fi­tie­ren. In den ver­gan­ge­nen Jah­ren konn­ten wir Prof. Chris­ti­na ElmerJulia Mer­lot (SPIEGEL), Bet­ti­na Fried­rich (MDR), Tobi­as Asmuth (frei) und Ele­na Ried­lin­ger (WDR) als JIRs bei uns begrü­ßen, 2024 dann Wil­lem de Haan (MDR) und Dr. Anna Hen­schel (wissenschaftskommunikation.de).  Unse­re JIRs haben sich wäh­rend ihres Auf­ent­halts mit einem brei­ten The­men­spek­trum der Schnitt­stel­le KI und Jour­na­lis­mus beschäf­tigt und haben etwa zu den Aus­wir­kun­gen von KI auf den Kli­ma­wan­del, der Mög­lich­keit KI-Tools zur Fak­ten­über­prü­fung oder Dis­tri­bu­ti­on Jour­na­lis­ti­scher Inhal­te ein­zu­set­zen geforscht oder die Fra­ge bear­bei­tet, mit wel­chen Meta­phern wir in der Gesell­schaft über Künst­li­che Intel­li­genz sprechen. 

2025 durf­ten wir Chris­toph Koch (frei) als Jour­na­list-in-Resi­dence begrü­ßen. Von Okto­ber bis Dezem­ber unter­such­te er, inwie­fern KI-Sys­te­me als emo­tio­na­le Ansprechpartner:innen wir­ken kön­nen – zwi­schen Ein­sam­keits­lin­de­rung, neu­en Abhän­gig­kei­ten und ethi­schen Fra­gen. Ihn inter­es­sier­te, wel­che Risi­ken aber auch Chan­cen in emo­tio­nal gepräg­ten Inter­ak­tio­nen mit KI liegen.

Chris­toph arbei­tet seit über 20 Jah­ren als frei­be­ruf­li­cher Jour­na­list und schreibt unter ande­rem für brand eins, SZ-Maga­zin und Die ZEIT. Sei­ne Arbeit wur­de mehr­fach mit Jour­na­lis­mus­prei­sen aus­ge­zeich­net. In sei­nen Tex­ten und Sach­bü­chern (u.a. "Ich bin dann mal off­line", "Digi­ta­le Balan­ce") beschäf­tigt er sich häu­fig mit den Schnitt­stel­len von Tech­no­lo­gie und Gesellschaft. 

Foto: Urban Zintel

Wir haben Chris­toph Koch wäh­rend sei­ner Zeit als Jour­na­list-in-Resi­dence zwei­mal getrof­fen und mit ihm über sei­ne Recher­che, sei­ne Moti­va­ti­on und die Fra­gen gespro­chen, die sich ihm vor, wäh­rend und nach der Arbeit an die­ser Fra­ge­stel­lung auf­ge­wor­fen haben, gesprochen. 

Hal­lo Chris­toph, dan­ke, dass du dir die Zeit für unser Inter­view nimmst und uns einen Ein­blick in dei­nen Auf­ent­halt hier gibst. Dei­ne Resi­denz hat gera­de begon­nen, nimm uns doch auf dei­nen Weg bis hier­hin mit: Was hat dich dazu moti­viert, dich als Jour­na­list-in-Resi­dence zu bewerben?

Ich habe mit­be­kom­men, dass ein Kol­le­ge vor eini­gen Jah­ren hier als JIR zu Gast war. Ich habe ihn also am Tele­fon ein wenig aus­ge­fragt, wie es ihm gefal­len hat­te und ob er den Auf­ent­halt als Jour­na­list-in-Resi­dence rück­bli­ckend als berei­chernd sieht. Sagen wir so: Ich habe noch am sel­ben Tag mei­ne Bewer­bung begonnen.

Wäh­rend dei­ner Zeit hier forschst und arbei­test du zu der Fra­ge, inwie­fern KI-Sys­te­me als emo­tio­na­le Ansprechpartner:innen wir­ken kön­nen und wel­che Chan­cen aber auch Risi­ken sich dar­aus poten­zi­ell erge­ben? Wie bist du zu die­ser Fra­ge­stel­lung gekommen?

Mich hat fas­zi­niert, wie sich die Nut­zung von KI-Sys­te­men ver­än­dert. Ich habe in mei­nem Umfeld, aber auch in den Medi­en in der letz­ten Zeit ver­stärkt wahr­ge­nom­men, dass Men­schen von einer rein sach­lich-pro­duk­ti­ven Nut­zung von gene­ra­ti­ver KI in man­chen Fäl­len zu einer emo­tio­nal-inti­men Nut­zung über­ge­hen. Man­che fra­gen Chat­bots inzwi­schen um Rat in pri­va­ten Din­gen, ande­re nut­zen sie als psy­cho­the­ra­peu­ti­sche Hil­fe oder schaf­fen sich über KI-Com­pa­n­ions vir­tu­el­le Freun­de und Part­ner. Das fand ich fas­zi­nie­rend und woll­te ger­ne mehr dar­über erfahren. 

Was reizt dich an die­ser Fra­ge­stel­lung und den poten­zi­el­len Antworten?

Ich fin­de es immer inter­es­sant, wenn eine Tech­no­lo­gie sich aus einer Nische für eini­ge weni­ge zu einem grö­ße­ren Phä­no­men ent­wi­ckelt. Ich war durch Zufall in San Fran­cis­co als im Juni 2007 das ers­te iPho­ne auf den Markt kam und habe mir – aus rei­ner Neu­gier – eins gekauft. Ich weiß noch, wie ich die ers­ten zwei Jah­re immer wie­der gefragt wur­de, was ich eigent­lich damit machen wür­de. Und ich hat­te anfangs auch kei­ne wirk­lich gute Ant­wort dar­auf – denn man konn­te anfangs ja wirk­lich nicht so viel damit machen. 18 Jah­re und Mil­li­ar­den App-Down­loads spä­ter kön­nen wir uns ein Leben ohne Smart­phone nicht mehr vor­stel­len. Damals war schwer abzu­se­hen, wel­che gesell­schaft­li­che Dyna­mik und wel­che Fol­ge­ent­wick­lun­gen das Smart­phone aus­lö­sen wür­de – ähn­lich ver­hält es sich heu­te mit KI. Ich weiß nicht, ob emo­tio­na­le KI-Nut­zung ähn­lich stark unser Leben und unse­re Gesell­schaft ver­än­dern wird. Aber ein Rand­phä­no­men, das nur ein paar kurio­se Ein­zel­fäl­le betrifft, ist es defi­ni­tiv auch nicht mehr. 

Wo siehst du die Rele­vanz die­ses Themas?

Gefüh­le sind einer der letz­ten Berei­che, bei denen wir Men­schen noch davon aus­ge­hen, dass sie uns von "den Maschi­nen" und damit auch von KI-Sys­te­men unter­schei­den. Beim Rech­nen, beim Flie­gen von Flug­zeu­gen und immer öfter auch beim Lesen und Schrei­ben las­sen wir inzwi­schen den Maschi­nen den Vor­tritt. Aber was pas­siert, wenn sich immer mehr Men­schen dazu ent­schei­den, sich auch der Hil­fe von Maschi­nen zu bedie­nen, wenn es ums Zuhö­ren, um Empa­thie, um Trau­er­be­wäl­ti­gung oder den Wunsch nach emo­tio­na­ler Nähe und/oder Sex geht? 

Wel­che Gedan­ken­pro­zes­se, Recher­che­ar­bei­ten, etc. sind denn bis­her (vor dei­nem Start als JIR und seit du hier bist) gelau­fen und (wie) hat sich dein Blick auf dei­ne Fra­ge­stel­lung dadurch verändert?

Vor mei­nem Start als JIR habe ich vor allem ange­fan­gen, viel zu dem The­ma zu lesen. Seit ich in Tübin­gen bin, konn­te ich dann wie­der­um vie­le gute und ergie­bi­ge Gesprä­che füh­ren, bei denen ich schon viel gelernt habe. Nur ein Bei­spiel: Es geht in den Berei­chen Emo­ti­ons­er­ken­nung aus Sprach- oder Video­si­gna­len schon deut­lich mehr, als ich es vor­her gedacht hät­te. Gera­de bei sol­chen The­men ist ein Gespräch mit Fach­leu­ten oft aktu­el­ler und auf­schluss­rei­cher als ein Buch, das vor eini­gen Jah­ren erschie­nen ist.

Dar­an anknüp­fend: Du hast bei dei­nem Antritts­vor­trag zehn Fra­gen for­mu­liert, mit denen du in dei­ne Resi­den­cy star­test. Wie kam die­ser Fra­gen­ka­ta­log zustande?

Ich habe ver­sucht, das wei­te The­ma auf kon­kre­te Fra­ge­stel­lun­gen her­un­ter­zu­bre­chen. Auch um zu zei­gen, wel­che unter­schied­li­chen Fach­rich­tun­gen – von Psy­cho­lo­gie über Ethik oder Lin­gu­is­tik bis zu KI-Grund­la­gen­for­schung – damit ver­knüpft sind. 

Hast du eine Pro­gno­se, wo sich viel­leicht noch wei­te­re Fra­gen erge­ben wer­den bzw.  gibt es Aspek­te die­ses The­mas, die bis­her für dich noch nicht prä­sent waren, bei denen sich jetzt aber schon abzeich­net, dass sie eine Rol­le für dei­ne Fra­ge­stel­lung spie­len werden?

Auch hier nur ein Bei­spiel von meh­re­ren: Den Aspekt "After­li­fe AI" hat­te ich vor­her nicht so rich­tig im Blick. Also Men­schen, die durch gene­ra­ti­ve KI qua­si wie­der­auf­er­ste­hen, weil man das KI-Sys­tem mit Mate­ri­al (sei es Text, Ton, Foto oder Video) gefüt­tert hat. Das kön­nen Pri­vat­per­so­nen sein, die sich noch zu Leb­zei­ten vor eine Kame­ra set­zen, um geeig­ne­tes Mate­ri­al für eine After­li­fe-KI zu erstel­len. Aber auch tote Poli­ti­ke­rin­nen oder Poli­ti­ker, die anhand frü­he­rer Reden im Wahl­kampf reani­miert wer­den, um die Emo­tio­nen ihrer frü­he­ren Anhän­ger anzu­spre­chen und Stim­men zu sam­meln. Wo da die ethi­schen Gren­zen ver­lau­fen, fin­de ich eine inter­es­san­te Frage.

Was erhoffst du dir von der Zeit hier?

Als Jour­na­list – ins­be­son­de­re als Frei­be­ruf­ler – ste­he ich nor­ma­ler­wei­se unter recht hohem Effi­zi­enz- und Ver­wer­tungs­druck. Recher­chen dür­fen nicht län­ger dau­ern als nötig, zumin­dest soll­ten sie das nicht zu oft. Die Mög­lich­keit, mich drei Mona­te lang inten­siv mit einem The­ma zu beschäf­ti­gen und mich mit Exper­tin­nen und Exper­ten dazu aus­zu­tau­schen, emp­fin­de ich als gro­ßes Privileg.

Für den zwei­ten Teil des Inter­views haben wir uns gegen Ende des JIR-Auf­ent­hal­tes von Chris­toph Koch Ende Dezem­ber noch ein­mal mit ihm getrof­fen. Vor die­sem Hin­ter­grund hat uns beson­ders inter­es­siert, zu wel­chen Erkennt­nis­sen er in sei­ner Recher­che gekom­men ist und wel­ches Resü­mee er für sei­ne Resi­den­cy in Tübin­gen zieht. 

Lie­ber Chris­toph, schön dich wie­der zu sehen. Dei­ne Zeit als Jour­na­list-in-Resi­dence neigt sich dem Ende zu. Wie blickst du dar­auf zurück und kannst du schon ein (vor­läu­fi­ges) Resü­mee ziehen?

Es war eine sehr inspi­rie­ren­de Zeit für mich. Sowohl am Cyber Val­ley und RHET AI, als auch in Tübin­gen all­ge­mein. Ich habe hier wert­vol­le Kon­tak­te knüp­fen und wert­vol­le Gesprä­che füh­ren kön­nen. Das war wie­der­um auch die Hoff­nung, mit der ich in das Pro­gramm gestar­tet bin. Was mich dar­über hin­aus sehr gefreut hat, war zu mer­ken, dass ich wäh­rend der drei Mona­te hier auch wirk­lich Zeit zur eige­nen Recher­che hat­te, und mehr Bücher zu dem The­ma lesen konn­te als sonst in einem gan­zen Jahr. Es war außer­dem wirk­lich schön, Teil die­ses Netz­werks hier zu sein. Es haben sich Men­schen bei mir gemel­det, die mei­ne jour­na­lis­ti­sche Per­spek­ti­ve für ihre Pro­jek­te inter­es­sier­te und es hat mich sehr gefreut, mei­nen Input geben zu kön­nen. Damit hät­te ich zu Beginn nicht gerech­net und das war eine schö­ne Über­ra­schung für mich. 

Als Resü­mee könn­te man sagen, dass ich auf jeden Fall gemerkt habe, dass das The­ma der emo­tio­na­len KI-Nut­zung sehr, sehr vie­le Men­schen beschäf­tigt. Es ist ein gesell­schaft­lich hoch rele­van­tes The­ma. Ich bin auf viel Inter­es­se gesto­ßen und die Bedeu­tung des The­mas hat sich in den drei Mona­ten nicht erschöpft, son­dern hat sich immer wie­der als rele­vant erwiesen.

Bevor wir inhalt­lich tie­fer ein­stei­gen: Hast du Ant­wor­ten auf die zehn Fra­gen gefun­den, mit denen du in die Zeit hier gestar­tet bist?

Auf man­che ja. Auf man­che nicht, denn zum einen ist gene­ra­ti­ve KI und ihre emo­tio­na­le Nut­zung noch ein sehr jun­ges Phä­no­men und zum ande­ren ent­wi­ckelt sich die Tech­nik qua­si wöchent­lich wei­ter. Aber es sind vie­le neue Fra­gen dazugekommen.

Gibt es eine Ant­wort, die für dich her­aus­sticht und beson­ders ver­blüf­fend war, etwa weil du nicht mit ihr gerech­net hättest?

Ja. Das hat zwar nur am Ran­de etwas mit mei­nem Recher­che­the­ma zu tun, aber was mich kalt erwischt hat, war von Expert:innen zu hören, dass durch und duch Explainable AI – also, dass wir genau wis­sen, war­um ein KI-Sys­tem zu einem bestimm­ten Ergeb­nis kommt – nicht mehr mög­lich ist. Die Sys­te­me sind mitt­ler­wei­le so kom­plex und es sind so vie­le Para­me­ter inte­griert, dass wir es schlicht­weg nicht mehr genau wis­sen kön­nen. Das bedeu­tet im Umkehr­schluss nicht, dass wir uns nicht wei­ter­hin um eine gewis­se Trans­pa­renz der Sys­te­me bemü­hen soll­ten. Doch die­ses Ide­al­bild: Wir ver­ste­hen genau, was in dem Sys­tem pas­siert und war­um genau wel­cher Out­put zustan­de kommt – also genau die Rechen­we­ge des Sys­tems zu rekon­stru­ie­ren – das mitt­ler­wei­le ist eine Illusion. 

Für mein Recher­che­the­ma ist das natür­lich auch eine gro­ße Her­aus­for­de­rung, da man in die­sem sen­si­blen Arbeits­feld ja sicher­stel­len kön­nen muss, dass KI-Sys­te­me kei­ne schlech­ten Rat­schlä­ge oder Hal­lu­zi­na­tio­nen einem Men­schen aus­ge­ben, der bei­spiels­wei­se gera­de in einer psy­chi­schen Kri­sen­si­tua­ti­on ist. 

Dann fra­gen wir dich jetzt mal ganz frei her­aus: Inwie­fern kön­nen KI-Sys­te­me als emo­tio­na­le Ansprechpartner:innen die­nen? Wie sieht die Zukunft in die­sem Aspekt aus?

Mei­ne Recher­che hat mir gezeigt, dass vie­le Men­schen bereits KI-Sys­te­me als emo­tio­na­le Ansprechpartner:innen nut­zen. Viel mehr, als wir wahr­schein­lich oft anneh­men. Kon­kre­te Zah­len dazu gibt es lei­der noch sehr wenig, bezie­ungs­wei­se schwan­ken sie stark. Es ist ja auch ein sen­si­bles The­ma, über das vie­le Leu­te viel­leicht nicht so ger­ne sprechen. 

Tat­säch­lich gibt es aber schon ers­te Stu­di­en, zum Bei­spiel das The­ma Ein­sam­keit betref­fend. Das ist ja ein gesell­schaft­lich sehr rele­van­tes The­ma, wir spre­chen mitt­ler­wei­le ja sogar von einer "Ein­sam­keits­epi­de­mie". Hier haben Stu­di­en gezeigt, dass es erst­mal sehr wirk­sam ist, wenn Men­schen sich ein­sam füh­len und dann mit einem Chat­bot kom­mu­ni­zie­ren. Das Ein­sam­keits­ge­fühl lin­dert sich etwa gleich­wer­tig zu einem Gespräch mit einem ande­ren Men­schen und deut­lich stär­ker, als wenn bei­spiels­wei­se ein You­Tube-Video geschaut wird. Aller­dings ist der Effekt nicht lang­an­hal­tend. Kurz­fris­tig kann es also sehr wirk­sam sein, mit einem KI-Chat­bot zu kom­mu­ni­zie­ren, aber an der Aus­gangs­si­tua­ti­on ändert sich nichts. Bei roman­ti­scher Inter­ak­ti­on mit Chat­bots spielt Ein­sam­keit hin­ge­gen eine über­ra­schend gerin­ge Rol­le. Hier zeig­te eine Stu­die, dass viel­mehr Men­schen mit star­ker roman­ti­scher Vor­stel­lungs­kraft bzw. der Fähig­keit zu roman­ti­schen Fan­ta­sien die Nähe zu einem Chat­bot suchen. 

Wel­che Chan­cen und Risi­ken birgt der Ein­satz von KI-Sys­te­men als emo­tio­na­le Ansprechpartner:innen?

Eine Chan­ce ist natür­lich erst­mal Hil­fe anbie­ten zu kön­nen und das eben rund um die Uhr ver­füg­bar und fle­xi­bel. Auf der Sei­te der Risi­ken ist das The­ma der Unbe­re­chen­bar­keit ein gro­ßes. Dar­über hin­aus die Fra­ge, was KI-Sys­te­me mit die­ser Über-Empa­thie, die ent­steht, wenn KI-Sys­te­me ihrem Trai­ning nach immer erst­mal die Nutzer:innen bestä­ti­gen sol­len, bei Men­schen aus­rich­ten, die viel­leicht gera­de kei­ne Bestä­ti­gung ihrer Welt­sicht hören soll­ten, weil sie sich eben in einer psy­chi­schen Kri­sen­si­tua­ti­on befin­den. Das gilt vor allem für gene­ra­ti­ve KI-Sys­te­me. Bis­her wer­den des­halb vor allem regel­ba­sier­te Sys­te­me als emo­tio­na­le Ansprechpartner:innen ein­ge­setzt. Die sind aber wie­der­um weni­ger fle­xi­bel, müs­sen manch­mal ver­schrie­ben wer­den und sind des­halb oft ein­fach nicht das, was die brei­te Mas­se ver­wen­det, die dann eher auf gene­ra­ti­ve KI-Sys­te­me wie ChatGPT, Gemi­ni oder ähn­li­che zurück­greift. 

KI-Sys­te­me sol­len ja bei­spiels­wei­se den The­ra­pie­platz­man­gel oder die Aus­wir­kun­gen der Loneli­ne­ss Epi­de­mic aus­glei­chen. Wie schätzt du da die Mög­lich­kei­ten ein und wel­che Fol­gen siehst du für die Gesell­schaft und Gemein­schaft, wenn wir sol­che sys­te­ma­ti­schen Pro­ble­me in der Lösung an KI-Sys­te­me auslagern?

Da habe ich ein kon­kre­tes Bei­spiel, an dem man die Fra­ge ganz gut beant­wor­ten kann. Ich war im Zuge mei­ner Recher­che in Albers­hau­sen in einem Senio­ren­heim, das einen Social-Bot dort tes­tet. Mit dem kön­nen die Bewohner:innen inter­agie­ren, der erzählt Wit­ze, führt Gesprä­che, etc. und wird von den meis­ten Bewohner:innen auch gut ange­nom­men. Aller­dings bie­tet er für das Per­so­nal kei­ne Arbeits­er­leich­te­rung, weil er von ihnen her­um­ge­tra­gen und manch­mal gewar­tet wer­den muss. Da habe ich mich gefragt, wäre es nicht viel hilf­rei­cher ein Sys­tem mit pas­sen­der Hard­ware zu ent­wi­ckeln, das die Bet­ten macht und den Mit­ar­bei­ten­den so wie­der mehr Zeit ermög­licht, mit den Bewohner:innen zu inter­agie­ren? Das ist in der Kon­struk­ti­on aber auf­wen­di­ger, als ein gene­ra­ti­ves KI-Sys­tem in ein Plas­tik­ge­häu­se zu packen und des­halb gibt es einen Bet­ten-Robo­ter eben auch noch nicht. 

Die grö­ße­re Fra­ge, die an die­sem Bei­spiel hängt, ist eben: Dele­gie­ren und lagern wir gera­de die fal­schen Auf­ga­ben an KI-Sys­te­me aus? Zur Über­brü­ckung kön­nen die erst­mal hilf­reich sein, aber das Ziel soll­te natür­lich sein, Ver­sor­gungs­lü­cken zu schlie­ßen und sys­te­ma­ti­sche Pro­ble­me wirk­lich zu lösen. 

Wel­che ethi­schen Impli­ka­tio­nen und Kon­se­quen­zen hat es, wenn wir gewinn­ori­en­tier­te Tech-Unter­neh­men mit der Auf­ga­be betrau­en, emo­tio­na­le Ansprechpartner:innen zu ent­wi­ckeln und zu hos­ten? Siehst du da Lösungsansätze?

Das Pro­blem besteht auf jeden Fall. Die Tech­no­lo­gie kon­zen­triert sich, wie auch schon vor­her im Tech-Bereich, in sehr weni­gen Hän­den, die fast alle in den USA sit­zen, eini­ge weni­ge viel­leicht noch in Chi­na. Das sind Kon­zer­ne, die hohe Gewinn­erwar­tun­gen haben. Durch die vie­len Inves­ti­tio­nen, die in KI-Ent­wick­lung geflos­sen sind, liegt da ein enor­mer kom­mer­zi­el­ler Druck auf den Unter­neh­men und das merkt man den Pro­duk­ten auch an. Die Ver­weil­dau­er etwa soll mög­lichst hoch sein, wes­halb es zu die­sen per­ma­nen­ten Rück­fra­gen in der Nut­zung gene­ra­ti­ver KI-Sys­te­me kommt. Die Pro­duk­te sol­len sich fest in den All­tag ein­gra­ben und Gewohn­hei­ten schaf­fen und damit eben "sti­cky" sein. 

Wie pro­ble­ma­tisch das sein kann, haben wir ja schon durch die Ent­wick­lung von Social Media gese­hen und bei KI-Sys­te­men bewegt sich das momen­tan in eine ähn­li­che Rich­tung. Das hal­te ich für ethisch sehr frag­wür­dig und besorgniserregend. 

Die Fra­ge nach Lösun­gen ist schwie­rig. Eigent­lich war der Ansatz sinn­voll, mit dem Ope­nAI ursprüng­lich mal gestar­tet ist – näm­lich als nicht-gewinn­ori­en­tier­ter Gegen­ent­wurf zu den damals domi­nan­ten KI-Play­ern wie Goog­le. Lei­der hat sich das aber kom­plett ver­scho­ben. Eine wirk­lich gemein­wohl­ori­en­tier­te Fir­ma ohne Gewinn­erwar­tun­gen, die nur die Inter­es­sen der Nutzer:innen ver­folgt und sicher ist, wäre für die­se sen­si­blen The­men­be­rei­che natür­lich ide­al. Ob das aber eine voll­kom­me­ne Uto­pie ist, oder zumin­dest in Tei­len erreich­bar, ist die Frage. 

Wel­che Gui­de­lines, Legal Frame­works und For­men von Gover­nan­ce braucht es im Umgang und Ein­satz von KI für die­se sen­si­blen Themenfelder?

Es braucht sie auf jeden Fall. Momen­tan sind die meis­ten AI-Com­pa­n­ion-Apps nicht regu­liert und fal­len mei­nes Wis­sens auch nicht in den AI-Act. Es wird gera­de dar­über nach­ge­dacht im Zuge der Debat­te um eine Alters­gren­ze für Social Media, die auch auf AI-Com­pa­n­ions aus­zu­wei­ten. Aber da bleibt natür­lich frag­lich, wie effek­tiv das ist. Ich den­ke es ist sehr wich­tig, die­se sen­si­blen The­men­fel­der zu schüt­zen. Nicht jede:r darf Psy­cho­the­ra­pie anbie­ten, das ist zu Recht regu­liert und soll­te bei KI-Sys­te­men nicht anders sein, da sehe ich gro­ßen Handlungsbedarf.

Du hast u. a. auch mit Anwender:innen gespro­chen. Wel­che Erkennt­nis­se nimmst du aus die­sen Gesprä­chen mit? Was berich­ten Men­schen, die KI-Sys­te­me als emo­tio­na­le Ansprechpartner:innen verwenden?

Was mir Men­schen häu­fig gespie­gelt haben ist, dass sie den urteils­frei­en Raum schät­zen und in KI-Sys­te­men Ansprechpartner:innen sehen, denen sie gefahr­los und offen das sagen kön­nen, was sie sagen wol­len. Dar­über hin­aus wird den Sys­te­men eine über­ra­schend gro­ße Objek­ti­vi­tät zuge­schrie­ben. Wir haben wäh­rend mei­ner Zeit hier einen Work­shop mit Anwender:innen durch­ge­führt und das war sehr wert­voll für mich, dort hören und nach­fra­gen zu kön­nen, wie und wes­halb Men­schen sich KI-Sys­te­men als emo­tio­na­len Ansprechpartner:innen öff­nen. Was sich ganz klar abzeich­net, ist, dass AI-Com­pa­n­ion Apps im Ver­gleich zu den gän­gi­gen gene­ra­tiv­cen Sprach­mo­del­len noch eher wenig ver­wen­det werden. 

Wie nimmst du den Dis­kurs zu dem The­ma wahr? Gera­de wird all­ge­mein immer mehr Kri­tik zu KI laut. Wo siehst du da dei­ne Rol­le als Jour­na­list, vor allem auch nach dei­ner Zeit hier?

Im Dis­kurs befin­den wir uns, den­ke ich, gera­de in einer Pha­se der gro­ßen Ent­zau­be­rung die­ser Tech­no­lo­gie und es domi­nie­ren eher nega­ti­ve Sicht­wei­sen, die vie­les ver­mi­schen. Da geht es dann quer­beet um Din­ge wie Daten­schutz, Arbeits­plät­ze, Umwelt­fra­gen und die wirt­schaft­li­che Fra­ge, ob und wann die KI-Bubble platzt. Das über­trägt sich selbst­ver­ständ­lich auch auf die emo­tio­na­le Nut­zung von KI-Tools, die teil­wei­se sehr dämo­ni­siert wird. Ein kri­ti­scher Blick hat sicher auch sei­ne Berech­ti­gung, den­noch soll­te man sich vor einer zu gro­ßen Über­heb­lich­keit in Acht neh­men – den­ke ich – ins­be­son­de­re den Anwender:innen gegenüber. 

Für den Jour­na­lis­mus sehe ich die Auf­ga­be, den Dis­kurs immer dann ein­zu­fan­gen, wenn er über­steu­ert – egal in wel­che Rich­tung – und Stand­punk­te immer wie­der ein­zu­ord­nen. Wir müs­sen Kri­tik klar benen­nen und trotz­dem offen blei­ben für die Chancen.

Haben sich für dich neue Fra­gen ergeben? 

Eine Fra­ge, die mich sehr beschäf­tigt, ist, ob wir durch die emo­tio­na­le Nut­zung von KI-Sys­te­men empa­thi­scher wer­den oder Empa­thie ver­ler­nen? Dazu exis­tiert noch kein wis­sen­schaft­li­cher Kon­sens und denk­bar wäre bei­des. Viel­leicht bleibt das am Ende auch etwas, das von Per­son zu Per­son und Sys­tem zu Sys­tem variiert. 

Wie geht es für dich mit die­ser Recher­che jetzt weiter?

Es ist ein The­ma, das mich sehr inter­es­siert, aber eben auch auf brei­te öffent­li­che Reso­nanz stößt und vie­le ande­re Men­schen eben­falls zu inter­es­sie­ren scheint. Dem­entspre­chend wird es mich auch noch wei­ter beschäf­ti­gen und ist nach mei­nem Auf­ent­halt hier nicht abge­schlos­sen. Am 29. Janu­ar hal­te ich noch mei­ne Abschluss­prä­sen­ta­ti­on und dar­über hin­aus wer­de ich in den nächs­ten Wochen auch noch wei­ter in Kon­takt mit eini­gen Expert:innen blei­ben und Gesprä­che führen. 

Vie­len Dank Chris­toph, dass du uns so tief­ge­hen­de Ein­bli­cke in dei­ne Arbeit hier bei uns gege­ben hast. Wir sind gespannt, wie es für dich mit den Erkennt­nis­sen und Erfah­run­gen aus Tübin­gen wei­ter­ge­hen wird. 

Wer noch­mals aus ers­ter Hand über Chris­toph Kochs Zeit als Jour­na­list-in-Resi­dence erfah­ren will und Inter­es­se hat, mit ihm ins Gespräch zu kom­men, ist herz­lich ein­ge­la­den, an sei­ner Abschluss­prä­sen­ta­ti­on am 29. Janu­ar 2026 teil­zu­neh­men. Sie wird ab 17:00 im Tübin­ger Max-Planck-Insti­tut für Intel­li­gen­te Sys­te­me im Max-Planck-Ring 4 statt­fin­den. Die Anmel­dung zur Abschluss­prä­sen­ta­ti­on ist hier möglich.