Seit Gründung des RHET AI Centers gehört das Journalist-in-Residence Programm (kurz JIR) fest zu unserem Jahresprogramm. Gemeinsam mit dem Cyber Valley ermöglichen wir Journalist:innen einen längeren Forschungsaufenthalt in Tübingen, um an einem Thema an der Schnittstelle Künstliche Intelligenz und Journalismus zu arbeiten.
Während ihrer Zeit in Tübingen und bei Cyber Valley haben die Journalist:innen die Möglichkeit, sich mit Forschenden aus dem Bereich Künstliche Intelligenz auszutauschen, Netzwerke zu knüpfen und vom Arbeitsumfeld sowie der Expertise im Cyber Valley und RHET AI zu profitieren. In den vergangenen Jahren konnten wir Prof. Christina Elmer, Julia Merlot (SPIEGEL), Bettina Friedrich (MDR), Tobias Asmuth (frei) und Elena Riedlinger (WDR) als JIRs bei uns begrüßen, 2024 dann Willem de Haan (MDR) und Dr. Anna Henschel (wissenschaftskommunikation.de). Unsere JIRs haben sich während ihres Aufenthalts mit einem breiten Themenspektrum der Schnittstelle KI und Journalismus beschäftigt und haben etwa zu den Auswirkungen von KI auf den Klimawandel, der Möglichkeit KI-Tools zur Faktenüberprüfung oder Distribution Journalistischer Inhalte einzusetzen geforscht oder die Frage bearbeitet, mit welchen Metaphern wir in der Gesellschaft über Künstliche Intelligenz sprechen.
2025 durften wir Christoph Koch (frei) als Journalist-in-Residence begrüßen. Von Oktober bis Dezember untersuchte er, inwiefern KI-Systeme als emotionale Ansprechpartner:innen wirken können – zwischen Einsamkeitslinderung, neuen Abhängigkeiten und ethischen Fragen. Ihn interessierte, welche Risiken aber auch Chancen in emotional geprägten Interaktionen mit KI liegen.
Christoph arbeitet seit über 20 Jahren als freiberuflicher Journalist und schreibt unter anderem für brand eins, SZ-Magazin und Die ZEIT. Seine Arbeit wurde mehrfach mit Journalismuspreisen ausgezeichnet. In seinen Texten und Sachbüchern (u.a. "Ich bin dann mal offline", "Digitale Balance") beschäftigt er sich häufig mit den Schnittstellen von Technologie und Gesellschaft.

Wir haben Christoph Koch während seiner Zeit als Journalist-in-Residence zweimal getroffen und mit ihm über seine Recherche, seine Motivation und die Fragen gesprochen, die sich ihm vor, während und nach der Arbeit an dieser Fragestellung aufgeworfen haben, gesprochen.
Hallo Christoph, danke, dass du dir die Zeit für unser Interview nimmst und uns einen Einblick in deinen Aufenthalt hier gibst. Deine Residenz hat gerade begonnen, nimm uns doch auf deinen Weg bis hierhin mit: Was hat dich dazu motiviert, dich als Journalist-in-Residence zu bewerben?
Ich habe mitbekommen, dass ein Kollege vor einigen Jahren hier als JIR zu Gast war. Ich habe ihn also am Telefon ein wenig ausgefragt, wie es ihm gefallen hatte und ob er den Aufenthalt als Journalist-in-Residence rückblickend als bereichernd sieht. Sagen wir so: Ich habe noch am selben Tag meine Bewerbung begonnen.
Während deiner Zeit hier forschst und arbeitest du zu der Frage, inwiefern KI-Systeme als emotionale Ansprechpartner:innen wirken können und welche Chancen aber auch Risiken sich daraus potenziell ergeben? Wie bist du zu dieser Fragestellung gekommen?
Mich hat fasziniert, wie sich die Nutzung von KI-Systemen verändert. Ich habe in meinem Umfeld, aber auch in den Medien in der letzten Zeit verstärkt wahrgenommen, dass Menschen von einer rein sachlich-produktiven Nutzung von generativer KI in manchen Fällen zu einer emotional-intimen Nutzung übergehen. Manche fragen Chatbots inzwischen um Rat in privaten Dingen, andere nutzen sie als psychotherapeutische Hilfe oder schaffen sich über KI-Companions virtuelle Freunde und Partner. Das fand ich faszinierend und wollte gerne mehr darüber erfahren.
Was reizt dich an dieser Fragestellung und den potenziellen Antworten?
Ich finde es immer interessant, wenn eine Technologie sich aus einer Nische für einige wenige zu einem größeren Phänomen entwickelt. Ich war durch Zufall in San Francisco als im Juni 2007 das erste iPhone auf den Markt kam und habe mir – aus reiner Neugier – eins gekauft. Ich weiß noch, wie ich die ersten zwei Jahre immer wieder gefragt wurde, was ich eigentlich damit machen würde. Und ich hatte anfangs auch keine wirklich gute Antwort darauf – denn man konnte anfangs ja wirklich nicht so viel damit machen. 18 Jahre und Milliarden App-Downloads später können wir uns ein Leben ohne Smartphone nicht mehr vorstellen. Damals war schwer abzusehen, welche gesellschaftliche Dynamik und welche Folgeentwicklungen das Smartphone auslösen würde – ähnlich verhält es sich heute mit KI. Ich weiß nicht, ob emotionale KI-Nutzung ähnlich stark unser Leben und unsere Gesellschaft verändern wird. Aber ein Randphänomen, das nur ein paar kuriose Einzelfälle betrifft, ist es definitiv auch nicht mehr.
Wo siehst du die Relevanz dieses Themas?
Gefühle sind einer der letzten Bereiche, bei denen wir Menschen noch davon ausgehen, dass sie uns von "den Maschinen" und damit auch von KI-Systemen unterscheiden. Beim Rechnen, beim Fliegen von Flugzeugen und immer öfter auch beim Lesen und Schreiben lassen wir inzwischen den Maschinen den Vortritt. Aber was passiert, wenn sich immer mehr Menschen dazu entscheiden, sich auch der Hilfe von Maschinen zu bedienen, wenn es ums Zuhören, um Empathie, um Trauerbewältigung oder den Wunsch nach emotionaler Nähe und/oder Sex geht?
Welche Gedankenprozesse, Recherchearbeiten, etc. sind denn bisher (vor deinem Start als JIR und seit du hier bist) gelaufen und (wie) hat sich dein Blick auf deine Fragestellung dadurch verändert?
Vor meinem Start als JIR habe ich vor allem angefangen, viel zu dem Thema zu lesen. Seit ich in Tübingen bin, konnte ich dann wiederum viele gute und ergiebige Gespräche führen, bei denen ich schon viel gelernt habe. Nur ein Beispiel: Es geht in den Bereichen Emotionserkennung aus Sprach- oder Videosignalen schon deutlich mehr, als ich es vorher gedacht hätte. Gerade bei solchen Themen ist ein Gespräch mit Fachleuten oft aktueller und aufschlussreicher als ein Buch, das vor einigen Jahren erschienen ist.
Daran anknüpfend: Du hast bei deinem Antrittsvortrag zehn Fragen formuliert, mit denen du in deine Residency startest. Wie kam dieser Fragenkatalog zustande?
Ich habe versucht, das weite Thema auf konkrete Fragestellungen herunterzubrechen. Auch um zu zeigen, welche unterschiedlichen Fachrichtungen – von Psychologie über Ethik oder Linguistik bis zu KI-Grundlagenforschung – damit verknüpft sind.
1: Können KI-Systeme tatsächlich Emotionen von Menschen zuverlässig erkennen und deuten?
2: Können KI-Systeme Emotionen und Empathie simulieren?
3: Können KI-Bots einsamen Menschen helfen?
4: Können KI-Systeme therapeutische Hilfe in psychischen Krisensituationen liefern?
5: Können Maschinen auch ZU empathisch sein?
6: Wie groß ist das Risiko von emotionaler Manipulation durch KI?
7: Welche Geschäftsinteressen sind mit emotionaler KI-Interaktion verknüpft?
8: Wie gesund sind romantische Verhältnisse zu einer Künstlichen Intelligenz?
9: Wie können wir gute und sichere emotionale Interaktionen mit KI-Systemen zu gewährleisten?
10: Was kann ich als Journalist beitragen?
Hast du eine Prognose, wo sich vielleicht noch weitere Fragen ergeben werden bzw. gibt es Aspekte dieses Themas, die bisher für dich noch nicht präsent waren, bei denen sich jetzt aber schon abzeichnet, dass sie eine Rolle für deine Fragestellung spielen werden?
Auch hier nur ein Beispiel von mehreren: Den Aspekt "Afterlife AI" hatte ich vorher nicht so richtig im Blick. Also Menschen, die durch generative KI quasi wiederauferstehen, weil man das KI-System mit Material (sei es Text, Ton, Foto oder Video) gefüttert hat. Das können Privatpersonen sein, die sich noch zu Lebzeiten vor eine Kamera setzen, um geeignetes Material für eine Afterlife-KI zu erstellen. Aber auch tote Politikerinnen oder Politiker, die anhand früherer Reden im Wahlkampf reanimiert werden, um die Emotionen ihrer früheren Anhänger anzusprechen und Stimmen zu sammeln. Wo da die ethischen Grenzen verlaufen, finde ich eine interessante Frage.
Was erhoffst du dir von der Zeit hier?
Als Journalist – insbesondere als Freiberufler – stehe ich normalerweise unter recht hohem Effizienz- und Verwertungsdruck. Recherchen dürfen nicht länger dauern als nötig, zumindest sollten sie das nicht zu oft. Die Möglichkeit, mich drei Monate lang intensiv mit einem Thema zu beschäftigen und mich mit Expertinnen und Experten dazu auszutauschen, empfinde ich als großes Privileg.
Für den zweiten Teil des Interviews haben wir uns gegen Ende des JIR-Aufenthaltes von Christoph Koch Ende Dezember noch einmal mit ihm getroffen. Vor diesem Hintergrund hat uns besonders interessiert, zu welchen Erkenntnissen er in seiner Recherche gekommen ist und welches Resümee er für seine Residency in Tübingen zieht.
Lieber Christoph, schön dich wieder zu sehen. Deine Zeit als Journalist-in-Residence neigt sich dem Ende zu. Wie blickst du darauf zurück und kannst du schon ein (vorläufiges) Resümee ziehen?
Es war eine sehr inspirierende Zeit für mich. Sowohl am Cyber Valley und RHET AI, als auch in Tübingen allgemein. Ich habe hier wertvolle Kontakte knüpfen und wertvolle Gespräche führen können. Das war wiederum auch die Hoffnung, mit der ich in das Programm gestartet bin. Was mich darüber hinaus sehr gefreut hat, war zu merken, dass ich während der drei Monate hier auch wirklich Zeit zur eigenen Recherche hatte, und mehr Bücher zu dem Thema lesen konnte als sonst in einem ganzen Jahr. Es war außerdem wirklich schön, Teil dieses Netzwerks hier zu sein. Es haben sich Menschen bei mir gemeldet, die meine journalistische Perspektive für ihre Projekte interessierte und es hat mich sehr gefreut, meinen Input geben zu können. Damit hätte ich zu Beginn nicht gerechnet und das war eine schöne Überraschung für mich.
Als Resümee könnte man sagen, dass ich auf jeden Fall gemerkt habe, dass das Thema der emotionalen KI-Nutzung sehr, sehr viele Menschen beschäftigt. Es ist ein gesellschaftlich hoch relevantes Thema. Ich bin auf viel Interesse gestoßen und die Bedeutung des Themas hat sich in den drei Monaten nicht erschöpft, sondern hat sich immer wieder als relevant erwiesen.
Bevor wir inhaltlich tiefer einsteigen: Hast du Antworten auf die zehn Fragen gefunden, mit denen du in die Zeit hier gestartet bist?
Auf manche ja. Auf manche nicht, denn zum einen ist generative KI und ihre emotionale Nutzung noch ein sehr junges Phänomen und zum anderen entwickelt sich die Technik quasi wöchentlich weiter. Aber es sind viele neue Fragen dazugekommen.
Gibt es eine Antwort, die für dich heraussticht und besonders verblüffend war, etwa weil du nicht mit ihr gerechnet hättest?
Ja. Das hat zwar nur am Rande etwas mit meinem Recherchethema zu tun, aber was mich kalt erwischt hat, war von Expert:innen zu hören, dass durch und duch Explainable AI – also, dass wir genau wissen, warum ein KI-System zu einem bestimmten Ergebnis kommt – nicht mehr möglich ist. Die Systeme sind mittlerweile so komplex und es sind so viele Parameter integriert, dass wir es schlichtweg nicht mehr genau wissen können. Das bedeutet im Umkehrschluss nicht, dass wir uns nicht weiterhin um eine gewisse Transparenz der Systeme bemühen sollten. Doch dieses Idealbild: Wir verstehen genau, was in dem System passiert und warum genau welcher Output zustande kommt – also genau die Rechenwege des Systems zu rekonstruieren – das mittlerweile ist eine Illusion.
Für mein Recherchethema ist das natürlich auch eine große Herausforderung, da man in diesem sensiblen Arbeitsfeld ja sicherstellen können muss, dass KI-Systeme keine schlechten Ratschläge oder Halluzinationen einem Menschen ausgeben, der beispielsweise gerade in einer psychischen Krisensituation ist.
Dann fragen wir dich jetzt mal ganz frei heraus: Inwiefern können KI-Systeme als emotionale Ansprechpartner:innen dienen? Wie sieht die Zukunft in diesem Aspekt aus?
Meine Recherche hat mir gezeigt, dass viele Menschen bereits KI-Systeme als emotionale Ansprechpartner:innen nutzen. Viel mehr, als wir wahrscheinlich oft annehmen. Konkrete Zahlen dazu gibt es leider noch sehr wenig, bezieungsweise schwanken sie stark. Es ist ja auch ein sensibles Thema, über das viele Leute vielleicht nicht so gerne sprechen.
Tatsächlich gibt es aber schon erste Studien, zum Beispiel das Thema Einsamkeit betreffend. Das ist ja ein gesellschaftlich sehr relevantes Thema, wir sprechen mittlerweile ja sogar von einer "Einsamkeitsepidemie". Hier haben Studien gezeigt, dass es erstmal sehr wirksam ist, wenn Menschen sich einsam fühlen und dann mit einem Chatbot kommunizieren. Das Einsamkeitsgefühl lindert sich etwa gleichwertig zu einem Gespräch mit einem anderen Menschen und deutlich stärker, als wenn beispielsweise ein YouTube-Video geschaut wird. Allerdings ist der Effekt nicht langanhaltend. Kurzfristig kann es also sehr wirksam sein, mit einem KI-Chatbot zu kommunizieren, aber an der Ausgangssituation ändert sich nichts. Bei romantischer Interaktion mit Chatbots spielt Einsamkeit hingegen eine überraschend geringe Rolle. Hier zeigte eine Studie, dass vielmehr Menschen mit starker romantischer Vorstellungskraft bzw. der Fähigkeit zu romantischen Fantasien die Nähe zu einem Chatbot suchen.
Welche Chancen und Risiken birgt der Einsatz von KI-Systemen als emotionale Ansprechpartner:innen?
Eine Chance ist natürlich erstmal Hilfe anbieten zu können und das eben rund um die Uhr verfügbar und flexibel. Auf der Seite der Risiken ist das Thema der Unberechenbarkeit ein großes. Darüber hinaus die Frage, was KI-Systeme mit dieser Über-Empathie, die entsteht, wenn KI-Systeme ihrem Training nach immer erstmal die Nutzer:innen bestätigen sollen, bei Menschen ausrichten, die vielleicht gerade keine Bestätigung ihrer Weltsicht hören sollten, weil sie sich eben in einer psychischen Krisensituation befinden. Das gilt vor allem für generative KI-Systeme. Bisher werden deshalb vor allem regelbasierte Systeme als emotionale Ansprechpartner:innen eingesetzt. Die sind aber wiederum weniger flexibel, müssen manchmal verschrieben werden und sind deshalb oft einfach nicht das, was die breite Masse verwendet, die dann eher auf generative KI-Systeme wie ChatGPT, Gemini oder ähnliche zurückgreift.
KI-Systeme sollen ja beispielsweise den Therapieplatzmangel oder die Auswirkungen der Loneliness Epidemic ausgleichen. Wie schätzt du da die Möglichkeiten ein und welche Folgen siehst du für die Gesellschaft und Gemeinschaft, wenn wir solche systematischen Probleme in der Lösung an KI-Systeme auslagern?
Da habe ich ein konkretes Beispiel, an dem man die Frage ganz gut beantworten kann. Ich war im Zuge meiner Recherche in Albershausen in einem Seniorenheim, das einen Social-Bot dort testet. Mit dem können die Bewohner:innen interagieren, der erzählt Witze, führt Gespräche, etc. und wird von den meisten Bewohner:innen auch gut angenommen. Allerdings bietet er für das Personal keine Arbeitserleichterung, weil er von ihnen herumgetragen und manchmal gewartet werden muss. Da habe ich mich gefragt, wäre es nicht viel hilfreicher ein System mit passender Hardware zu entwickeln, das die Betten macht und den Mitarbeitenden so wieder mehr Zeit ermöglicht, mit den Bewohner:innen zu interagieren? Das ist in der Konstruktion aber aufwendiger, als ein generatives KI-System in ein Plastikgehäuse zu packen und deshalb gibt es einen Betten-Roboter eben auch noch nicht.
Die größere Frage, die an diesem Beispiel hängt, ist eben: Delegieren und lagern wir gerade die falschen Aufgaben an KI-Systeme aus? Zur Überbrückung können die erstmal hilfreich sein, aber das Ziel sollte natürlich sein, Versorgungslücken zu schließen und systematische Probleme wirklich zu lösen.
Welche ethischen Implikationen und Konsequenzen hat es, wenn wir gewinnorientierte Tech-Unternehmen mit der Aufgabe betrauen, emotionale Ansprechpartner:innen zu entwickeln und zu hosten? Siehst du da Lösungsansätze?
Das Problem besteht auf jeden Fall. Die Technologie konzentriert sich, wie auch schon vorher im Tech-Bereich, in sehr wenigen Händen, die fast alle in den USA sitzen, einige wenige vielleicht noch in China. Das sind Konzerne, die hohe Gewinnerwartungen haben. Durch die vielen Investitionen, die in KI-Entwicklung geflossen sind, liegt da ein enormer kommerzieller Druck auf den Unternehmen und das merkt man den Produkten auch an. Die Verweildauer etwa soll möglichst hoch sein, weshalb es zu diesen permanenten Rückfragen in der Nutzung generativer KI-Systeme kommt. Die Produkte sollen sich fest in den Alltag eingraben und Gewohnheiten schaffen und damit eben "sticky" sein.
Wie problematisch das sein kann, haben wir ja schon durch die Entwicklung von Social Media gesehen und bei KI-Systemen bewegt sich das momentan in eine ähnliche Richtung. Das halte ich für ethisch sehr fragwürdig und besorgniserregend.
Die Frage nach Lösungen ist schwierig. Eigentlich war der Ansatz sinnvoll, mit dem OpenAI ursprünglich mal gestartet ist – nämlich als nicht-gewinnorientierter Gegenentwurf zu den damals dominanten KI-Playern wie Google. Leider hat sich das aber komplett verschoben. Eine wirklich gemeinwohlorientierte Firma ohne Gewinnerwartungen, die nur die Interessen der Nutzer:innen verfolgt und sicher ist, wäre für diese sensiblen Themenbereiche natürlich ideal. Ob das aber eine vollkommene Utopie ist, oder zumindest in Teilen erreichbar, ist die Frage.
Welche Guidelines, Legal Frameworks und Formen von Governance braucht es im Umgang und Einsatz von KI für diese sensiblen Themenfelder?
Es braucht sie auf jeden Fall. Momentan sind die meisten AI-Companion-Apps nicht reguliert und fallen meines Wissens auch nicht in den AI-Act. Es wird gerade darüber nachgedacht im Zuge der Debatte um eine Altersgrenze für Social Media, die auch auf AI-Companions auszuweiten. Aber da bleibt natürlich fraglich, wie effektiv das ist. Ich denke es ist sehr wichtig, diese sensiblen Themenfelder zu schützen. Nicht jede:r darf Psychotherapie anbieten, das ist zu Recht reguliert und sollte bei KI-Systemen nicht anders sein, da sehe ich großen Handlungsbedarf.
Du hast u. a. auch mit Anwender:innen gesprochen. Welche Erkenntnisse nimmst du aus diesen Gesprächen mit? Was berichten Menschen, die KI-Systeme als emotionale Ansprechpartner:innen verwenden?
Was mir Menschen häufig gespiegelt haben ist, dass sie den urteilsfreien Raum schätzen und in KI-Systemen Ansprechpartner:innen sehen, denen sie gefahrlos und offen das sagen können, was sie sagen wollen. Darüber hinaus wird den Systemen eine überraschend große Objektivität zugeschrieben. Wir haben während meiner Zeit hier einen Workshop mit Anwender:innen durchgeführt und das war sehr wertvoll für mich, dort hören und nachfragen zu können, wie und weshalb Menschen sich KI-Systemen als emotionalen Ansprechpartner:innen öffnen. Was sich ganz klar abzeichnet, ist, dass AI-Companion Apps im Vergleich zu den gängigen generativcen Sprachmodellen noch eher wenig verwendet werden.
Wie nimmst du den Diskurs zu dem Thema wahr? Gerade wird allgemein immer mehr Kritik zu KI laut. Wo siehst du da deine Rolle als Journalist, vor allem auch nach deiner Zeit hier?
Im Diskurs befinden wir uns, denke ich, gerade in einer Phase der großen Entzauberung dieser Technologie und es dominieren eher negative Sichtweisen, die vieles vermischen. Da geht es dann querbeet um Dinge wie Datenschutz, Arbeitsplätze, Umweltfragen und die wirtschaftliche Frage, ob und wann die KI-Bubble platzt. Das überträgt sich selbstverständlich auch auf die emotionale Nutzung von KI-Tools, die teilweise sehr dämonisiert wird. Ein kritischer Blick hat sicher auch seine Berechtigung, dennoch sollte man sich vor einer zu großen Überheblichkeit in Acht nehmen – denke ich – insbesondere den Anwender:innen gegenüber.
Für den Journalismus sehe ich die Aufgabe, den Diskurs immer dann einzufangen, wenn er übersteuert – egal in welche Richtung – und Standpunkte immer wieder einzuordnen. Wir müssen Kritik klar benennen und trotzdem offen bleiben für die Chancen.
Haben sich für dich neue Fragen ergeben?
Eine Frage, die mich sehr beschäftigt, ist, ob wir durch die emotionale Nutzung von KI-Systemen empathischer werden oder Empathie verlernen? Dazu existiert noch kein wissenschaftlicher Konsens und denkbar wäre beides. Vielleicht bleibt das am Ende auch etwas, das von Person zu Person und System zu System variiert.
Wie geht es für dich mit dieser Recherche jetzt weiter?
Es ist ein Thema, das mich sehr interessiert, aber eben auch auf breite öffentliche Resonanz stößt und viele andere Menschen ebenfalls zu interessieren scheint. Dementsprechend wird es mich auch noch weiter beschäftigen und ist nach meinem Aufenthalt hier nicht abgeschlossen. Am 29. Januar halte ich noch meine Abschlusspräsentation und darüber hinaus werde ich in den nächsten Wochen auch noch weiter in Kontakt mit einigen Expert:innen bleiben und Gespräche führen.
Vielen Dank Christoph, dass du uns so tiefgehende Einblicke in deine Arbeit hier bei uns gegeben hast. Wir sind gespannt, wie es für dich mit den Erkenntnissen und Erfahrungen aus Tübingen weitergehen wird.
Wer nochmals aus erster Hand über Christoph Kochs Zeit als Journalist-in-Residence erfahren will und Interesse hat, mit ihm ins Gespräch zu kommen, ist herzlich eingeladen, an seiner Abschlusspräsentation am 29. Januar 2026 teilzunehmen. Sie wird ab 17:00 im Tübinger Max-Planck-Institut für Intelligente Systeme im Max-Planck-Ring 4 stattfinden. Die Anmeldung zur Abschlusspräsentation ist hier möglich.