Am kommenden Montag, den 10.07.2023 sprechen Dr. Monika Hanauska und Prof. Annette Leßmöllmann auf der diesjährigen International Pragmatics Association Conference in Brüssel über ihre Untersuchungen rund um das Thema Vertrauen und Künstliche Intelligenz im öffentlichen Diskurs.
Info
Die International Pragmatics Association wurde 1985 gegründet, um die internationale Wissenschaft des Sprachgebrauchs, die Pragmatik, voranzubringen. Auf ihren regelmäßig abgehaltenen Konferenzen sprechen Forschende aus verschiedensten Ländern und nutzen die Gelegenheit für den globalen Austausch. Dieses Jahr tagt die 18. Konferenz am Solbosch Campus der Freien Universität Brüssel. Thema der mehrtägigen Vorträge und Panels ist The shape of interaction: the pragmatics of (a)typicality
Info
Die International Pragmatics Association wurde 1985 gegründet, um die internationale Wissenschaft des Sprachgebrauchs, die Pragmatik, voranzubringen. Auf ihren regelmäßig abgehaltenen Konferenzen sprechen Forschende aus verschiedensten Ländern und nutzen die Gelegenheit für den globalen Austausch. Dieses Jahr tagt die 18. Konferenz am Solbosch Campus der Freien Universität Brüssel. Thema der mehrtägigen Vorträge und Panels ist The shape of interaction: the pragmatics of (a)typicality
Die Wissenschaftlerinnen des Karlsruher Institut für Technik sind Teil der Unit 1 des RHET AI Centers und beschäftigen sich mit der Frage, welche gesellschaftlichen Diskurse um Künstliche Intelligenz geführt werden und welche Narrative und Akteur:innen diese prägen.
Als Beitrag zum Panel The pragmatics of trusting (artificial) other von Prof. Kerstin Fischer der Süddänischen Universität und Dr. Bracha Nir der Universität Haifa soll daher der öffentliche Mediendiskurs über KI in deutschen Pressetexten hinsichtlich seiner Thematisierung von Vertrauen und Misstrauen abgebildet und gleichzeitig der Frage nachgegangen werden, welche Schlüsselwörter an der sprachlichen Konstitution dessen beteiligt sind.
In the public discussion about Artificial Intelligence in German press texts, trust is often addressed literally, i.g.: EU wants to strengthen people’s trust in artificial intelligence (Darmstädter Echo, 2021/04/27), Why Artificial Intelligence (AI) has a trust problem (WELT Online, 2020/12/24) or Moreover, generally available AI that does not reveal itself could increase people’s distrust in technology (SPIEGEL Online, 2018/05/11) [Translation: NK]. These headlines and the respective articles seem to suggest that trust in AI appears to be the prerequisite for self-learning systems to be accepted by people in a wide variety of contexts. But is this the case for every kind of self-learning (i.e., AI) system?
Using a discourse-analytical approach, we examine the question of which AI systems in German public media discourse address trust and mistrust. We identify sub-discourses in which trust is overtly thematized in connection with AI and those in which this is not the case. Does the thematization of trust, e.g., in relation to machine translation play as big a role as in relation to self-driving cars? In which AI sub-discourses is trust often addressed? In addition, we are interested in the question of whether certain keywords such as black box reinforce trust/mistrust in connection with AI. The lexeme blackbox has negative connotations in public discourse, while the term responsible AI in turn acquires positive connotations through the positive-deontic adjective. In our contribution to the panel, we thus aim to map the discourse on AI regarding its thematization of trust/mistrust and at the same time pursue the question of which key words are involved in the linguistic constitution of trust/mistrust.
Eingereicht von Dr. Monika Hanauska, Prof. Annette Leßmöllmann, Dr. Nina Kalwa