TRR 318 - Verstehensprozess einer Erkl?rung beobachten und auswerten (Teilprojekt A02)

?berblick

Der Vorstellung von Interaktion als zwischenmenschliche Verhaltensmuster folgend, liegt der Fokus des Projekts A02 auf dem Prozess des Verstehens. Durch das Zusammenführen von Expertise aus Bereichen, die sich mit Multimodalit?t befassen, ist der Ansatz dieses Projekts, verschiedene Ebenen des (Nicht-)Verstehens zu identifizieren und damit zur Implementierung eines engmaschigen ?Monitoring“-Prozesses beizutragen. Diese Implementierung wird ein System hervorbringen, das in der Lage ist, reichhaltige multimodale Signale zu nutzen, um das Verst?ndnis des Benutzers innerhalb eines Erkl?rprozesses zu unterstützen.

Wenn Menschen etwas erkl?rt bekommen, signalisieren sie ihr Verstehen oder Nicht-Verstehen zum einen mit verbalen ?u?erungen und zum anderen mit nichtverbalen Kommunikationsmitteln, wie beispielsweise Gestik und Mimik. Wer nickt, kann der erkl?renden Person verdeutlichen, dass er*sie verstanden hat. Das Nicken kann aber ebenfalls als Aufforderung gemeint sein, mit einer Erkl?rung fortzufahren, und ist im Kontext des Gespr?chs einzusch?tzen. Die Linguist*innen und Computerlinguist*innen untersuchen im Projekt A02, wie Personen – und zukünftig Maschinen – beim Erkl?ren erkennen, dass ihre Gespr?chspartner*innen sie verstehen oder nicht verstehen. Dafür betrachtet das Forschungsteam 80 Dialoge, in denen eine Person einer anderen ein Gesellschaftsspiel erkl?rt. Diese untersuchen die Wissenschaftler*innen auf kommunikative Feedbacksignale, die auf verschiedene Grade des Verstehensprozesses hindeuten. Die Ergebnisse aus den Analysen flie?en in ein intelligentes System ein, das in der Lage sein soll, Feedbacksignale wie Kopfnicken zu erfassen und bezüglich des signalisierten Verstehens zu interpretieren.

Key Facts

Grant Number:
438445824
Art des Projektes:
Forschung
Laufzeit:
07/2021 - 06/2025
Gef?rdert durch:
DFG
Website:
Homepage

Detailinformationen

Projektleitung

contact-box image

Dr. Angela Grimminger

Germanistische und Allgemeine Sprachwissenschaft

Zur Person
contact-box image

Hendrik Buschmeier

Universit?t Bielefeld

Zur Person (Orcid.org)
contact-box image

Petra Wagner

Universit?t Bielefeld

Zur Person (Orcid.org)

Projektmitglieder

contact-box image

Stefan Lazarov, M.A.

Sonderforschungsbereich Transregio 318

Zur Person
contact-box image

Olcay Türk

Universit?t Bielefeld

Zur Person (Orcid.org)
contact-box image

Yu Wang

Universit?t Bielefeld

Kooperationspartner

Universit?t Bielefeld

Kooperationspartner

Publikationen

How much does nonverbal communication conform to entropy rate constancy?: A case study on listener gaze in interaction
Y. Wang, Y. Xu, G. Skantze, H. Buschmeier, in: Findings of the Association for Computational Linguistics ACL 2024, Bangkok, Thailand, 2024, pp. 3533–3545.
Turn-taking dynamics across different phases of explanatory dialogues
P. Wagner, M. W?odarczak, H. Buschmeier, O. Türk, E. Gilmartin, in: Proceedings of the 28th 365体育_足球比分网¥投注直播官网 on the Semantics and Pragmatics of Dialogue, Trento, Italy, 2024, pp. 6–14.
Conversational feedback in scripted versus spontaneous dialogues: A comparative analysis
I. Pilán, L. Prévot, H. Buschmeier, P. Lison, in: Proceedings of the 25th Meeting of the Special Interest Group on Discourse and Dialogue, Kyoto, Japan, 2024, pp. 440–457.
Towards a Computational Architecture for Co-Constructive Explainable Systems
M. Booshehri, H. Buschmeier, P. Cimiano, S. Kopp, J. Kornowicz, O. Lammert, M. Matarese, D. Mindlin, A.S. Robrecht, A.-L. Vollmer, P. Wagner, B. Wrede, in: Proceedings of the 2024 365体育_足球比分网¥投注直播官网 on Explainability Engineering, ACM, 2024, pp. 20–25.
Automatic reconstruction of dialogue participants’ coordinating gaze behavior from multiple camera perspectives
A.N. Riechmann, H. Buschmeier, in: Book of Abstracts of the 2nd International Multimodal Communication Symposium, Frankfurt am Main, Germany, 2024, pp. 38–39.
Alle Publikationen anzeigen