TRR 318 - Constructing Explainability
Overview
In unserer digitalen Gesellschaft nehmen die algorithmischen Ans?tze (wie das maschinelle Lernen) rasant an Komplexit?t zu. Diese erschwert es den Bürger:innen, die Assistenz nachzuvollziehen und die von Algorithmen vorgeschlagenen Entscheidungen zu akzeptieren. Als Antwort auf diese gesellschaftliche Herausforderung hat die Forschung begonnen, selbsterkl?rende Algorithmen zu entwickeln, die darauf abzielen, Erkl?rungen auf intelligente Weise bereitzustellen (XAI). Obwohl solche KI-Systeme, Menschen Erkl?rungen vermitteln k?nnen, ist ihre Interaktion stark eingeschr?nkt, da sie auf der (impliziten) Vorstellung aufbauen, Erkl?rungen würden ?geliefert‘, d.h. Informationen nur bereitgestellt. Das Risiko eines solchen Paradigmas besteht darin, Erkl?rungen zu erzeugen, die nicht auf das Verst?ndnis der Empf?nger zugeschnitten sind—geschweige denn auf ihre Informationsbedürfnisse oder den gegebenen Kontext.Mit dem interdisziplin?ren Sonderforschungsbereich (TRR) stellen wir diese reduktionistische Sichtweise infrage und schlagen ein neues Paradigma der Ko-Konstruktion einer Erkl?rung vor, das zu neuartigen Formen der Interaktion mit Maschinen beitragen wird: Darin nimmt der Mensch aktiv an Erkl?rpraktiken teil, indem er das Ziel und den Prozess mitgestaltet. Unser Ansatz f?rdert die aktive Teilnahme der Menschen an soziotechnischen Systemen und erh?ht so ihre Informationssouver?nit?t. Da ein solcher innovativer Paradigmenwechsel einen interdisziplin?ren Ansatz erfordert, bringt unser vorgeschlagener TRR Linguist:innen, Psycholog:innen, Medienforscher:innen, Soziolog:innen, ?konomen und Informatiker:innen zusammen, die davon überzeugt sind, dass die Erforschung der Mechanismen von Erkl?rbarkeit und Erkl?rungen das menschliche Verst?ndnis in den Mittelpunkt stellen und dieses als Produkt einer kontextualisierten multimodalen Ko-Konstruktion betrachten muss.In unserem Ansatz werden wir den Erkl?rungsprozess als eine Interaktion modellieren, die sich im Verlauf der Zeit entfaltet und die Konstruktion des Erkl?rungsansatzes vorantreibt. Daher werden wir das Explanandum als dynamisches Produkt der Interaktion untersuchen. Dieser Ansatz wird die aktuelle Forschung (in der Informatik) erweitern und neue Antworten auf die oben genannte gesellschaftliche Herausforderung geben, indem er einen Beitrag leistet zur Entwicklung von: (i) einem multidisziplin?ren Verst?ndnis vom Erkl?rungsprozess in enger Kopplung mit dem Prozess des Verstehens und den ihn modulierenden Kontextfaktoren, (ii) Computermodellen und komplexen KI-Systemen, die ihre Erkl?rung effizient für den Partner in einem aktuellen Kontext generieren, und (iii) einer Theorie der Erkl?rungen als soziale Praktiken, die die Erwartungen der Partner und ihre Rollen im kommunikativen Handeln berücksichtigt. Unsere Forschung wird die Grundlagen für erkl?rbare und verstehbaren KI-Systeme legen, die es den Bürger:innen eine aktive und kritische Teilnahme an einer digitalen Gesellschaft erm?glichen.
DFG-Verfahren Transregios
Laufende Projekte
A01 - Adaptive Erkl?rungsgenerierung (Teilprojektleiterinnen / Teilprojektleiter Buhl, Heike M.; Kopp, Stefan; Rohlfing, Katharina)
A02 - Das Verst?ndnis von Erkl?rungen überprüfen und beobachten (Teilprojektleiterinnen / Teilprojektleiter Buschmeier, Hendrik; Grimminger, Angela; Wagner, Petra)
A03 - Ko-Konstruktion von Erkl?rungen mit emotionaler Ausrichtung zwischen KI-Erkl?rer und menschlichem Adressaten (Teilprojektleiterinnen Thommes, Kirsten; Wrede, Britta)
A04 - Integration des technischen Modells in das Partnermodell bei der Erkl?rung von digitalen Artefakten (Teilprojektleiterinnen / Teilprojektleiter Buhl, Heike M.; Kern, Friederike; Schulte, Carsten)
A05 - Kontextualisierte und online Parametrisierung der Aufmerksamkeit im Mensch-Roboter-Erkl?rdialog (Teilprojektleiterinnen Rohlfing, Katharina; Scharlau, Ingrid; Wrede, Britta)
A06 - Ko-Konstruktion sozialer Signale des Verstehens für Inklusives Monitoring (Teilprojektleiterin Drimalla, Hanna)
B01 - Ein dialogbasierter Ansatz zur Erkl?rung von Modellen des maschinellen Lernen (Teilprojektleiterinnen / Teilprojektleiter Cimiano, Philipp; Esposito, Elena; Ngonga Ngomo, Axel-Cyrille)
B03 - Erkundung von Benutzern, Rollen und Erkl?rungen in realen Kontexten (Teilprojektleiterinnen / Teilprojektleiter Horwath, Ilona; Matzner, Tobias)
B05 - Ko-Konstruktion von Erkl?rbarkeit mit einem interaktiv lernenden Roboter (Teilprojektleiterin Vollmer, Anna-Lisa)
B06 - Ethik und Normativit?t der erkl?rbaren KI (Teilprojektleiterinnen / Teilprojektleiter Alpsancar, Suzana; Matzner, Tobias)
C01 - Gesundes Misstrauen in Erkl?rungen (Teilprojektleiterinnen Hammer, Barbara; Scharlau, Ingrid)
C02 - Interaktives Lernen von erkl?rbaren, situationsangepassten Entscheidungsmodellen (Teilprojektleiterinnen / Teilprojektleiter Hüllermeier, Eyke; Thommes, Kirsten)
C03 - Interpretierbares maschinelles Lernen: Ver?nderung erkl?ren (Teilprojektleiterinnen / Teilprojektleiter Hammer, Barbara; Hüllermeier, Eyke)
C04 - Metaphern als Mittel der Erkl?rung (Teilprojektleiterinnen / Teilprojektleiter Scharlau, Ingrid; Wachsmuth, Henning)
C05 - Erstellen von Erkl?rungen in der kollaborativen Mensch-Maschine-Wissensexploration (Teilprojektleiter Cimiano, Philipp; Kopp, Stefan)
C06 - Technisch erm?glichtes Erkl?ren von Sprecher-Eigenschaften (Teilprojektleiterinnen / Teilprojektleiter H?b-Umbach, Reinhold; Wagner, Petra)
INF - Bewertung der Erkl?rungsqualit?t (Teilprojektleiter Cimiano, Philipp; Wachsmuth, Henning)
MGK - Integriertes Graduiertenkolleg (Teilprojektleiterin Scharlau, Ingrid)
Z - Verwaltungsprojekt (Teilprojektleiterin Rohlfing, Katharina)
? - Fragen zur erkl?rbaren Technik (Teilprojektleiterinnen / Teilprojektleiter Horwath, Ilona; Schulte, Carsten; Wrede, Britta)
Antragstellende Institution Universit?t Paderborn
Mitantragstellende Institution Universit?t Bielefeld
Beteiligte Hochschule Ludwig-Maximilians-Universit?t München
Sprecherin Professorin Dr. Katharina Rohlfing
Der von der DFG zum 01. Juli 2021 an den Universit?ten Bielefeld und Paderborn neu eingerichtete Sonderforschungsbereich/Transregio ?Constructing Explainability“ (TRR 318) besch?ftigt sich mit der Fragestellung, wie Transparenz von algorithmischen Entscheidungen, insbesondere durch Black-Box Verfahren der modernen Künstlichen Intelligenz, hergestellt werden kann. Die zentrale Hypothese des TRR 318 ist, dass Erkl?rungen am effektivsten sind, wenn sie von Erkl?rer:in und Erkl?rungsempf?nger:in gemeinsam ko-konstruiert werden. Die Mechanismen dieser Ko-Konstruktion werden in einem interdisziplin?ren Konsortium untersucht, um die Grundlagen für neue Paradigmen der Erkl?rungen in Mensch-Maschine-Interaktion zu schaffen und damit Menschen zur souver?nen und informierten Entscheidungsfindung in Interaktion mit intelligenten Systemen zu bef?higen. Der TRR ist in drei Bereiche gegliedert: A "Explaining", B "Social practice", C "Representing and computing explanations". Die Bereiche wiederum gliedern sich in interdisziplin?re Teilprojekte, an denen insgesamt 21 Projektleiter:innen aus der Linguistik, Psychologie, Medienwissenschaft, Soziologie, Wirtschaftswissenschaft und Informatik der Universit?ten Bielefeld und Paderborn beteiligt sind.
Funding program
Deutsche Forschungsgemeinschaft (DFG, German Research Foundation): TRR 318/1 2021 – 438445824
Key Facts
- Grant Number:
- 438445824
- Project duration:
- 07/2021 - 06/2025
- Funded by:
- DFG
- Subprojects:
-
- TRR 318 - Project Area A
- TRR 318 - Project Area B
- TRR 318 - Project Area C
- TRR 318 - Project Area ?
- TRR 318 - Subproject IRG BI
- TRR 318 - Subproject IRG PB - Developing a symmetric mental models approach
- Administrative project (Z)
- TRR 318 - Project Area INF
- TRR 318 - Project Area RTG - Integrated Research Training Group
- Websites:
-
Homepage
DFG-Datenbank gepris
Projektseite DICE
- Social Media: