Künst­li­che In­tel­li­genz: Er­kl?­run­gen ge­mein­sam ent­wi­ckeln

 |  ForschungSonderforschungsbereicheTransferKünstliche IntelligenzPressemitteilungTRR 318 - Erkl?rbarkeit konstruierenFakult?t für Kulturwissenschaften

Nach vier Jahren intensiver Forschung zieht der Sonderforschungsbereich/Transregio 318 ?Constructing Explainability“ zum Ende der ersten F?rderphase durch die Deutsche Forschungsgemeinschaft (DFG) Bilanz. Im Interview teilen die beiden Sprecher*innen, Prof. Dr. Katharina Rohlfing und Prof. Dr. Philipp Cimiano, zentrale Erkenntnisse mit: Was haben sie darüber gelernt, wie künstliche Intelligenz (KI) Dinge erkl?rt? Welche Herausforderungen brachte es mit sich, Forschende aus unterschiedlichen Disziplinen zusammenzubringen? Und wie hat der technologische Fortschritt, etwa durch gro?e Sprachmodelle wie ChatGPT, ihre Arbeit ver?ndert?

Im Sonderforschungsbereich/Transregio 318 erforschen Wissenschaftler*innen der Universit?ten Bielefeld und Paderborn, wie künstliche Intelligenz verst?ndlich und erkl?rbar wird und wie Nutzer*innen aktiv in den Erkl?rprozess eingebunden werden k?nnen. Unter dem Titel ?Constructing Explainability“ arbeiten Forschende aus unterschiedlichen Disziplinen in 20 Projekten und sechs Synthesegruppen zusammen. Die erste F?rderphase l?uft noch bis Jahresende.

1. Was waren die wichtigsten neuen Erkenntnisse zur Erkl?rbarkeit in der KI?

Katharina Rohlfing:
Ein zentraler Punkt unseres Ansatzes ist die Annahme, dass aktuelle ?explainable AI“-Systeme einen grundlegenden Fehler haben: 365体育_足球比分网¥投注直播官网 behandeln Erkl?rungen als Einbahnstra?e. Das hei?t, die Maschine erkl?rt, die Person h?rt zu. Unsere Forschung hat dazu beigetragen, den bzw. die Erkl?rungsempf?nger*in als Adressat*in der Erkl?rung sichtbar zu machen, denn im echten Leben ist Verstehen ein wechselseitiger Prozess: Menschen sprechen miteinander, stellen Rückfragen, nicken, schauen verwirrt oder gestikulieren, um zu zeigen, ob sie etwas verstanden haben. Aus diesem Grund haben wir ein neues Rahmenwerk entwickelt, das Erkl?ren als einen wechselseitigen Prozess betrachtet, ?hnlich einem Gespr?ch, das sich im Laufe der Zeit entwickelt und von den Beteiligten gemeinsam gestaltet wird. Wir bezeichnen diese Systeme, die gem?? unserem Rahmenwerk entwickelt wurden, als ?Social Explainable AI“ oder sXAI. 365体育_足球比分网¥投注直播官网 passen ihre Erkl?rungen in Echtzeit an die jeweilige Person an, je nachdem, wie diese reagiert oder was sie für relevant h?lt.

2. Wie haben 365体育_足球比分网¥投注直播官网 getestet, ob dieses Modell tats?chlich funktioniert?

Katharina Rohlfing:
Wir haben echte Gespr?che genau untersucht, zum Beispiel wie Menschen in allt?glichen Situationen Dinge erkl?ren. Dabei haben wir gesehen, dass Erkl?rungen zwar oft mit einem Monolog beginnen, der ?Explainee“, also die Person, die eine Erkl?rung erh?lt, aber in der Regel aktiv beteiligt ist: 365体育_足球比分网¥投注直播官网 stellt Nachfragen, wirkt verwirrt oder signalisiert ihren Fortschritt im Verst?ndnis. Das bedeutet: Erkl?ren ist oft ein Dialog, kein Monolog.

Bei einer genaueren Analyse des Erkl?rprozesses haben wir auch untersucht, wie Menschen Sprache und Gesten nutzen, um zu zeigen, was sie verstehen und was weiter ausgeführt werden muss. Wir haben bestimmte Muster identifiziert, die zeigen, wie Menschen gemeinsam Verst?ndnis aufbauen. Au?erdem haben wir untersucht, wie sie sich gegenseitig ?scaffolden“, also schrittweise Unterstützung geben – wie ein tempor?res Gerüst, das jemandem beim Hinaufklettern hilft. Zum Beispiel kann man erst anleiten, wie man etwas tut, und dann erkl?ren, was man vermeiden sollte. Negative Instruktionen k?nnen ein hilfreiches Gerüst sein.

Philipp Cimiano:
Unsere rechnergestützte Arbeit besch?ftigte sich damit, unser Rahmenkonzept in KI-Systeme zu implementieren. Diese Systeme reagieren auf die Person, der sie etwas erkl?ren. 365体育_足球比分网¥投注直播官网 berücksichtigen drei zentrale Aspekte: Kooperation (wie gut die Interaktion funktioniert), soziale Angemessenheit (wie passend sich das System verh?lt) und Verstehen. Ein gutes Beispiel ist das im Projekt A01 entwickelte System SNAPE. Es ist sensibel gegenüber den Reaktionen einer Person und passt seine Erkl?rung entsprechend an. Es gibt also nicht jedem die gleiche Erkl?rung, sondern individualisiert sie je nach Situation.

3. Haben 365体育_足球比分网¥投注直播官网 neue Methoden entwickelt, um Erkl?rungen effektiver zu untersuchen?

Philipp Cimiano:
Ja, wir haben neue Wege gefunden, um besser zu untersuchen, wie Erkl?rungen funktionieren. Zum Beispiel haben wir neue Instrumente entwickelt, um zu messen, ob jemand durch eine Erkl?rung etwas verstanden hat oder verwirrt zurückbleibt. Und wir haben unsere Untersuchungen nicht nur auf das Labor beschr?nkt. Uns war es wichtig, zu sehen, wie Erkl?rbarkeit im Alltag wirkt, bei verschiedenen Menschen in unterschiedlichen Situationen. Zum Beispiel haben wir gefragt, welche Art von KI-Systemen sie t?glich nutzen und ob sie sich Erkl?rungen zu deren Funktionen wünschen würden.

Katharina Rohlfing:
Unser Ziel war es, zu untersuchen, wie sich Verstehen entwickelt – nicht nur, ob es geschieht. Deshalb haben wir eine Methode eingeführt, bei der die Teilnehmenden zurückblicken und ihre ?Aha-Momente“ beschreiben – also jene Schlüsselmomente, in denen ihr Verst?ndnis einen Wendepunkt erfuhr. Diese Momente haben wir ins Zentrum unserer Analyse gestellt. Eine weitere Methode war die Gestaltung spezieller 365体育_足球比分网¥投注直播官网s, in denen Menschen und KI gemeinsam Erkl?rungen erarbeiten. Diese neuen Methoden helfen uns, tiefere Einblicke zu gewinnen, nicht nur in den Prozess des Erkl?rens und Verstehens, sondern auch darin, wie man ihn f?rdern kann und wann Erkl?rungen wirklich hilfreich sind.

4. Was war in der ersten F?rderphase besonders herausfordernd?

Philipp Cimiano:
Die gr??te Herausforderung war es, Menschen aus sehr unterschiedlichen Fachrichtungen wie Informatik, Linguistik oder Psychologie zusammenzubringen. Jede Disziplin hat ihre eigene Denk- und Ausdrucksweise. Deshalb mussten wir zun?chst eine gemeinsame Sprache entwickeln.

Eine weitere gro?e Herausforderung stellte die Ver?ffentlichung von ChatGPT dar. Diese hat viele Forschungsarbeiten im Bereich der Technologieentwicklung stark ver?ndert und allen Nutzer*innen neue M?glichkeiten er?ffnet. Deshalb haben wir schnell eine Arbeitsgruppe gegründet, die sich auf diese neuen Entwicklungen konzentrierte und daraus neue Forschungsprojekte ableitete.

5. Wie gut hat die interdisziplin?re Zusammenarbeit funktioniert?

Katharina Rohlfing:
Ich bin stolz, sagen zu k?nnen, dass wir in vielerlei Hinsicht stark in der Interdisziplinarit?t sind. Innerhalb einzelner Projekte arbeiten Menschen aus verschiedenen Fachrichtungen zusammen. So haben die Projekte eine interdisziplin?re Architektur. Aber wir arbeiten auch projektübergreifend, wie zum Beispiel bei unserem ersten Buch über Social XAI, das dieses Jahr ver?ffentlicht wird. Darüber hinaus arbeiten wir in Gruppen zu aktuellen Themen, die wir für den SFB als relevant betrachten, etwa zu Large Language Models, also gro?en Sprachmodellen. Regelm??ige Treffen wie unsere SFB-Konferenzen, Schreib-Retreats und die sogenannten ?Activity Afternoons“ haben die Zusammenarbeit vermutlich ebenfalls gest?rkt. Natürlich ist es nicht immer leicht, neue Mitglieder in diese etablierte Kultur zu integrieren, aber wir haben Formate geschaffen, die diesen Prozess erleichtern.

6. Welche gro?en Herausforderungen sehen 365体育_足球比分网¥投注直播官网 für die Zukunft?

Philipp Cimiano:
Gro?e Sprachmodelle wie ChatGPT sind leistungsstark, aber sie haben auch Grenzen: 365体育_足球比分网¥投注直播官网 berücksichtigen oft nicht die spezifische Situation. 365体育_足球比分网¥投注直播官网 erkl?ren zwar Dinge, aber sie verstehen nicht wirklich, wer fragt oder warum. In Zukunft brauchen wir Systeme, die sich flexibel an die jeweilige Situation anpassen k?nnen, Systeme, die verstehen, was im Moment relevant ist.

Katharina Rohlfing:
Wir müssen unsere Sichtweise auf Erkl?rbarkeit grundlegend ?ndern. Es reicht nicht, dass ein Output verst?ndlich ist. Systeme müssen Kontexte schaffen, in denen die Interaktion von den Nutzer*innen mitgestaltet werden kann – sodass Menschen nicht nur passiv Informationen empfangen, sondern aktiv mit ihnen umgehen, um zu einem relevanten Verst?ndnis zu gelangen. Das st?rkt die Zusammenarbeit zwischen Mensch und KI und stellt sicher, dass Technologie verst?ndlich bleibt, aber auch nützlich ist.

 

Symbolbild (TRR 318)
Foto (TRR 318): Prof. Dr. Katharina Rohlfing (li.) und Prof. Dr. Philipp Cimiano (re.).

Kontakt

business-card image

Prof. Dr. Katharina Rohlfing

Sonderforschungsbereich Transregio 318

Projektleiterin A01, A05, Z

E-Mail schreiben +49 5251 60-5717