Er­kl?­run­gen ge­mein­sam ent­wi­ckeln: Neu­er Son­der­for­schungs­be­reich zu künst­li­cher In­tel­li­genz?

 |  Forschung

Die Deutsche Forschungsgemeinschaft (DFG) hat heute die Einrichtung eines neuen Sonderforschungsbereichs/Transregio (TRR) zum Thema ?Erkl?rbarkeit von künstlicher Intelligenz (KI)“ an den Universit?ten Paderborn und Bielefeld bekanntgegeben. In den kommenden vier Jahren wird sie dafür rund 14 Millionen Euro F?rdergelder zur Verfügung stellen. Das stark interdisziplin?r ausgerichtete Forschungsprogramm mit dem Titel ?Constructing Explainability“ (?Erkl?rbarkeit konstruieren“) geht über die Frage nach Erkl?rbarkeit von KI als Grundlage algorithmischer Entscheidungsfindungen hinaus. Der Ansatz f?rdert die aktive Teilnahme der Menschen an soziotechnischen Systemen. Ziel ist es, die Mensch-Maschine-Interaktion zu verbessern, das Verst?ndnis von Algorithmen in den Mittelpunkt zu stellen und dieses als Produkt eines multimodalen Erkl?rprozesses zu untersuchen. Die vierj?hrige F?rderung beginnt am 1. Juli.

Künstliche Intelligenz ist heutzutage fester Bestandteil des modernen Lebens – sie sortiert Bewerbungen aus, begutachtet R?ntgenbilder und schl?gt neue Songlisten vor. Grundlage für solche Prozesse sind algorithmische Entscheidungsfindungen. ?Bürgerinnen und Bürger haben ein Recht darauf, dass algorithmische Entscheidungen transparent gemacht werden. Das Ziel, Algorithmen zug?nglich zu machen, ist Kern der sogenannten eXplainable Artificial Intelligence (XAI), bei der Transparenz, Interpretier- und Erkl?rbarkeit als gewünschte Ergebnisse im Mittelpunkt stehen“, sagt Prof. Dr. Katharina Rohlfing, Sprecherin des neuen Sonderforschungsbereichs. ?Das Problem ist, dass in unserer digitalen Gesellschaft algorithmische Ans?tze wie das maschinelle Lernen rasant an Komplexit?t zunehmen. Die Undurchsichtigkeit ist ein ernsthaftes Problem in allen Kontexten, insbesondere aber dann, wenn Menschen auf dieser undurchsichtigen Grundlage Entscheidungen treffen müssen", fügt Prof. Dr. Philipp Cimiano als stellvertretender Sprecher hinzu. Gerade bei Vorhersagen im Bereich der Medizin oder der Rechtsprechung sei es notwendig, die maschinengesteuerte Entscheidungsfindung nachzuvollziehen, so Cimiano weiter. Zwar gebe es bereits Ans?tze, die die Erkl?rbarkeit entsprechender Systeme zum Gegenstand h?tten, die Erkl?rungen, die dabei entstehen, setzen allerdings Wissen über die Funktionsweise von KI voraus. Was laut Cimiano und Rohlfing fehle, seien Konzepte zur Ko-Konstruktion von Erkl?rungen, bei der die Adressat*innen – also die Menschen – st?rker in den KI-gesteuerten Erkl?rprozess miteinbezogen werden.

Dazu Rohlfing: ?In unserem Ansatz gehen wir davon aus, dass Erkl?rungen nur dann für die Anwender nachvollziehbar sind, wenn sie nicht nur für sie, sondern auch mit ihnen entstehen. In Erkl?rungen unter Menschen sorgt dafür der Austausch zwischen den Beteiligten, die Fragen stellen und Unverst?ndnis ?u?ern k?nnen.“ In einem interdisziplin?ren Team arbeiten Linguist*innen, Psycholog*innen, Medienforscher*innen, Soziolog*innen, ?konom*innen und Informatiker*innen eng zusammen und erforschen die Prinzipien und Mechanismen des Erkl?rens und Verstehens als soziale Praktiken und wie diese in KI-Systemen implementiert werden k?nnen. Darüber hinaus erforscht das Team, wie die Ko-Konstruktion von Erkl?rungen im Zwischenspiel von Mensch und Maschine neue soziale Praktiken etabliert und wie sich diese gesellschaftlich auswirken.

Der Ansatz soll neue Antworten auf gesellschaftliche Herausforderungen im Zusammenhang mit künstlicher Intelligenz liefern. Im Kern geht es dabei um die Teilnahme von Menschen an soziotechnischen Systemen, mit der auch die Informationssouver?nit?t der Nutzer*innen gef?rdert wird. ?Unser Ziel ist es, neue Formen von Kommunikation mit wirklich erkl?rbaren und verstehbaren KI-Systemen zu schaffen und somit neue Assistenzformen zu erm?glichen“, fasst Rohlfing zusammen.

Nina Reckendorf, Stabsstelle Presse, Kommunikation und Marketing

Ein neuer Sonderforschungsbereich der Universit?ten Paderborn und Bielefeld hat die Erkl?rbarkeit künstlicher Intelligenz zum Ziel.
Foto (Universit?t Paderborn): Prof. Dr. Katharina Rohlfing von der Universit?t Paderborn ist Sprecherin des neues Sonderforschungsbereichs.
Foto (Universit?t Bielefeld, Mike-Dennis Müller): Prof. Dr. Philipp Cimiano von der Universit?t Bielefeld ist stellvertretender Sprecher des neuen Sonderforschungsbereichs.

Kontakt

business-card image

Prof. Dr. Katharina Rohlfing

Germanistische und Allgemeine Sprachwissenschaft

Psycholinguistik

E-Mail schreiben +49 5251 60-5717