Wissenschaftler der Universit?t Paderborn untersuchen algorithmische Voreingenommenheit
Wenn Menschen argumentieren, kommen nicht selten bewusste oder unbewusste Vorurteile gegenüber Geschlechtern, Ethnizit?ten oder anderen Personengruppen zum Tragen. Man spricht vom sogenannten sozialen Bias. Algorithmen, die Sprachdaten im Kontext Künstlicher Intelligenz verarbeiten, k?nnen diesen Bias übernehmen und sogar verst?rken. Das haben Wissenschaftler der Universit?t Paderborn empirisch belegt. In einer Studie haben sie untersucht, welche Arten von Voreingenommenheit in argumentativen Datens?tzen enthalten sind. Die Forschung findet im Rahmen des Projekts ?Bias von KI-Modellen bei der Informationsbildung" statt, das vom Land NRW seit M?rz 2020 an den Universit?ten Paderborn und Bielefeld gef?rdert wird.
?Anerkannte, wissenschaftlich fundierte Bias-Ma?e zeigen, dass insbesondere junge m?nnliche Personen mit europ?ischen Namen h?ufig positiver dargestellt werden als etwa Menschen mit afroamerikanischen Namen. Das geht aus unseren Daten hervor und ist auf bestimmte Vorurteile zurückzuführen“, erkl?rt Jun.-Prof. Dr. Henning Wachsmuth vom Paderborner Institut für Informatik. Sein Doktorand Maximilian Splieth?ver und er haben für die Studie ?Argument from Old Man’s View: Assessing Social Bias in Argumentation" den Best Paper Award des siebten internationalen 365体育_足球比分网¥投注直播官网s zum Thema ?Argument Mining“ erhalten, u. a. unterstützt von IBM.
Die Wissenschaftler haben Daten aus Online-Portalen wie Debattier- und Diskussionsforen untersucht. Wachsmuth zufolge legen die Auswertungen u. a. nahe, dass M?nner z. B. eher positiv im beruflichen Kontext hervorgehoben werden, w?hrend Frauen h?ufiger in Kombination mit Begriffen aus dem h?uslichen Umfeld in Erscheinung treten.
Die Ergebnisse sollen den Grundstein für einen besseren algorithmischen Umgang mit Vorurteilen in argumentativen Kontexten legen. Dazu Wachsmuth: ?Unser Projekt ist dadurch motiviert, dass KI-Modelle Datenkorrelationen anstelle tats?chlicher Kausalit?ten widerspiegeln. Auch dann, wenn es sich um einen nicht zu rechtfertigenden, nur historisch bedingten Zusammenhang handelt. Beispiele sind eine Vorhersage der Rückfallwahrscheinlichkeit Krimineller auf Basis ihres ethnischen Hintergrunds oder die Empfehlung zur Einstellung einer Person aufgrund ihres Geschlechts. Da KI verst?rkt alle Bereiche der Gesellschaft, Wirtschaft und Wissenschaft durchdringt, kann Bias in KI-Modellen unsere Gesellschaft nachhaltig ver?ndern.“
Die Wissenschaftler der beiden Universit?ten untersuchen deshalb, wie solche Vorurteile in zugrundeliegenden Daten das Lernen und die Konfiguration von KI-Modellen beeinflussen. Ein Fokus der Paderborner Forschung liegt auf Bias in menschlicher Sprache und dessen Auswirkungen auf die Meinungsbildung, zum Beispiel in sozialen Medien. Ziel ist es dabei nicht nur, das Ph?nomen zu erkennen, sondern auch die Auswirkungen auf KI-Modelle zu minimieren, insbesondere auf diejenigen zur automatischen Sprachverarbeitung.
Weitere Informationen: http://argmining2020.i3s.unice.fr
Nina Reckendorf, Stabsstelle Presse, Kommunikation und Marketing