Der Soziologe Nils Klowait hat ChatGPT angewiesen, ein Computerspiel zu programmieren und wissenschaftliche Aufs?tze zusammenzufassen. Seinen Eindruck von ChatGPT und welche Chancen und Risiken das System mit Künstlicher Intelligenz (KI) für die Gesellschaft birgt, beschreibt er im Interview. Klowait forscht als wissenschaftlicher Mitarbeiter im Projekt ? ?Fagen zu erkl?rbaren Technologien“ des TRR 318 sowie in der Arbeitsgruppe ?Technik und Diverstiy“ unter Juniorprofessorin Dr. Ilona Horwath an der Universit?t Paderborn.
TRR 318: Wie kann ChatGPT die Art und Weise ver?ndern, wie Menschen und Computer miteinander interagieren?
Nils Klowait: Jede*r kann ChatGPT ohne spezielle Kenntnisse nutzen. Wer wei?, wie ein Chat funktioniert, kann voraussichtlich auch ChatGPT verwenden. Der Chatbot ist nicht nur in der Lage, komplexe Anfragen zu analysieren, sondern versteht auch Nachfragen oder Korrekturen. Ich habe ChatGPT kürzlich gebeten, mir einen Programmcode für ein Spiel zu schreiben, in dem eine Katze Hotdogs ausweichen muss – und tats?chlich habe ich einen funktionierenden Code zurückbekommen. ChatGPT konnte mir auf Anweisung auch eine kleine Spielwelt mit B?umen im Hintergrund bauen. Das Ergebnis war ein mausgesteuertes Spiel, erstellt von ChatGPT. Ich selbst habe so gut wie keine Ahnung vom Programmieren und h?tte sicherlich Stunden dafür gebraucht, was ChatGPT in nur wenigen Minuten erstellt hat.
Auch wenn mein Beispiel etwas skurril ist, so zeigt es doch, wie Menschen in gew?hnlicher Sprache mit künstlich intelligenten Systemen kommunizieren k?nnen. ChatGPT ist ein relativ ausgereiftes Beispiel für ein System, das uns bei unserer Arbeit unterstützen kann, da es in der Lage ist, mit einem Ma? an menschlicher Komplexit?t umzugehen – es ist reaktionsf?hig und kooperativ. Wir haben es also mit einer Technologie zu tun, die sich leicht in menschliche Arbeitsabl?ufe integrieren l?sst, vom Bildungssektor bis hin zur politischen Analyse auf h?chster Ebene. Die Zukunft der Arbeit und des Lernens muss mit Blick auf KI neu strukturiert werden.
TRR 318: Welche Probleme und Chancen k?nnten auftreten, wenn ChatGPT in zentralen Bereichen unserer Gesellschaft eingesetzt wird?
NK: Die Technologie, die dahintersteckt, kann sich leicht als Expertin ausgeben, schnell Fake News produzieren und Millionen von Menschen durch Kommentare, E-Mails und subtil ver?nderte Wikipedia-Artikel manipulieren. Nur, wenn wir in KI-Kenntnisse investieren und den Nutzer*innen beibringen, die Funktionsweise und die Grenzen von KI-Systemen zu verstehen, werden wir in der Lage sein, auf diese Herausforderungen zu reagieren. Selbst wenn wir von einer KI-kundigen Bev?lkerung ausgehen, br?uchten wir trotzdem einen starken, flexiblen und reaktionsf?higen Rechtsrahmen als Erg?nzung. Kurz gesagt, wir müssen die Infrastruktur für eine demokratische und ethische KI-Bürgerschaft aufbauen.
Wenn wir von diesem Rahmen ausgehen, haben ChatGPT-?hnliche Technologien ein enormes Potenzial, die Welt zu ver?ndern. Wir machen einen gro?en Schritt in die Richtung, dass die riesige Datenmenge des Internets für normale Menschen zug?nglich wird, nicht nur für Unternehmen wie Microsoft oder Google. Immer mehr Menschen k?nnten damit komplexere, abstraktere und spezialisierte Aufgaben erledigen. Es baut sprachliche und berufliche Barrieren ab und kann bisher benachteiligten Gruppen eine kreative Stimme geben. Aber: Die Systeme sind nicht ?ffentlich zug?nglich – sie geh?ren m?chtigen Unternehmen, die jederzeit beschlie?en k?nnen, den Zugang zu ihren Systemen auf bestimmte Gruppen zu beschr?nken. Es muss ein gr??eres Bewusstsein für die Art und Weise geschaffen werden, wie diese Systeme undurchsichtigen Interessen dienen k?nnen, und wie das Design dieser sprechenden intelligenten Systeme die Art und Weise pr?gen kann, wie wir in naher Zukunft arbeiten, lernen und kommunizieren werden.
TRR 318: Kann Chat GPT auch das Vertrauen in KI st?rken?
NK: ChatGPT ist nicht perfekt. Die jüngsten Skandale um die Implementierung von ChatGPT in die Suchmaschine ?Bing“ zeigen das: Es kann nachweislich falsche Behauptungen über die Welt aufstellen, und es kann manchmal sogar verbal ausf?llig werden, wenn bestimmte Fragen gestellt werden. Viele Nutzer*innen haben wahrscheinlich bereits erkannt, dass ChatGPT nicht zuverl?ssig ist. Ich habe es zum Beispiel gebeten, eine mir bekannte wissenschaftliche Abhandlung zusammenzufassen und es hat eine bewundernswerte Arbeit geleistet und den Text genau und pr?gnant zusammengefasst. Als ich es jedoch angewiesen habe, einen Aufsatz eines Kollegen zusammenzufassen, erfand ChatGPT die Zusammenfassung sowie die unterstützenden Zitate. Ich kann nur vermuten, was die Gründe dafür sind.
Daran sieht man: Die gr??te St?rke von ChatGPT ist auch seine Schw?che: Die einzige M?glichkeit, mit dem System zu interagieren, besteht darin, es als Gespr?chspartner zu behandeln und Fragen zu stellen. Aber wie kann ich den Erkl?rungen eines Systems vertrauen, das sich als unzuverl?ssig und inkonsequent erwiesen hat? Auch wenn die Vermenschlichung das System vertrauenswürdiger erscheinen l?sst, ist es den Nutzer*innen gegenüber nicht rechenschaftspflichtig, und ich bezweifle, dass sein Gespr?chscharakter derzeit als ein Schritt in Richtung Transparenz angesehen werden kann. Allerdings ist bereits zu erkennen, dass sich die Branche des Problems bewusst ist: Microsoft versucht nun in der eigenen Suchmaschine ?Bing“ die Schritte zu den Suchergebnissen aufzuzeigen. Von einer zufriedenstellenden L?sung sind wir jedoch noch weit entfernt. Ich empfinde eine vertrauenswürdig erscheinende KI, die Unwahrheiten produziert, als problematischer als ein System, das für alle offensichtlich nicht zuverl?ssig ist.
Weitere Informationen:
- Link zum Spiel "Cat dodges falling Hot Dogs"