Nach dem Frühstück wird abger?umt: Die leere Milchpackung geh?rt in den Müll, die dreckigen Teller in die Spülmaschine. Für Menschen sind diese Handgriffe selbstverst?ndlich. Was, wenn wir Robotern diese manuellen F?higkeiten auch beibringen k?nnten, etwa so, wie Eltern ihren Kindern etwas beibringen? Ein Zusammenschluss von Wissenschaftler*innen der Universit?ten Bielefeld, Paderborn und Bremen will die Interaktion zwischen Menschen und Maschinen radikal neu denken und Robotern auf natürliche Weise Wissen und manuelle F?higkeiten vermitteln.
Bisher werden Maschinen vor allem darauf programmiert, in Fabriken und Fertigungshallen nur eine einzige Aufgabe auszuführen. Zwar gibt es auch Roboter, die komplexere Dinge erledigen, mit extrem vielen Daten gefüttert und in Laboren komplett vorprogrammiert werden, doch auch hier sind die Aufgabengebiete im Voraus klar definiert. Das Ziel der Wissenschaftler*innen geht darüber hinaus: 365体育_足球比分网¥投注直播官网 wollen einen neuen Weg in der Interaktion zwischen Mensch und Roboter beschreiten, der Roboter dazu bef?higt, sich im Zusammenspiel mit menschlichen Nutzer*innen v?llig neue Aufgaben zu erschlie?en.
Leistungsst?rker als das Gehirn: künstliche neuronale Netze
Diese Flexibilit?t ist eine Eigenschaft von Computerprogrammen, die auf künstlicher Intelligenz (KI) basieren. Solche Programme erfüllen heute bereits komplexe Aufgaben, die mitunter die Kapazit?ten des menschlichen Gehirns übertreffen. Ein Beispiel ist die Technologie des Deep Learning, die datenbasierte Vorhersagen mit künstlichen neuronalen Netzen erm?glicht. Dadurch kann die KI L?sungen für Probleme generieren, auf die menschliche Expert*innen m?glicherweise nicht gekommen w?ren.
Eine Hürde bei dem Einsatz dieser Technologie ist allerdings, dass eine KI keine für den Menschen nachvollziehbare Begründung liefert, warum eine bestimmte Vorhersage getroffen worden ist. Das macht Dialoge schwierig, da die KI auf Nachfragen oft keine sinnvollen Antworten liefern kann. Für die ?bertragung von KI-Technologie auf die Robotik ist dies ein besonderes Problem. Wie kann ein KI-gestützter Roboter also lernen, sich auf die ganz pers?nlichen Anforderungen von Nutzer*innen einzustellen? Die Antwort der Wissenschaftler*innen lautet: wie ein Mensch – mittels Ko-Konstruktion, also dem Lernen durch Zusammenarbeit.
Durch Kooperationen hervorragend aufgestellt
?Die Mensch-Roboter-Forschung ist zukunftsweisend – doch in der Wissenschaft wird Ko-Konstruktion als Leitbild in der Robotik zu wenig adressiert“, sagt Prof. Dr. Philipp Cimiano, Sprecher des Forschungsinstituts für Kognitive Interaktionstechnologie (CITEC) der Universit?t Bielefeld. Er entwickelt den neuen Forschungsansatz gemeinsam mit der Informatikerin Prof. Dr.-Ing. Britta Wrede von der Universit?t Bielefeld, der Psycholinguistin Prof. Dr. Katharina Rohlfing und dem Informatiker Prof. Dr. Axel-Cyrille Ngonga Ngomo von der Universit?t Paderborn sowie den Informatiker*innen Prof. Dr. Michael Beetz und Prof. Dr. Tanja Schultz von der Universit?t Bremen. Die Initiative entwickelt die laufenden interdisziplin?ren Kooperationen der drei Universit?ten weiter und bündelt sie im neuen Zentrum CoAI. CoAI steht für ?Cooperative and Cognition-enabled Artificial Intelligence“ (Kooperative und kognitionsgestützte künstliche Intelligenz).
Im Sonderforschungsbereich/Transregio ?Erkl?rbarkeit konstruieren“ (SFB/TRR 318) gehen Bielefelder und Paderborner Wissenschaftler*innen bereits den kooperativen Praktiken des Erkl?rens auf den Grund – und wie diese im Design von KI-Systemen berücksichtigt werden k?nnen. Gleichzeitig setzen Wissenschaftler*innen der Universit?t Bremen im Sonderforschungsbereich EASE ?Wissenschaft der Alltagsaktivit?ten“ (SFB 1320) Studien dazu um, welche F?higkeiten erforderlich sind, damit Roboter ihr Umfeld und ihr eigenes Handeln verstehen k?nnen – und darauf aufbauend die passenden Entscheidungen treffen. Forschende der Universit?t Bielefeld sind an einem Teilprojekt von EASE beteiligt.
Wenn das Frühstück zur Wissenschaft wird
Die Interdisziplinarit?t sei zentral, sagt Britta Wrede, Co-Leiterin des Projekts ? (?ffentlichkeitsarbeit) im SFB/TRR 318 und erkl?rt, wie die Forschungsschwerpunkte sich erg?nzen: ?Das Team in Bremen verfügt über Roboter, die hochkomplexe Architekturen aufweisen. Diese interagieren zwar mit den Wissenschaftler*innen vor Ort, aber aktuell nicht mit normalen Nutzer*innen. Bielefelder Roboter wie etwa Pepper interagieren mit Menschen, k?nnen aber bislang keine ausgefeilten Handlungen durchführen. In Paderborn wiederum sitzen die Expert*innen für das Prinzip der Ko-Konstruktion, die ihr Wissen um menschliche Interaktion nun auch auf Roboter anwenden werden.“
Im Team der drei Universit?ten kooperieren Forschende aus Informatik, Robotik, Linguistik, Psycholinguistik, Psychologie, Philosophie und Kognitionswissenschaften. Mit einem morgendlichen Küchenszenario bietet sich dem Team im Labor ein besonderes Forschungsfeld: ?Für jede Alltagshandlung gibt es Variationen“, sagt Philipp Cimiano. ?Denn jede*r von uns deckt den Tisch anders oder hat andere Vorlieben. Uns interessieren genau diese Handlungen, die Flexibilit?t mit sich bringen“, sagt Cimiano. Diese Interaktion zwischen Mensch und Maschine ist ein Beispiel dafür, wo KI sinnvoll eingesetzt werden kann – vor allem, wenn diese auch die Methode der Ko-Konstruktion beherrscht. Im CoAI-Zentrum gehe es nun darum, einen gemeinsamen, konvergenten Forschungsansatz zu entwickeln, der es erm?glicht, Ko-Konstruktion über Disziplingrenzen hinweg zu nutzen.
Ko-Konstruktion: zusammen etwas erschaffen
Damit der Roboter eines Tages in der Lage ist, das Frühstücksei nach Wunsch zubereiten zu k?nnen, analysieren die Forscher*innen, wie das Erlernen von F?higkeiten beim Menschen genau funktioniert. Ko-Konstruktion als p?dagogischer Ansatz bedeutet Lernen durch Zusammenarbeit. Für die Psycholinguistin Rohlfing ist diese Interaktion nicht ein bestimmter Moment, sondern baut sich auf: ?Signale werden laufend hin und her gesendet und haben ein st?ndiges Anpassen an das Gegenüber zur Folge. Durch diese Adaptation entsteht zwischen zwei Menschen etwas Neues, das zuvor nicht da war.“ So wird verstanden und gelernt.
Die Ko-Konstruktion kennen wir aus der menschlichen Entwicklung. Bringen Erwachsene Kindern etwas bei, bedienen sie sich der Methode des Scaffolding (Gerüstbaus): ?Ich als Erwachsene übernehme die Rolle des Kindes an manchen Stellen, damit das Kind seinen Teil an anderen Stellen erfüllen kann und so lernt. Nach und nach wird dieses Gerüst an Hilfestellungen abgebaut“, erkl?rt Rohlfing. Die Wissenschaftler*innen untersuchen konkret, wie Menschen anderen Menschen in einem Küchenszenario etwas beibringen: Wie funktioniert Gie?en, Rühren, Schneiden? ?Das geschieht durch Zeigen, Demonstrieren und Pr?sentieren. Damit KI-gestützte Roboter dieses Prinzip nutzen und manuelle F?higkeiten erlernen k?nnen, müssen sie sensitiv für solche Hilfsstrategien gemacht werden.“
Neue Repr?sentationen in der Roboter-Architektur
Auch für die Informatiker*innen ist das Verstehen menschlicher kognitiver F?higkeiten fundamental. ?Sobald der Roboter erfassen kann, was der Mensch will und wozu er selbst in der Lage ist, kann er ihm in der direkten Interaktion helfen“, sagt Michael Beetz, Sprecher des SFB EASE. ?Denn wenn wir keine Idee davon haben, k?nnen wir keine Systeme realisieren, die mit und für den Menschen agieren.“
Das Ziel sei, entsprechend neue technologische Grundlagen für Roboter- und KI-Systeme zu schaffen. ?Dazu bedarf es neuer Architekturen, die all diese Dinge zusammenbringen: Dialog, Aktion, Wahrnehmung, Planung, Reasoning (Schlussfolgern), Allgemeinwissen, Partnermodellierung. Alle diese Aspekte, die notwendig sind für eine andere Qualit?t der Mensch-Maschine-Interaktion“, so Beetz. Mithilfe dieser neuen Repr?sentation im Roboter – dem Verst?ndnis für Menschen, aber vor allem für das Tun, ergeben sich Anwendungsszenarien, die laut den Forschenden eine Grundlage für eine flexible und sinnhafte Interaktion von Robotern und Menschen im Alltag bilden k?nnen.