Nachdem unsere hilfsbereite Maus Gregor auf der eQualfication offiziell vorgestellt wurde, muss sie nun ihre Fähigkeiten als virtueller Assistent in einer Studie unter Beweis stellen. Im Rahmen des Projektes incluMOVE testen wir den Einfluss des virtuellen Assistenten Gregor auf die Aufmerksamkeit und das Verständnis der Nutzer.

Participant wearing the eyetracking glasses.
Studienteilnehmer mit Tobii Glasses.

Der virtuelle Assistent Gregor führt die Teilnehmer unserer Studie schrittweise durch die einzelnen Arbeitsschritte eines Montageprozesses. Mittels einer Eye-Tracking Brille (Tobii Glasses 2) erfassen wir die Augenbewegungen der Teilnehmer während der Anleitung und Ausführung der Aufgabe. Anschließend werden den Teilnehmern noch einige Fragen gestellt. Beispielsweise, ob sie Gregor als hilfreich oder störend empfanden.

Detailed shot of the electronic parts.
Nahaufnahme der Aufgabe: Eine Leiterplatte wird bestückt.

Die Studie wird mit zwei verschiedenen Nutzergruppen durchgeführt. Die eine Gruppe sind Teilnehmer des Berufs-Bildungs-Bereichs der Femos gGmbH, die andere Gruppe Studenten der Hochschule Offenburg. Die Nutzergruppe der Menschen mit geistiger Behinderung des BBB hat ihre Montageaufgabe mit Gregor exzellent, meist fehlerfrei und mit großer Begeisterung durchgeführt.

A participant is following the workflow explained by a chatbot
Studienteilnehmer der Femos gGmbH.

Unseren Studenten muten wir sogar noch ein bisschen mehr zu: sie müssen zwei unterschiedliche Montageprozesse ausführen, wobei nur einer von Gregor angeleitet wird. Den anderen müssen sie ohne Hilfestellung eigenständig ausführen. Natürlich erfassen wir bei beiden Prozessen die Augenbewegungen der Studenten und es gibt auch eine anschließende Befragung, wie bei den Teilnehmern der Femos gGmbH. Bei der Befragung interessierte uns vor allem der Unterschied zwischen gestütztem und selbstständig bearbeitetem Montageprozess.