Stefanie Klekamp über Lautes Denken bei Usabilitytests

Das UXCamp Schweiz vermittelte wichtiges Wissen

Geschätzte Lesezeit: 4 Minuten

UX steht für User Experience. Im deutschen Sprachraum nennt man UX auch Anwendungserlebnis oder Nutzer-Erfahrung. Es ist ein Kürzel, das eher für Online-Umgebungen, beispielsweise Webseiten oder Apps verwendet wird, das aber zunehmend auch für Produktdesign, immersive Rauminstallationen, nichtvirtuelle Ausstellungen oder Architektur benutzt wird.

UX dreht sich ganz und gar um Menschen. Um Fragen rund um die Personen, die Produkte oder Räume benutzen werden, für die sie entwickelt werden. Sind neue Werkzeuge hilfreich? Bieten sie Mehrwert gegenüber herkömmlichen Ideen? Sind Abläufe selbsterklärend? Wird das Design als schön und emotional ansprechend empfunden? Haben Entwicklungen das Potenzial, von den BenutzerInnen auch langfristig angenommen zu werden?

Rund um den Überbegriff UX haben sich zahlreiche Expertisen entwickelt, die im kreativen Zusammenspiel die bestmögliche Akzeptanz durch BenutzerInnen bewirken sollen. Eine der wichtigsten Komponenten für die Planung einer sinnvollen UX Strategie ist die Einbeziehung der AnwenderInnen – von Anfang an. Bereits im Frühstadium einer Idee können Tests durchgeführt werden, um ihre Tragfähigkeit zu prüfen und eine bestmögliche Umsetzung zu entwicklen. Man sollte mit Testen beginnen, noch bevor man sich an die Ausführung heranwagt.

Testen kann man schlichtweg alles. Namen, Farben, Erscheinungsbild. Ergonomie, Verständnis, emotionale Wirkung. Funktionalität, Geschwindigkeit, Haltbarkeit. Stabilität von Datenbanken ebenso wie mobile Design für Apps, Funktionalität von Smartphones und vieles mehr. Wie testet man richtig?

Wenn man mit Menschen zu tun hat, die Testfragen beantworten und von Menschen angeleitet werden, muss man sich zahlreicher Unschärfen und Fehlerquellen bewusst sein – sowohl bei den Tests selbst, als auch bei deren Auswertung. Über diese Problematik hat Interaktionsdesignerin Stefanie Klekamp beim UXCamp Schweiz in Zürich einen hochspannenden Vortrag gehalten. Sie beschäftigt sich bereits seit 2011 mit wissenschaftlicher Psychologie und präsentierte eine eindrucksvolle Sammlung an Problemstellungen, in denen sie die Vorteile ebenso wie auch die Nachteile vom Testwerkzeug „Lautes Denken“ vorstellte.

Wie der Name schon sagt, wird bei dieser Methode die testende Person dazu angehalten, im Moment der Ausführung einer Tätigkeit über ihre Erfahrungen zu sprechen. Ein Reiz wird aufgenommen und im Arbeitsgedächnis gespeichert. Das Erlebnis wird in Sprache encodiert und verbalisiert. Prinzipiell ist dies die direkteste und unmittelbarste Möglichkeit, Tests über Intuitionen und Gründe für Entscheidungen durchzuführen. Reaktionen kommen von der Testperson selbst in dem Moment, in dem sie die zu testende Umgebung bedient. Doch allein schon durch die Übersetzung von visuellen Signalen in Verstehen und dem Verstehen in Sprache entstehen mögliche Fehlerquellen. Man sieht schneller als man versteht und man versteht schneller als man spricht.

Während der Tests befinden sich die Testpersonen nicht in ihrem natürlichen Umfeld und wissen, dass sie beobachtet werden. Diese Umstände können zum sogenannten „Hawthorne Effekt“ führen, der feststellt, wie stark das Verhalten von Testpersonen von sozialen Faktoren beeinflusst ist. Ihr Wissen, Testperson zu sein, kann Entscheidungen durch den Wunsch nach Anpassung an die soziale Erwünschtheit verzerren. „Ich werde gerade beobachtet – ich verhalte mich so, wie ich glaube, dass es von mir erwartet wird, um mich nicht zu blamieren“. Dazu kommt der sogenannte „Rosenthal-Effekt„, der bezeichnet, wie die Erwartungen der TestleiterInnen unbewusst das Verhalten der Testpersonen manipulieren können. Ist die LeiterIn positiv eingestellt, so kann sich das ebenso auf die Leistung der Tester auswirken, wie wenn sie negativ eingestellt ist. Eine völlig neutrale Haltung, bei der überhaupt nicht eingegriffen wird in das Verhalten der Testpersonen, kann dem entgegenwirken – doch dann fühlen sich die Testpersonen möglicherweise allein gelassen und die Leistung sinkt ab. Unter Umständen wird dann auch die Problemstellung nicht vergleichbar kommuniziert. Dazu kommt der Evaluator Effekt: Die Problembewertung und die Einstufung der Relevanz variieren stark. Auswertungen werden aufgrund bestehender Erwartungen selektiert, gegebenenfalls werden negative Befunde nicht weitergegeben. In einer Usabilitystudie von Erin Friess von 2011 wurde festgestellt, dass Tester keine Erfahrung weitergaben, die deren vorheriger Meinung oder Aussage widersprach.

Was tun? Wenn sogar Lautes Denken als Testmethode so viele Unschärfen und Verzerrungen beinhalten kann, wie soll man dann richtig testen, um aussagekräftige Auswertungen zu bekommen? Stefanie Klekamp empfiehlt, eine gute Teststrategie festzulegen. Vorherige Recherche tut Not, eine klare Fragestellung und Analyse sind wichtig. Das Prototyp-Format muss passend ausgewählt werden, eine Aufgabe muss auch lösbar sein. Letztendlich liegt die größte Validität in dem, was die Nutzer tun – nicht in dem, was sie sagen.

Stefanie Klekamp ist Interaktionsdesignerin mit einem Schwerpunkt auf Grafik und Interface Design. Aktuell ist sie für den Webdienstleister Namics tätig, der auch das UXCamp Schweiz organisierte. Es fand am 24.05.2014 in an der Zürcher Hochschule der Künste statt. Ein herzliches Dankeschön geht insbesondere an Thomas Link und Alexander Zyuzkevich von Namics für ihre gute Organisation und Gastfreundlichkeit.

Teilen Sie Ihre Meinung mit