UX-Forschung

Sechs Kategorien, die Agile- und UX-Herausforderungen endlich greifbar machen

Symbolbild: Reframing Agile & UX Challenges

Kollmorgen, J.; Pilz, J.; Silva da Silva, T.; Thomaschewski, J.; Schön, E.M. (2025): Reframing Challenges in Agile and UX: A New Categorization Approach. In: Schrepp, M. (eds) Design, User Experience, and Usability. HCII 2025. Lecture Notes in Computer Science, vol 15795. Springer, Cham. Doi: 10.1007/978-3-031-93224-3_7 || Download

Zusammenfassung

Agile Entwicklung und UX verfolgen beide das Ziel, bessere Produkte zu schaffen, treffen in der Praxis häufig aufeinander: UX-Aufgaben passen nicht in Sprint-Rhythmen, Zuständigkeiten bleiben unklar, Nutzerbeteiligung kommt zu kurz. Eine Analyse von 86 wissenschaftlichen Artikeln zeigt, dass die heutigen Herausforderungen nicht mehr in das klassische Dreierschema „Process & Practice“, „People & Social“ und „Technology & Artifact“ passen. Die Autorinnen und Autoren haben daher die 28 am häufigsten beschriebenen Probleme neu geordnet und sechs präzisere Kategorien gebildet: „Kommunikation“, „Zusammenarbeit“, „Nutzerbeteiligung“, „Leitlinien“, „Kapazitäten“ sowie „Praxis, Artefakt und Technologie“. Mit dieser feineren Struktur lassen sich Reibungspunkte schneller erkennen, passende Lösungen gezielt auswählen.

Verstehen Sprachassistenten uns wirklich? Neue UX-Studie zeigt, wie man dies wissenschaftlich misst.

Sprachassistenten UX-Studie

Klein, Andreas M.; Kollmorgen, Jessica; Hinderks, Andreas; Schrepp, Martin; Rauschenberger, Maria; Escalona, Maria-Jose (2025): Validation of the UEQ+ Scales for Voice Quality. In: Computer Standards & Interfaces, Vol. 93., Doi: 10.1016/j.csi.2024.103971 || Download

Zusammenfassung

Sprachassistenten wie Alexa, Siri und Google Assistant sind aus dem Alltag vieler Menschen nicht mehr wegzudenken. Doch wie gut ist ihre User Experience (UX) wirklich? Der Artikel untersucht, wie sich die UX-Qualität von Voice User Interfaces (VUIs) messen lässt. Dafür wurden drei neue Skalen für das UEQ+ Framework entwickelt: „Response Behavior“, „Response Quality“ und „Comprehensibility“. Diese Skalen erfassen, wie natürlich sich die Sprachassistenten verhalten, wie präzise ihre Antworten sind und wie gut sie gesprochene Befehle verstehen.

In einer groß angelegten Studie mit 623 Teilnehmer*innen aus den USA und Großbritannien konnte das Forschungsteam zeigen, dass diese Skalen zuverlässig und valide sind. Besonders spannend: Die Ergebnisse zeigen nicht nur Stärken der Systeme, sondern auch klare Verbesserungsmöglichkeiten – etwa bei der Dialogverständlichkeit oder der Datensicherheit. Damit liefert die Studie eine wertvolle Grundlage für die Weiterentwicklung smarter Sprachassistenten.

Verstehen Sprachassistenten uns auch im alltäglichen Kontext?

Sprachassistenten UX-Studie

Klein, Andreas M.; Deutschländer, Jana; Kölln, Kristina; Rauschenberger, Maria; Escalona, Maria-Jose (2024): Exploring the context of use for voice user interfaces: Toward context-dependent user experience quality testing. In: Journal of Software: Evolution and Process, Wiley. Doi: 10.1002/smr.2618 || Download

Topcited

Zusammenfassung

Sprachassistenten wie Alexa, Siri oder Google Assistant sind omipräsent – sei es zur Steuerung von Smart-Home-Geräten, für schnelle Antworten auf Fragen oder als Unterstützung für Menschen mit Einschränkungen. Doch wie gut passen diese Systeme wirklich in den Nutzungskontext der Anwender? Und wie beeinflusst dieser Kontext die Qualität des Nutzererlebnisses?

Dieser Frage widmet sich die Studie, indem sie untersucht, wie, wo und warum Menschen Sprachassistenten nutzen – mit besonderem Fokus auf den Einfluss des Nutzungskontexts. Zehn ausführliche Interviews mit Nutzern, darunter sechs Personen mit Seh- oder motorischen Beeinträchtigungen, zeigen, dass VUIs zwar enormes Potenzial für Barrierefreiheit haben, aber auch klare Schwächen aufweisen. Besonders problematisch ist das Verständnis von Sprache – vor allem bei Akzenten oder Hintergrundgeräuschen. Auch der Datenschutz bereitet Sorgen. Was passiert mit unseren Sprachdaten? Wer hört eigentlich mit?

Doch es gibt Hoffnung! Die Studie hat eine Hierarchische Struktur entwickelt, die zeigt, wie Nutzungskontext und Nutzererlebnis zusammenhängen. Diese könnte die Grundlage für ein intelligentes Bewertungssystem sein, das hilft, Sprachassistenten besser, bedienbarer und inklusiver zu machen.