Blog

Sechs Kategorien, die Agile- und UX-Herausforderungen endlich greifbar machen

Symbolbild: Reframing Agile & UX Challenges

Kollmorgen, J.; Pilz, J.; Silva da Silva, T.; Thomaschewski, J.; Schön, E.M. (2025): Reframing Challenges in Agile and UX: A New Categorization Approach. In: Schrepp, M. (eds) Design, User Experience, and Usability. HCII 2025. Lecture Notes in Computer Science, vol 15795. Springer, Cham. Doi: 10.1007/978-3-031-93224-3_7 || Download

Zusammenfassung

Agile Entwicklung und UX verfolgen beide das Ziel, bessere Produkte zu schaffen, treffen in der Praxis häufig aufeinander: UX-Aufgaben passen nicht in Sprint-Rhythmen, Zuständigkeiten bleiben unklar, Nutzerbeteiligung kommt zu kurz. Eine Analyse von 86 wissenschaftlichen Artikeln zeigt, dass die heutigen Herausforderungen nicht mehr in das klassische Dreierschema „Process & Practice“, „People & Social“ und „Technology & Artifact“ passen. Die Autorinnen und Autoren haben daher die 28 am häufigsten beschriebenen Probleme neu geordnet und sechs präzisere Kategorien gebildet: „Kommunikation“, „Zusammenarbeit“, „Nutzerbeteiligung“, „Leitlinien“, „Kapazitäten“ sowie „Praxis, Artefakt und Technologie“. Mit dieser feineren Struktur lassen sich Reibungspunkte schneller erkennen, passende Lösungen gezielt auswählen.

Die unsichtbaren UX-Faktoren – Neue Erkenntnisse durch die Repertory Grid Technique

Produktübergreifendes Nutzererlebnis

Kollmorgen, J.; Hinderks, A.; Escalona, M.J.; Thomaschewski, J. (2025): Identification of Cross-Product Experience Factors. In: Schrepp, M. (eds) Design, User Experience, and Usability. HCII 2025. Lecture Notes in Computer Science, vol 15795. Springer, Cham. Doi: 10.1007/978-3-031-93224-3_25 || Download

Zusammenfassung

Der Artikel untersucht, wie mit der Repertory Grid Technique (RGT), einer psychologischen Interviewmethode, neue und bereits etablierte UX-Faktoren identifiziert werden können. Hintergrund ist die Beobachtung, dass bestehende UX-Fragebögen wie der UEQ+ nicht alle relevanten Aspekte abbilden. In 22 Interviews wurden die Produkte Microsoft Teams, Microsoft PowerPoint und Netflix gezielt hinsichtlich Gemeinsamkeiten und Unterschieden verglichen. Daraus entstanden 378 semantische Gegensatzpaare (Konstrukte), die in 63 übergeordnete UX-Faktoren überführt wurden. Neben bekannten Faktoren wie Ästhetik oder Verständlichkeit wurden auch neue, bisher nicht messbare, aber häufig genannte UX Faktoren identifiziert. Beispiele sind Mentale Anforderung, Vielseitigkeit und Entspannung. Die Studie zeigt, dass RGT ein wertvolles Instrument zur Erweiterung bestehender UX-Messverfahren sein kann und hilft, ein umfassenderes Verständnis für Nutzererlebnisse in unterschiedlichen Anwendungskontexten zu entwickeln.

Kontinuierliche UX-Optimierung im E-Commerce – Praxisstudie mit UEQ-S

Symbolbild: UX-Optimierung im Mittelstand

Schaa, M.; Kollmorgen, J.; Thomaschewski, J.; Schrepp, M. (2025): Combining Questionnaires and Usage Tracking to Monitor the User Experience of an e-Commerce Solution. In: Schrepp, M. (eds) Design, User Experience, and Usability. HCII 2025. Lecture Notes in Computer Science, vol 15795. Springer, Cham. Doi: 10.1007/978-3-031-93224-3_11 || Download

Zusammenfassung

Die kontinuierliche Messung der UX startete in einem typischen Webshop als praktischer Test: Lässt sich mit überschaubarem Aufwand herausfinden, wie Kund*innen das digitale Einkaufserlebnis wirklich wahrnehmen? Schon nach kurzer Zeit zeigte sich der Nutzen dieses Ansatzes. Durch die Integration des UEQ-S-Fragebogens direkt nach dem Bestellabschluss und die Kombination mit technischen Nutzungsdaten entstand ein umfassendes Bild.

Die Ergebnisse zeigten schnell, wo die Stärken liegen – etwa bei der einfachen und klaren Bedienung – und an welchen Stellen noch Verbesserungspotenzial besteht. Besonders Desktop-Nutzer bewerten das Einkaufserlebnis konstant positiv, während mobile Nutzer häufiger kleinere Schwächen bemerken. Die Detailanalyse nach Produktkategorien offenbarte, dass gezielte Optimierungen für einzelne Sortimente einen großen Unterschied machen können.

Am Ende bleibt die Erkenntnis: Auch kleine und mittlere Online-Shops können mit pragmatischen, datenbasierten Methoden das Nutzererlebnis ihrer Kund*innen kontinuierlich steigern. Der Mix aus kurzen Fragebögen und Nutzungsanalyse liefert klare Hinweise für konkrete Verbesserungen und hilft dabei, aus einmaligen Käufen dauerhafte Kundentreue zu entwickeln.

Verstehen Sprachassistenten uns wirklich? Neue UX-Studie zeigt, wie man dies wissenschaftlich misst.

Sprachassistenten UX-Studie

Klein, Andreas M.; Kollmorgen, Jessica; Hinderks, Andreas; Schrepp, Martin; Rauschenberger, Maria; Escalona, Maria-Jose (2025): Validation of the UEQ+ Scales for Voice Quality. In: Computer Standards & Interfaces, Vol. 93., Doi: 10.1016/j.csi.2024.103971 || Download

Zusammenfassung

Sprachassistenten wie Alexa, Siri und Google Assistant sind aus dem Alltag vieler Menschen nicht mehr wegzudenken. Doch wie gut ist ihre User Experience (UX) wirklich? Der Artikel untersucht, wie sich die UX-Qualität von Voice User Interfaces (VUIs) messen lässt. Dafür wurden drei neue Skalen für das UEQ+ Framework entwickelt: „Response Behavior“, „Response Quality“ und „Comprehensibility“. Diese Skalen erfassen, wie natürlich sich die Sprachassistenten verhalten, wie präzise ihre Antworten sind und wie gut sie gesprochene Befehle verstehen.

In einer groß angelegten Studie mit 623 Teilnehmer*innen aus den USA und Großbritannien konnte das Forschungsteam zeigen, dass diese Skalen zuverlässig und valide sind. Besonders spannend: Die Ergebnisse zeigen nicht nur Stärken der Systeme, sondern auch klare Verbesserungsmöglichkeiten – etwa bei der Dialogverständlichkeit oder der Datensicherheit. Damit liefert die Studie eine wertvolle Grundlage für die Weiterentwicklung smarter Sprachassistenten.

Ergebnisse der UX-Fragebögen sind stabiler als man denkt

Artikel Stabilität von UX-Fragebögen

Schrepp, Martin; Thomaschewski, Jörg (2024): Response Instability in User Experience Questionnaires. Journal of User Experience. || Download

Zusammenfassung

Die Autoren untersuchen, wie stabil die Ergebnisse von UX-Fragebögen sind, wenn dieselben Teilnehmer:innen den Fragebogen nach 14 Tagen erneut. Die Studie zeigt, dass die Skalenmittelwerte bei ausreichend großen Stichproben stabil bleiben, obwohl individuelle Antworten hohe Schwankungen aufweisen. Die Autoren geben konkrete Empfehlungen, wie diese Instabilität bei der Planung und Interpretation von UX-Studien berücksichtigt werden kann.

Kunden füllen auch längere Fragebögen aus

Artikel Benchmark UEQ-S Vergleich

Schaa, Marco; Kollmorgen, Jessica; Schrepp, Martin; Thomaschewski, Jörg (2024):
Impact of a Split into Single Items on the Response Rate of the User Experience Questionnaire Short (UEQ-S).
|| Download

Zusammenfassung

Die Studie von Marco Schaa et al. (2024) untersucht, wie das Aufteilen des UEQ-S in einzelne Items die Rücklaufquote erhöht und inwiefern dies die Ergebnisse verändert.

Hierzu wurden die Items in einen deutschen Online-Shop integriert und das reale Verhalten von 1.387 Kundinnen und Kunden untersucht.

Das Ergebnis ist, dass die Einzel-Item-Version des UEQ-S die Rücklaufquote um ca. 1% leicht steigert und damit keine wirklichen Vorteile gegenüber der vollständigen Version bietet.

Die perfekte Übersicht zur UEQ-Familie

Artikel Auswahl des geeigneten UX-Fragebogens aus der UEQ-Familie

Kollmorgen, Jessica; Hinderks, Andreas; Thomaschewski, Jörg (2024): Selecting the Appropriate User Experience Questionnaire and Guidance for Interpretation: the UEQ Family. International Journal of Interactive Multimedia and Artificial Intelligence. || Download

Zusammenfassung

Die UEQ-Familie bietet eine flexible Möglichkeit, die User Experience (UX) von Produkten zu messen. Mit den Varianten UEQ, UEQ-S und UEQ+ können unterschiedliche Anwendungsfälle abgedeckt werden. Ziel dieses Artikels ist es, die Vielfalt der verfügbaren Werkzeuge verständlich und zugänglich zu machen, inklusive der Nutzung von Benchmarks, Key Performance Indicators (KPI) und der Importance-Performance-Analyse (IPA).

Hier finden Sie den idealen Einstiegspunkt, um sich in den UEQ, UEQ+ oder UEQ-S einzuarbeiten und der Artikel gibt schon erfahrenen UEQ-Anwender:innen eine gute Übersicht über derzeitige UEQ-Literatur.

Verstehen Sprachassistenten uns auch im alltäglichen Kontext?

Sprachassistenten UX-Studie

Klein, Andreas M.; Deutschländer, Jana; Kölln, Kristina; Rauschenberger, Maria; Escalona, Maria-Jose (2024): Exploring the context of use for voice user interfaces: Toward context-dependent user experience quality testing. In: Journal of Software: Evolution and Process, Wiley. Doi: 10.1002/smr.2618 || Download

Topcited

Zusammenfassung

Sprachassistenten wie Alexa, Siri oder Google Assistant sind omipräsent – sei es zur Steuerung von Smart-Home-Geräten, für schnelle Antworten auf Fragen oder als Unterstützung für Menschen mit Einschränkungen. Doch wie gut passen diese Systeme wirklich in den Nutzungskontext der Anwender? Und wie beeinflusst dieser Kontext die Qualität des Nutzererlebnisses?

Dieser Frage widmet sich die Studie, indem sie untersucht, wie, wo und warum Menschen Sprachassistenten nutzen – mit besonderem Fokus auf den Einfluss des Nutzungskontexts. Zehn ausführliche Interviews mit Nutzern, darunter sechs Personen mit Seh- oder motorischen Beeinträchtigungen, zeigen, dass VUIs zwar enormes Potenzial für Barrierefreiheit haben, aber auch klare Schwächen aufweisen. Besonders problematisch ist das Verständnis von Sprache – vor allem bei Akzenten oder Hintergrundgeräuschen. Auch der Datenschutz bereitet Sorgen. Was passiert mit unseren Sprachdaten? Wer hört eigentlich mit?

Doch es gibt Hoffnung! Die Studie hat eine Hierarchische Struktur entwickelt, die zeigt, wie Nutzungskontext und Nutzererlebnis zusammenhängen. Diese könnte die Grundlage für ein intelligentes Bewertungssystem sein, das hilft, Sprachassistenten besser, bedienbarer und inklusiver zu machen.

UX Management braucht eine klare, messbare UX-Strategie

Artikel UX Management Anforderungen

Hinderks, Andreas; Domínguez Mayo, Francisco José; Escalona, María José; Thomaschewski, Jörg (2024): Requirements for User Experience Management - A Tertiary Study. In: IJIMAI (International Journal of Interactive Multimedia and Artificial Intelligence) 8 (6), S. 160–167. DOI: 10.9781/ijimai.2024.01.004. || Download

Zusammenfassung

Die Studie untersucht die Anforderungen an User Experience Management (UX-Management). Dazu wurde eine tertiäre Studie durchgeführt, in der 16 systematische Literaturreviews (SLRs) analysiert wurden. Ziel war es, herauszufinden, welche Anforderungen für UX-Management in der agilen Entwicklung abgeleitet werden können.

Als typische Anforderungen wurden Prototyping und UX-/Usability-Evaluation identifiziert. Besonders betont wird die Notwendigkeit einer besseren Kommunikation zwischen UX-Professionals und Entwicklern. Aber der Schlüssel zum Erfolg ist eine klare, messbare UX-Strategie.

Einer der wichtigsten UX Faktoren, der Faktor "Vertrauen" für den UEQ+

Artikel Factor Trust

Hinderks, Andreas; Schrepp, Martin; Rauschenberger, Maria; Thomaschewski, Jörg (2023): Reconstruction and Validation of the UX Factor Trust for the User Experience Questionnaire Plus (UEQ+). In: Proceedings of the 19th International Conference on Web Information Systems and Technologies (WEBIST 2023) || Download

Zusammenfassung

Die Studie untersucht die Konstruktion und Validierung des UX-Faktors „Trust (Vertrauen)“ für den modularen Fragebogen UEQ+. Vertrauen ist eine zentrale Dimension der User Experience, insbesondere in sicherheitskritischen Bereichen wie Finanzdienstleistungen und E-Commerce. Die Autoren entwickelten zunächst eine Sammlung potenzieller Items für diesen Faktor und reduzierten sie durch eine faktorenanalytische Studie mit 405 Teilnehmern auf vier Hauptitems: „insecure-secure (unsicher-sicher)“, „untrustworthy-trustworthy (unzuverlässig-zuverlässig)“, „unreliable-reliable (unseriös-seriös)“ und „non-transparent-transparent (intransparent-transparent)“. In zwei weiteren Validierungsstudien mit insgesamt 897 Teilnehmern wurde die Eignung dieser Items bestätigt. Die Ergebnisse zeigen, dass diese vier Items den Faktor Vertrauen zuverlässig messen und unabhängig von anderen UX-Faktoren sind. Damit bietet der UEQ+ nun eine validierte Möglichkeit, Vertrauen als UX-Dimension zu erfassen.