In diesem Beitrag beleuchten wir, warum dieses Thema für alle relevant ist – von der rechtlichen Verpflichtung bis hin zu den praktischen Vorteile im Alltag.
Mit Beispielen und klaren Hinweisen wird beschrieben, wie Erkenntnisse aus realen Nutzungssituationen entstehen und wie sie sich von reinen Regel-Checks unterscheiden.
Hinweis: Fachliche Einordnung, keine Rechtsberatung.
Warum Testen mit Betroffenen so wertvoll ist
In der Barrierefreiheit werden viele Probleme über Standards, automatisierte Checks oder Expert Reviews erkannt.
Gleichzeitig zeigt die Praxis: Entscheidend ist nicht nur, ob ein Kriterium formal erfüllt ist, sondern ob Menschen
mit unterschiedlichen Nutzungsvoraussetzungen zentrale Aufgaben tatsächlich erledigen können.
Tests mit Betroffenen liefern diese Perspektive: Sie machen sichtbar, wie sich Interaktionen im Alltag anfühlen,
wo Orientierung verloren geht, welche Rückmeldungen fehlen oder welche Abläufe unerwartet abbrechen.
Dadurch entsteht ein realistisches Bild der Nutzbarkeit – nicht nur der Konformität.
Was „Betroffene“ im Testkontext bedeutet
Mit „Betroffenen“ sind in diesem Kontext Personen gemeint, die aufgrund von Behinderung oder Nutzungssituation auf bestimmte
Bedien- oder Wahrnehmungsformen angewiesen sind oder davon stark profitieren. Das kann sehr unterschiedlich aussehen, etwa:
- Sehbeeinträchtigung/Blindheit (z. B. Screenreader, Vergrößerung, Kontrastmodi)
- Hörbeeinträchtigung (z. B. Untertitel, Transkripte, visuelle Hinweise)
- Motorische Einschränkungen (z. B. Tastaturnutzung, alternative Eingabegeräte)
- Kognitive/lernbezogene Einschränkungen (z. B. Verständlichkeit, Konsistenz, Reduktion von Komplexität)
- Situative Einschränkungen (z. B. Nutzung unterwegs, Stress, kleine Displays, Blendung)
Wichtig ist dabei weniger die Kategorie, sondern die konkrete Interaktion: Welche Informationskanäle werden genutzt,
welche Hilfstechnologien sind im Einsatz, welche Muster funktionieren zuverlässig – und welche nicht.
Warum Regel-Checks allein nicht reichen
Automatisierte Tests und Expert Reviews sind unverzichtbar, decken aber nicht alles ab. In der Praxis entstehen Barrieren häufig dort,
wo mehrere Faktoren zusammenkommen: Informationsarchitektur, Sprache, Timing, Interaktionslogik, Fehlermeldungen, Zustandswechsel,
komplexe Komponenten oder unerwartete Abhängigkeiten.
Typisch sind Fälle, in denen ein Element technisch vorhanden ist (z. B. Alternativtext, Label, Fokus),
aber in realen Aufgaben nicht hilft: weil es unverständlich ist, weil die Reihenfolge nicht passt,
weil Rückmeldungen fehlen oder weil Nutzer an einer Stelle festhängen, die in einem Check nicht als Fehler auffällt.
Gängige Testformate und typische Aufgaben
Moderierte Tests (vor Ort oder remote)
Eine Testleitung begleitet die Durchführung von Aufgaben, beobachtet, stellt Verständnisfragen und dokumentiert Hürden.
Dieses Format liefert häufig Kontext zu Ursachen: Erwartungen, Missverständnisse und Entscheidungswege.
Unmoderierte Tests
Personen bearbeiten Aufgaben eigenständig, oft mit Aufzeichnung und kurzen Rückfragen.
Das Format zeigt häufig ein „Alltagsbild“, allerdings mit weniger Kontext zu Entscheidungen.
Task-basierte Szenarien (Top Tasks)
Häufig werden Kernaufgaben betrachtet: Registrierung, Kontakt, Suche/Filter, Kauf/Checkout, Terminbuchung, Antrag, Dokument-Download,
Navigation in komplexen Informationsbereichen.
Assistive-Tech-Perspektive
Unterschiede zeigen sich je nach Hilfstechnologie: Screenreader-Navigation über Überschriften/Regionen,
Tastaturfokus in Dialogen, Bedienbarkeit von Dateiuploads, Erkennbarkeit von Statusmeldungen, Verständlichkeit von Fehlhinweisen.
Welche Erkenntnisse besonders häufig entstehen
- Orientierungslücken: Es ist unklar, wo man sich befindet, was als Nächstes passiert oder wie man zurückkommt.
- Unklare Rückmeldungen: Statuswechsel (geladen, gespeichert, Fehler) sind nicht nachvollziehbar.
- Interaktionsfallen: Fokus „verschwindet“, Overlays blockieren, wichtige Elemente sind nicht erreichbar.
- Mehrdeutige Sprache: Labels, Linktexte oder Hinweise sind formal korrekt, aber nicht verständlich.
- Komponentenprobleme: Custom Widgets (Dropdowns, Dateiupload, Autocomplete) verhalten sich unzuverlässig.
- Fehlerfolgen: Ein kleiner Fehler führt zum Abbruch, weil Lösungsschritte fehlen oder Daten verloren gehen.
- Medienbarrieren: Videos ohne Untertitel/Transkript, Dokumente ohne Struktur, fehlende Alternativen.
Beispiele aus dem Alltag (typische Muster)
Beispiel 1: Formal korrekt, aber praktisch schwer nutzbar
Ein Formular hat Beschriftungen, aber Fehlermeldungen erscheinen nur gesammelt am Seitenanfang.
In Tests zeigt sich, dass betroffene Felder schwer wiedergefunden werden, weil die Rückmeldung nicht im Kontext auffindbar ist.
Beispiel 2: Orientierung fehlt trotz vorhandener Navigation
Menü und Breadcrumbs existieren, dennoch wird deutlich, dass Kategorien ähnlich benannt sind und der aktuelle Standort
nicht ausreichend klar erkennbar ist. Das führt zu Schleifen und längeren Wegen.
Beispiel 3: Statuswechsel werden nicht wahrgenommen
Nach dem Filtern oder Speichern ändert sich ein Hinweistext. In Tests zeigt sich, dass diese Änderung nicht zuverlässig bemerkt wird,
weil sie visuell unauffällig ist und nicht als klare Statusmeldung erscheint.
Was bei der Dokumentation im Fokus steht
Bei Testen mit Betroffenen ist die Dokumentation typischerweise auf Nutzbarkeit und Wirkung ausgerichtet:
Welche Aufgabe wurde versucht? Wo trat die Barriere auf? Welche Auswirkung hatte sie (Blocker, Umweg, Unsicherheit)?
Welche Bedingungen waren relevant (Gerät, Browser, Hilfstechnologie, Zoom, Eingabemethode)?
Beobachtungen werden häufig mit konkreten Fundstellen (Seite/Komponente/Schritt) verknüpft, ergänzt um Screenshots,
kurze Mitschriften von Rückmeldungen und eine Einordnung, ob es sich um ein wiederkehrendes Muster oder einen Einzelfall handelt.
FAQ: 10 häufige Fragen zu Tests mit Betroffenen
1) Worin unterscheidet sich ein Test mit Betroffenen von einem reinen Expert Review?
Ein Expert Review bewertet Kriterien und Umsetzung. Ein Test mit Betroffenen zeigt, ob Aufgaben im realen Nutzungskontext gelingen und wo praktische Hürden auftreten.
2) Ersetzt Testen mit Betroffenen ein Barrierefreiheitsaudit?
Nein. Häufig ergänzen sich beide: Audits prüfen systematisch gegen Kriterien, Tests zeigen Nutzbarkeit und Prioritäten in realen Aufgaben.
3) Welche Aufgaben eignen sich besonders für solche Tests?
Typisch sind Kernaufgaben mit hoher Relevanz: Suche/Filter, Registrierung, Checkout, Terminbuchung, Antrag, Kontaktaufnahme, Dokumentzugriff und zentrale Navigation.
4) Welche Hilfstechnologien sind in Tests häufig relevant?
Je nach Zielgruppe z. B. Screenreader, Vergrößerung/Zoom, Kontrastmodi, Tastatursteuerung, alternative Eingaben sowie Untertitel-/Transkript-Nutzung.
5) Warum zeigen Tests oft Probleme, die automatisierte Tools nicht finden?
Weil viele Barrieren aus Interaktionslogik, Verständlichkeit, Timing und Zusammenspiel von Komponenten entstehen – nicht nur aus fehlenden Attributen.
6) Was sind typische Blocker in der Praxis?
Unbedienbare Dialoge/Overlays, fehlende oder unklare Fehlermeldungen, Fokusprobleme, unverständliche Bezeichnungen und unzugängliche Custom-Komponenten.
7) Wie wird in solchen Tests Erfolg beschrieben?
Meist über Aufgabenabschluss und Aufwand: gelingt die Aufgabe ohne Hilfe, mit Umwegen oder gar nicht? Ergänzend kommen Fehlversuche und wahrgenommene Sicherheit hinzu.
8) Ist eine kleine Testgruppe aussagekräftig?
Wiederkehrende Hürden werden oft schnell sichtbar, besonders bei zentralen Aufgaben. Aussagekraft hängt zugleich von Zielgruppe, Aufgaben und Vielfalt der Nutzungssituationen ab.
9) Was ist bei Datenschutz und Rahmenbedingungen zu beachten?
Üblich sind transparente Information, Einwilligung, datensparsame Aufzeichnung, sichere Speicherung sowie klare Regeln zur Anonymisierung und Nutzung der Ergebnisse.
10) Was ist ein häufiges Missverständnis?
Dass einmaliges Testen genügt. In der Praxis entstehen neue Barrieren durch Änderungen an Komponenten, Content oder Prozessen.
Quellenhinweise
- W3C WAI: Ressourcen zu „Testen und Evaluieren“ (inkl. Einbezug von Nutzenden)
- ISO 9241-210: Human-centred design for interactive systems (Grundlagen nutzerzentrierter Evaluation)
- WCAG (W3C): Erfolgskriterien als Kriterienbasis für formale Prüfungen
Weitere Beiträge

Langfristige Pflege von Barrierefreiheit

Inhalte mit Audiodeskription barrierefrei gestalten

Formulareingaben validieren und erklären

Barrierefreie Navigation für komplexe Websites

Dark Mode und Barrierefreiheit

Farbenblindheit berücksichtigen: Digitale Teilhabe durch verständliche visuelle Signale

Gesetzliche Vorgaben weltweit

Testen mit Betroffenen

Barrierefreiheit in Social-Media-Posts

Fehlervermeidung durch klare Benutzerführung: Barrierefreiheit in Formularen und Prozessen

Corporate Design und Barrierefreiheit

Responsives Design und Barrierefreiheit

PDF-Dokumente barrierefrei erstellen

Barrierefreiheit in E-Commerce-Shops

