Zeitlose Webdesign-Flops

1996 hat Usability-Guru zum ersten Mal die Top 10 Mistakes in Web Design veröffentlicht. Die ursprünglichen Übel (z.B. Frames) sind inzwischen größtenteils ausgestorben. Andere haben bis heute überlebt. Vor allem in der Werbung finden sich zum Beispiel noch haufenweise “Scrolling Text, Marquees, and Constantly Running Animations”.

Ein Blick auf die Highlights der verschiedenen Jahre ist durchaus interessant.

In den Top 10 Web Design Mistakes of 2002 wurden Inflexible Search Engines genannt. Dieses Bildchen stellt ganz plastisch dar, warum Exact Match in Suchmaschinen (und Katalogen) nicht die beste Wahl sein muss. “Bad Search” taucht immer wieder in den “Top 10” auf.

Weitere Hits aus verschiedenen Jahren:

  • Infrequently Asked Questions in FAQ (2002)
  • Mailto Links in Unexpected Locations (2002) – zum Beispiel hinter Personennamen!
  • Cumbersome Forms (2005) – ist das Feld “Anrede” wirklich notwendig?
  • Frozen Layouts with Fixed Page Widths (2005)
  • PDF Files for Online Reading (2011) – das kann man kaum oft genug sagen!
  • Not Changing the Color of Visited Links (2011)
  • Page Titles With Low Search Engine Visibility (2011) -z.B. “Startseite”
  • Opening New Browser Windows (2011) – verhindert die Nutzung des Back-Buttons im Browser

Wer ab und an mal mit Webseiten und deren Inhalten oder Technik zu tun hat, dem kann ich die Nielsens Artikel nur empfehlen. Auch zu den Themen Intranet oder Suche sind dort viele nützliche Infos und Anregungen zu finden.

Relikte der Browserantike: "Optimiert für …"

Wir schreiben das Jahr 2013. Mehr oder weniger zufällig stieß ich gerade auf einen Bibliothekskatalog einer kleinen öffentlichen Bibliothek. Was nicht bemerkenswert wäre, hätte dort nicht in großen roten Lettern gestanden:

Für die historisch Interessierten oder Jüngeren: Internet Explorer 6.0 und Netscape 7.0 wurden beide im 2002 veröffentlicht. Die Phrasensuche “Optimal mit Netscape 7.0 / IExplorer 6.0” lässt Google zur Zeit 79 Treffer finden.

Mit wenig Aufwand und ein wenig Kenntnis der Browserantike lassen sich schnell weitere Relikte der Browserantike finden. Zum Beispiel Optimierungen für Netscape 4.7 (30. September 1999), Internet Explorer 5.5 (die Beta ist vom 25.12.1999) und Lynx 2.8.3:

Wer kann das toppen? Ich habe noch eine sehr hobbyistisch anmutende Bibliotheksseite im Geocities-Look gefunden, die lasse ich aus Gründen der Fairness außen vor, da sie offensichtlich als Praktikantenprojekt entstanden und vermutlich in Vergessenheit geraten ist.

Geocitiesizer

Kürzlich habe ich noch gefragt, wer beim Anblick wackelnder GIFs nicht Lust bekäme, alte Geocities-Seiten nachzubauen. Das Bildblog weist nun auf den Geocitiesizer hin. Damit lassen sich neue Webseiten im alten Gewand ansehen. Screenshots geben das gesamtästhetische Vergnügen nicht wieder, daher bitte ich um einen Klick auf Infobib im Gewand der 90er. You get knocked down, but you get up again.

Es lohnt sich, den Geocitiesizer mit verschiedenen Hochschulseiten auszuprobieren. Bei einigen ist kaum ein Unterschied festzustellen…

Wie Nutzer unsere Kataloge sehen

An der Bibliothek der Hochschule Hannover haben wir seit ein paar Wochen VuFind im Beta-Einsatz. Den Begriff “Beta” fassen wir in einer ähnlichen Weise auf, wie er in der Wikipedia beschrieben wird:

Der Nutzen eines Betatests besteht darin, dass Fehler, die typischerweise erst in der Praxis auftreten, wie zum Beispiel Konflikte mit anderen Programmen oder Probleme mit bestimmten Hardwarekomponenten, schon vor dem Release des Programms erkannt und behoben oder zumindest dokumentiert werden können.

Dass wir BibliotheksmitarbeiterInnen mit jahre- bis jahrzehntelanger Bibliotheks- und Katalogerfahrung nicht geeignet sind, unser neues System aus Nutzerperspektive zu beurteilen, war uns klar. Also hat meine Kollegin Andrea Hofmann einen Fragebogen konzipiert, den wir mit verschiedenen Nutzern durchgehen wollten. Gesagt, getan:

Das Testszenario war recht einfach. Wir haben StudentInnen und KollegInnen mit Kaffee und Keksen in unseren Besprechungsraum gelockt und sie dort vor den Katalog gesetzt. Meine Kollegin unterhielt sich mit den Testern und ging mit ihnen die Fragen und Aufgaben aus dem vorbereiteten Fragebogen durch. Ich saß im Hintergrund, beobachtete und machte Notizen. Die Ergebnisse haben uns teils bestätigt, teils überrascht.

Da wir nicht die einzige Bibliothek sind, die gerade an der Oberfläche von Discovery-Systemen herumschraubt, möchten wir ein paar der wichtigsten Erkenntnisse hier zusammenfassen:

Kleine Fehler und Unbequemlichkeiten

Erwartungsgemäß sind den Testern gleich ein paar Fehler oder Unbequemlichkeiten in der Usability aufgefallen. Das Fenster für die Autocomplete-Vorschläge war beispielsweise nicht breit genug. Die Vorschläge waren abgeschnitten und wurden dadurch unbrauchbar:

Verwirrende Dialoge und unklare Angaben

Die Favoritenfunktion war einigen Testern zu überladen. Man muss im Favoriten-Popup scrollen, um speichern zu können. Und durchschnittliche Nutzer scrollen nicht gern. Auch war einigen nicht klar, was Tags sind. Und noch wichtiger: wo diese Angaben auftauchen. Letzteres haben wir provisorisch behoben, indem wir das Formular um die Angabe ergänzt haben, was öffentlich ist und was nicht.

Verfügbarkeitsinformationen

Die Darstellung der Verfügbarkeitsinformationen in der Vollanzeige wurde teils als unübersichtlich empfunden. Daran arbeiten wir ohnehin gerade. Die wiederholten Wünsche nach Anzeige des Rückgabedatums und der Zahl der Vormerkungen sind verständlich, können aber leider noch nicht umgesetzt werden.

Bibliothekarische Begrifflichkeiten sind unverständlich

Bibliothekarische Begrifflichkeiten sind Nichtbibliothekaren ebenso unverständlich, wie Versicherungsvokabular Nichtversicherungsmenschen unverständlich ist. Dieser Kritikpunkt war zu erwarten. Erstaunt waren wir ein bißchen, welche Begrifflichkeiten unklar sind. “Artikel” zum Beispiel ist vielen offenbar geläufiger als “Aufsatz”. Hier wollen wir zu einem späteren Zeitpunkt noch einmal mehr Zeit investieren, um ein Vokabular zu finden, das sowohl die exakte Beschreibung des Bestandes erlaubt als auch allgemein verständlich ist.

Ein klarer Kritikpunkt war in diesem Zusammenhang auch unser “Collections”-Filter. Wir hatten Facetten, mit denen sich “Bibliotheksbestand”, “Nationallizenzen” und “Online Contents” filtern ließen. Bibliotheksbestand leuchtete ein, “Nationallizenzen” war allen unklar und “Online Contents” wurde als “online verfügbare Dokumente” missverstanden.

Die Funktion der übrigen Facetten war allen Testern klar und wurde für sinnvoll befunden. Es wurden spontan keine weiteren Facetten vermisst.

Trefferliste zu lang (und zu voll)

Die Trefferliste wurde von fast allen als viel zu lang empfunden. Gewünscht wurden mehr Treffer auf einen Blick. Die bis dahin in der “Kurzliste” angezeigten Verfügbarkeitsinformationen (z.B. Standort und Signatur) wurden an dieser Stelle meist als überflüssig gesehen.

Wir haben zusätzlich die “Ähnlichen Schlagworte” entfernt, um größere Teile der Ergebnisliste auf den Bildschirm zu bekommen. Denn: Nutzer scrollen nicht gerne! [1] Vgl. “Verwirrende Dialoge und unklare Angaben”

Usability der grafischen Zeitleiste

Die Bedienung der grafischen Zeitleiste (Markierung des gewünschten Zeitraums) wurde von keinem Testnutzer ohne Hilfestellung verstanden. Als nützlich wurde die Darstellung der Erscheinungsjahre – im Sinne einer Infografik – meist dennoch empfunden.

Suche nach Dokumententyp

Wir wollten auch herausfinden, wie Nutzer gezielt nach Zeitschriftenartikeln eines bestimmten Autors suchen. Interessanterweise wurde daraufhin mehrfach nach „Bill Gates Artikel“ oder „Bill Gates Zeitschrift“ gesucht. Wir wollen nun verfolgen, [2]In nicht allzu ferner Zeit werden wir eine weitere Gruppe Nutzer unter Beobachtung auf unseren neuen Katalog loslassen. Zusätzlich erfassen wir – selbstverständlich anonymisiert – die … Continue reading ob wir diese Art der Suche ausgelöst haben oder ob es sich um ein gängiges Suchmuster handelt. Falls letzteres, könnte man darüber nachdenken, diese Art der Suche zu ermöglichen.

Sonstige Bemerkungen

Das waren im wesentlichen die Kritikpunkte. Insgesamt wurde VuFind als “freundlicher”, “einladend” und “umfassend” empfunden. Die Formulierung “besser als der alte Katalog” fiel im Wortlaut mehrfach. Ebenso gab es (positive) Vergleiche zu Ebay, Amazon und Immobilienportalen. Eigentlich war jeder Testnutzer sehr angetan. Also: weiter geht’s!

References

References
1 Vgl. “Verwirrende Dialoge und unklare Angaben”
2 In nicht allzu ferner Zeit werden wir eine weitere Gruppe Nutzer unter Beobachtung auf unseren neuen Katalog loslassen. Zusätzlich erfassen wir – selbstverständlich anonymisiert – die Nutzung des Katalogs mit PIWIK.

Piwik in Bibliothekskatalogen

Piwik ist ein Tracking-Tool, das als Open-Source-Lösung eine Alternative zu Google Analytics bietet. Da die erfassten Daten anonymisierbar sind und bei Selbsthosting nicht an Dritte fließen, ist ein Einsatz mit dem Datenschutz und den dazugehörigen Beauftragten sicherlich vereinbar. An einigen Bibliotheken wird Piwik bereits eingesetzt. Gefunden habe ich Piwik zum Beispiel auf den Webseiten der UB der Ruhr-Universität Bochum, der ULB Düsseldorf, SUB Bremen oder der ULB Bonn.

In Katalogen direkt habe ich nur wenige Verwendungen gefunden:

Gibt es Erfahrungsberichte, seit wann, wie und mit welchem Ergebnis die Katalogverwendung getrackt wurde? Oder auch dokumentierte Überlegungen, die zur Nichtverwendung oder Nicht-Mehr-Verwendung solcher Tracker führten? Für Hinweise oder sogar Berichte wäre ich dankbar!

Interessante Fragen wären beispielsweise:

  • Wird das Tracking regelmäßig ausgewertet?
  • Welche Vereinbarung mit dem Datenschutzbeauftragten ging voraus?
  • Hat das Tracking Konsequenzen für die Gestaltung der Webseite oder den Bestandsaufbau?

PS: Ein weiterer Tracker, den ich gefunden habe, ist eTracker auf der Webseite der ZBW Kiel. Die Bibliothek der Leuphana (auch in Touchpoint) setzt Google Analytics ein. Ebenso bibnet.org.