Zeitlose Webdesign-Flops

1996 hat Usability-Guru zum ersten Mal die Top 10 Mistakes in Web Design ver√∂ffentlicht. Die urspr√ľnglichen √úbel (z.B. Frames) sind inzwischen gr√∂√ütenteils ausgestorben. Andere haben bis heute √ľberlebt. Vor allem in der Werbung finden sich zum Beispiel noch haufenweise “Scrolling Text, Marquees, and Constantly Running Animations”.

Ein Blick auf die Highlights der verschiedenen Jahre ist durchaus interessant.

In den Top 10 Web Design Mistakes of 2002 wurden Inflexible Search Engines genannt. Dieses Bildchen stellt ganz plastisch dar, warum Exact Match in Suchmaschinen (und Katalogen) nicht die beste Wahl sein muss. “Bad Search” taucht immer wieder in den “Top 10” auf.

Weitere Hits aus verschiedenen Jahren:

  • Infrequently Asked Questions in FAQ (2002)
  • Mailto Links in Unexpected Locations (2002) – zum Beispiel hinter Personennamen!
  • Cumbersome Forms (2005) – ist das Feld “Anrede” wirklich notwendig?
  • Frozen Layouts with Fixed Page Widths (2005)
  • PDF Files for Online Reading (2011) – das kann man kaum oft genug sagen!
  • Not Changing the Color of Visited Links (2011)
  • Page Titles With Low Search Engine Visibility (2011) -z.B. “Startseite”
  • Opening New Browser Windows (2011) – verhindert die Nutzung des Back-Buttons im Browser

Wer ab und an mal mit Webseiten und deren Inhalten oder Technik zu tun hat, dem kann ich die Nielsens Artikel nur empfehlen. Auch zu den Themen Intranet oder Suche sind dort viele n√ľtzliche Infos und Anregungen zu finden.

Relikte der Browserantike: "Optimiert f√ľr …"

Wir schreiben das Jahr 2013. Mehr oder weniger zufällig stieß ich gerade auf einen Bibliothekskatalog einer kleinen öffentlichen Bibliothek. Was nicht bemerkenswert wäre, hätte dort nicht in großen roten Lettern gestanden:

F√ľr die historisch Interessierten oder J√ľngeren: Internet Explorer 6.0 und Netscape 7.0 wurden beide im 2002 ver√∂ffentlicht. Die Phrasensuche “Optimal mit Netscape 7.0 / IExplorer 6.0” l√§sst Google zur Zeit 79 Treffer finden.

Mit wenig Aufwand und ein wenig Kenntnis der Browserantike lassen sich schnell weitere Relikte der Browserantike finden. Zum Beispiel Optimierungen f√ľr Netscape 4.7 (30. September 1999), Internet Explorer 5.5 (die Beta ist vom 25.12.1999) und Lynx 2.8.3:

Wer kann das toppen? Ich habe noch eine sehr hobbyistisch anmutende Bibliotheksseite im Geocities-Look gefunden, die lasse ich aus Gr√ľnden der Fairness au√üen vor, da sie offensichtlich als Praktikantenprojekt entstanden und vermutlich in Vergessenheit geraten ist.

Geocitiesizer

K√ľrzlich habe ich noch gefragt, wer beim Anblick wackelnder GIFs nicht Lust bek√§me, alte Geocities-Seiten nachzubauen. Das Bildblog weist nun auf den Geocitiesizer hin. Damit lassen sich neue Webseiten im alten Gewand ansehen. Screenshots geben das gesamt√§sthetische Vergn√ľgen nicht wieder, daher bitte ich um einen Klick auf Infobib im Gewand der 90er. You get knocked down, but you get up again.

Es lohnt sich, den Geocitiesizer mit verschiedenen Hochschulseiten auszuprobieren. Bei einigen ist kaum ein Unterschied festzustellen…

Wie Nutzer unsere Kataloge sehen

An der Bibliothek der Hochschule Hannover haben wir seit ein paar Wochen VuFind im Beta-Einsatz. Den Begriff “Beta” fassen wir in einer √§hnlichen Weise auf, wie er in der Wikipedia beschrieben wird:

Der Nutzen eines Betatests besteht darin, dass Fehler, die typischerweise erst in der Praxis auftreten, wie zum Beispiel Konflikte mit anderen Programmen oder Probleme mit bestimmten Hardwarekomponenten, schon vor dem Release des Programms erkannt und behoben oder zumindest dokumentiert werden können.

Dass wir BibliotheksmitarbeiterInnen mit jahre- bis jahrzehntelanger Bibliotheks- und Katalogerfahrung nicht geeignet sind, unser neues System aus Nutzerperspektive zu beurteilen, war uns klar. Also hat meine Kollegin Andrea Hofmann einen Fragebogen konzipiert, den wir mit verschiedenen Nutzern durchgehen wollten. Gesagt, getan:

Das Testszenario war recht einfach. Wir haben StudentInnen und KollegInnen mit Kaffee und Keksen in unseren Besprechungsraum gelockt und sie dort vor den Katalog gesetzt. Meine Kollegin unterhielt sich mit den Testern und ging mit ihnen die Fragen und Aufgaben aus dem vorbereiteten Fragebogen durch. Ich sa√ü im Hintergrund, beobachtete und machte Notizen. Die Ergebnisse haben uns teils best√§tigt, teils √ľberrascht.

Da wir nicht die einzige Bibliothek sind, die gerade an der Oberfläche von Discovery-Systemen herumschraubt, möchten wir ein paar der wichtigsten Erkenntnisse hier zusammenfassen:

Kleine Fehler und Unbequemlichkeiten

Erwartungsgem√§√ü sind den Testern gleich ein paar Fehler oder Unbequemlichkeiten in der Usability aufgefallen. Das Fenster f√ľr die Autocomplete-Vorschl√§ge war beispielsweise nicht breit genug. Die Vorschl√§ge waren abgeschnitten und wurden dadurch unbrauchbar:

Verwirrende Dialoge und unklare Angaben

Die Favoritenfunktion war einigen Testern zu √ľberladen. Man muss im Favoriten-Popup scrollen, um speichern zu k√∂nnen. Und durchschnittliche Nutzer scrollen nicht gern. Auch war einigen nicht klar, was Tags sind. Und noch wichtiger: wo diese Angaben auftauchen. Letzteres haben wir provisorisch behoben, indem wir das Formular um die Angabe erg√§nzt haben, was √∂ffentlich ist und was nicht.

Verf√ľgbarkeitsinformationen

Die Darstellung der Verf√ľgbarkeitsinformationen in der Vollanzeige wurde teils als un√ľbersichtlich empfunden. Daran arbeiten wir ohnehin gerade. Die wiederholten W√ľnsche nach Anzeige des R√ľckgabedatums und der Zahl der Vormerkungen sind verst√§ndlich, k√∂nnen aber leider noch nicht umgesetzt werden.

Bibliothekarische Begrifflichkeiten sind unverständlich

Bibliothekarische Begrifflichkeiten sind Nichtbibliothekaren ebenso unverst√§ndlich, wie Versicherungsvokabular Nichtversicherungsmenschen unverst√§ndlich ist. Dieser Kritikpunkt war zu erwarten. Erstaunt waren wir ein bi√üchen, welche Begrifflichkeiten unklar sind. “Artikel” zum Beispiel ist vielen offenbar gel√§ufiger als “Aufsatz”. Hier wollen wir zu einem sp√§teren Zeitpunkt noch einmal mehr Zeit investieren, um ein Vokabular zu finden, das sowohl die exakte Beschreibung des Bestandes erlaubt als auch allgemein verst√§ndlich ist.

Ein klarer Kritikpunkt war in diesem Zusammenhang auch unser “Collections”-Filter. Wir hatten Facetten, mit denen sich “Bibliotheksbestand”, “Nationallizenzen” und “Online Contents” filtern lie√üen. Bibliotheksbestand leuchtete ein, “Nationallizenzen” war allen unklar und “Online Contents” wurde als “online verf√ľgbare Dokumente” missverstanden.

Die Funktion der √ľbrigen Facetten war allen Testern klar und wurde f√ľr sinnvoll befunden. Es wurden spontan keine weiteren Facetten vermisst.

Trefferliste zu lang (und zu voll)

Die Trefferliste wurde von fast allen als viel zu lang empfunden. Gew√ľnscht wurden mehr Treffer auf einen Blick. Die bis dahin in der “Kurzliste” angezeigten Verf√ľgbarkeitsinformationen (z.B. Standort und Signatur) wurden an dieser Stelle meist als √ľberfl√ľssig gesehen.

Wir haben zus√§tzlich die “√Ąhnlichen Schlagworte” entfernt, um gr√∂√üere Teile der Ergebnisliste auf den Bildschirm zu bekommen. Denn: Nutzer scrollen nicht gerne! 1) Vgl. “Verwirrende Dialoge und unklare Angaben”

Usability der grafischen Zeitleiste

Die Bedienung der grafischen Zeitleiste (Markierung des gew√ľnschten Zeitraums) wurde von keinem Testnutzer ohne Hilfestellung verstanden. Als n√ľtzlich wurde die Darstellung der Erscheinungsjahre – im Sinne einer Infografik – meist dennoch empfunden.

Suche nach Dokumententyp

Wir wollten auch herausfinden, wie Nutzer gezielt nach Zeitschriftenartikeln eines bestimmten Autors suchen. Interessanterweise wurde daraufhin mehrfach nach ‚ÄěBill Gates Artikel‚Äú oder ‚ÄěBill Gates Zeitschrift‚Äú gesucht. Wir wollen nun verfolgen, 2) In nicht allzu ferner Zeit werden wir eine weitere Gruppe Nutzer unter Beobachtung auf unseren neuen Katalog loslassen. Zus√§tzlich erfassen wir – selbstverst√§ndlich anonymisiert – die Nutzung des Katalogs mit PIWIK. ob wir diese Art der Suche ausgel√∂st haben oder ob es sich um ein g√§ngiges Suchmuster handelt. Falls letzteres, k√∂nnte man dar√ľber nachdenken, diese Art der Suche zu erm√∂glichen.

Sonstige Bemerkungen

Das waren im wesentlichen die Kritikpunkte. Insgesamt wurde VuFind als “freundlicher”, “einladend” und “umfassend” empfunden. Die Formulierung “besser als der alte Katalog” fiel im Wortlaut mehrfach. Ebenso gab es (positive) Vergleiche zu Ebay, Amazon und Immobilienportalen. Eigentlich war jeder Testnutzer sehr angetan. Also: weiter geht’s!

References   [ + ]

1. Vgl. “Verwirrende Dialoge und unklare Angaben”
2. In nicht allzu ferner Zeit werden wir eine weitere Gruppe Nutzer unter Beobachtung auf unseren neuen Katalog loslassen. Zusätzlich erfassen wir Рselbstverständlich anonymisiert Рdie Nutzung des Katalogs mit PIWIK.

Piwik in Bibliothekskatalogen

Piwik ist ein Tracking-Tool, das als Open-Source-L√∂sung eine Alternative zu Google Analytics bietet. Da die erfassten Daten anonymisierbar sind und bei Selbsthosting nicht an Dritte flie√üen, ist ein Einsatz mit dem Datenschutz und den dazugeh√∂rigen Beauftragten sicherlich vereinbar. An einigen Bibliotheken wird Piwik bereits eingesetzt. Gefunden habe ich Piwik zum Beispiel auf den Webseiten der UB der Ruhr-Universit√§t Bochum, der ULB D√ľsseldorf, SUB Bremen oder der ULB Bonn.

In Katalogen direkt habe ich nur wenige Verwendungen gefunden:

Gibt es Erfahrungsberichte, seit wann, wie und mit welchem Ergebnis die Katalogverwendung getrackt wurde? Oder auch dokumentierte √úberlegungen, die zur Nichtverwendung oder Nicht-Mehr-Verwendung solcher Tracker f√ľhrten? F√ľr Hinweise oder sogar Berichte w√§re ich dankbar!

Interessante Fragen wären beispielsweise:

  • Wird das Tracking regelm√§√üig ausgewertet?
  • Welche Vereinbarung mit dem Datenschutzbeauftragten ging voraus?
  • Hat das Tracking Konsequenzen f√ľr die Gestaltung der Webseite oder den Bestandsaufbau?

PS: Ein weiterer Tracker, den ich gefunden habe, ist eTracker auf der Webseite der ZBW Kiel. Die Bibliothek der Leuphana (auch in Touchpoint) setzt Google Analytics ein. Ebenso bibnet.org.