MOOCmaßungen in der FAZ

Frank Kelleter über MOOCs in der FAZ:

Die dickste Sau aber, die demnächst durchs Dorf gejagt werden wird, hört auf den Namen MOOCs (Massive Open Online Courses). Dabei handelt es sich um digitale Lehrplattformen, die erstmals im Frühjahr 2012 vom kalifornischen Unternehmen Coursera in Stanford betrieben wurden.

MOOCs werden über Plattformen angeboten. Das ‘C’ steht für Courses. Ein kleiner, aber feiner Unterschied. Immerhin ist Herr Kelleters Auslassung über das, was er für E-Learning hält, auch keine Zeitung.

Ansonsten bleibt zu bemerken, dass Coursera nur eine Lehrplattform ist und nicht mehrere im Frühjahr 2012 betrieb. Und auch nicht der erste MOOC-Anbieter war.

Lektorat, kurze Recherche und ein bißchen weniger Abendlanduntergangsstimmung hätten vielleicht einen lesenswerten Artikel ermöglicht.

Wie Nutzer unsere Kataloge sehen

An der Bibliothek der Hochschule Hannover haben wir seit ein paar Wochen VuFind im Beta-Einsatz. Den Begriff “Beta” fassen wir in einer ähnlichen Weise auf, wie er in der Wikipedia beschrieben wird:

Der Nutzen eines Betatests besteht darin, dass Fehler, die typischerweise erst in der Praxis auftreten, wie zum Beispiel Konflikte mit anderen Programmen oder Probleme mit bestimmten Hardwarekomponenten, schon vor dem Release des Programms erkannt und behoben oder zumindest dokumentiert werden können.

Dass wir BibliotheksmitarbeiterInnen mit jahre- bis jahrzehntelanger Bibliotheks- und Katalogerfahrung nicht geeignet sind, unser neues System aus Nutzerperspektive zu beurteilen, war uns klar. Also hat meine Kollegin Andrea Hofmann einen Fragebogen konzipiert, den wir mit verschiedenen Nutzern durchgehen wollten. Gesagt, getan:

Das Testszenario war recht einfach. Wir haben StudentInnen und KollegInnen mit Kaffee und Keksen in unseren Besprechungsraum gelockt und sie dort vor den Katalog gesetzt. Meine Kollegin unterhielt sich mit den Testern und ging mit ihnen die Fragen und Aufgaben aus dem vorbereiteten Fragebogen durch. Ich saß im Hintergrund, beobachtete und machte Notizen. Die Ergebnisse haben uns teils bestätigt, teils überrascht.

Da wir nicht die einzige Bibliothek sind, die gerade an der Oberfläche von Discovery-Systemen herumschraubt, möchten wir ein paar der wichtigsten Erkenntnisse hier zusammenfassen:

Kleine Fehler und Unbequemlichkeiten

Erwartungsgemäß sind den Testern gleich ein paar Fehler oder Unbequemlichkeiten in der Usability aufgefallen. Das Fenster für die Autocomplete-Vorschläge war beispielsweise nicht breit genug. Die Vorschläge waren abgeschnitten und wurden dadurch unbrauchbar:

Verwirrende Dialoge und unklare Angaben

Die Favoritenfunktion war einigen Testern zu überladen. Man muss im Favoriten-Popup scrollen, um speichern zu können. Und durchschnittliche Nutzer scrollen nicht gern. Auch war einigen nicht klar, was Tags sind. Und noch wichtiger: wo diese Angaben auftauchen. Letzteres haben wir provisorisch behoben, indem wir das Formular um die Angabe ergänzt haben, was öffentlich ist und was nicht.

Verfügbarkeitsinformationen

Die Darstellung der Verfügbarkeitsinformationen in der Vollanzeige wurde teils als unübersichtlich empfunden. Daran arbeiten wir ohnehin gerade. Die wiederholten Wünsche nach Anzeige des Rückgabedatums und der Zahl der Vormerkungen sind verständlich, können aber leider noch nicht umgesetzt werden.

Bibliothekarische Begrifflichkeiten sind unverständlich

Bibliothekarische Begrifflichkeiten sind Nichtbibliothekaren ebenso unverständlich, wie Versicherungsvokabular Nichtversicherungsmenschen unverständlich ist. Dieser Kritikpunkt war zu erwarten. Erstaunt waren wir ein bißchen, welche Begrifflichkeiten unklar sind. “Artikel” zum Beispiel ist vielen offenbar geläufiger als “Aufsatz”. Hier wollen wir zu einem späteren Zeitpunkt noch einmal mehr Zeit investieren, um ein Vokabular zu finden, das sowohl die exakte Beschreibung des Bestandes erlaubt als auch allgemein verständlich ist.

Ein klarer Kritikpunkt war in diesem Zusammenhang auch unser “Collections”-Filter. Wir hatten Facetten, mit denen sich “Bibliotheksbestand”, “Nationallizenzen” und “Online Contents” filtern ließen. Bibliotheksbestand leuchtete ein, “Nationallizenzen” war allen unklar und “Online Contents” wurde als “online verfügbare Dokumente” missverstanden.

Die Funktion der übrigen Facetten war allen Testern klar und wurde für sinnvoll befunden. Es wurden spontan keine weiteren Facetten vermisst.

Trefferliste zu lang (und zu voll)

Die Trefferliste wurde von fast allen als viel zu lang empfunden. Gewünscht wurden mehr Treffer auf einen Blick. Die bis dahin in der “Kurzliste” angezeigten Verfügbarkeitsinformationen (z.B. Standort und Signatur) wurden an dieser Stelle meist als überflüssig gesehen.

Wir haben zusätzlich die “Ähnlichen Schlagworte” entfernt, um größere Teile der Ergebnisliste auf den Bildschirm zu bekommen. Denn: Nutzer scrollen nicht gerne! [1] Vgl. “Verwirrende Dialoge und unklare Angaben”

Usability der grafischen Zeitleiste

Die Bedienung der grafischen Zeitleiste (Markierung des gewünschten Zeitraums) wurde von keinem Testnutzer ohne Hilfestellung verstanden. Als nützlich wurde die Darstellung der Erscheinungsjahre – im Sinne einer Infografik – meist dennoch empfunden.

Suche nach Dokumententyp

Wir wollten auch herausfinden, wie Nutzer gezielt nach Zeitschriftenartikeln eines bestimmten Autors suchen. Interessanterweise wurde daraufhin mehrfach nach „Bill Gates Artikel“ oder „Bill Gates Zeitschrift“ gesucht. Wir wollen nun verfolgen, [2]In nicht allzu ferner Zeit werden wir eine weitere Gruppe Nutzer unter Beobachtung auf unseren neuen Katalog loslassen. Zusätzlich erfassen wir – selbstverständlich anonymisiert – die … Continue reading ob wir diese Art der Suche ausgelöst haben oder ob es sich um ein gängiges Suchmuster handelt. Falls letzteres, könnte man darüber nachdenken, diese Art der Suche zu ermöglichen.

Sonstige Bemerkungen

Das waren im wesentlichen die Kritikpunkte. Insgesamt wurde VuFind als “freundlicher”, “einladend” und “umfassend” empfunden. Die Formulierung “besser als der alte Katalog” fiel im Wortlaut mehrfach. Ebenso gab es (positive) Vergleiche zu Ebay, Amazon und Immobilienportalen. Eigentlich war jeder Testnutzer sehr angetan. Also: weiter geht’s!

References

References
1 Vgl. “Verwirrende Dialoge und unklare Angaben”
2 In nicht allzu ferner Zeit werden wir eine weitere Gruppe Nutzer unter Beobachtung auf unseren neuen Katalog loslassen. Zusätzlich erfassen wir – selbstverständlich anonymisiert – die Nutzung des Katalogs mit PIWIK.

Kritische Recherche für Journalisten – Teil I

Immer wieder werden Jubelmeldungen über Produkte wie zum Beispiel die “Onleihe” publiziert. Was mir ein Rätsel ist: Warum wird die Kritik an der Onleihe wirklich so gut wie nirgendwo erwähnt? Darf man in Lokalzeitungen nichts Kritisches über die Stadtbibliothek schreiben, weil die Redaktion dann befürchtet, nicht zur nächsten Autorenlesung eingeladen zu werden?

Aktuelles Beispiel: MacNews schreibt über “kostenlose E-Books und E-Paper per Onleihe”. Aha, aha. Die Onleihe ist also kostenlos. Für wen? Für die Bibliotheken? Auch wenn meines Wissens niemand belastbare Zahlen rausrückt: Eher nicht. Für die Bibliotheksnutzer? Ebenfalls eher nicht. Denn Stadtbibliotheken fordern von Ihren Nutzern oft Gebühren. Auch Steuergelder, von denen wohl fast alle Onleihe-Bibliotheken finanziert werden, kommen nicht aus dem Nichts.

Wie kommt man an solch ein Geheimwissen heran? An dieser Stelle ausnahmsweise ein Tipp vom Informationsprofi für Journalisten und solche, die sich dafür halten.

Man nehme:

  1. Die Suchmaschine des geringsten Misstrauens. Kaum zu glauben, aber dieser Trick funktioniert wirklich mit fast allen!
  2. Als ersten Suchbegriff wählen Sie den Namen des Produkts, über das zu berichten ist. In diesem Fall: “Onleihe”.
  3. Nun (und jetzt wird’s raffiniert!) fügen Sie einen zweiten Begriff hinzu. Und zwar: “kritik”.
  4. Nun lösen Sie die Suche aus.
  5. Gucken Sie sich die Suchergebnisse an. Mit sehr hoher Wahrscheinlichkeit müssen Sie sich die Spezialkompetenz des Blätterns auf die zweite Ergebnislistenseite nicht aneignen, da sich unter den ersten Treffern schon eine Menge relevanter Kritik findet.

Auch wenn das jetzt kompliziert aussieht: Versuchen Sie es! Ich glaube an Sie! Damit Sie den Einstieg schaffen, habe ich die Probe auf’s Exempel mit den beiden zur Zeit vermutlich relevantesten Suchmaschinen und dem erwähnten Beispiel für Sie vorbereitet:

Das funktioniert auch mit anderen Suchmaschinen, z.B. Metager.

Achtung: Die Berücksichtigung dieses Tipps könnte zu kritischer Berichterstattung führen. Wenn Sie eine Karriere in den PR-Abteilung der zu besprechenden Firmen beabsichtigen, sollten Sie eventuell davon absehen.

Bibliotheken oder Google – Studie der ZBW

Im Auftrag der ZBW Kiel hat die Agentur HS&P eine noch unveröffentlichte Studie erstellt. Laut aktueller c’t ergibt sich dabei ein für Bibliotheken wenig schmeichelhaftes Bild. Gefragt wurde: Mit welchen Internetseiten suchen Sie nach wissenschaftlicher Literatur?

Die Reihenfolge der Antworten:

  1. Google
  2. Bibliothekskataloge
  3. Wikipedia
  4. Uni-Homepage
  5. Online-Dienste der Bibliotheken (?)
  6. KVK
  7. EZB
  8. Amazon
  9. ZDB
  10. Google Scholar
  11. Fachspezifische Portale

Eine spannende Frage ist nun die Bekanntheit der Virtuellen Fachbibliotheken, was auch auf dem Bibcamp eifrig diskutiert wurde. Markus Trapp hatte dazu noch erwähnt, dass er mittels Cibera-Blog erfolgreich zusätzliche Aufmerksamkeit auf seine ViFa lenken konnte.

Wie auch immer: Es ist zweifellos falsch, den zweiten Platz der OPACs als beruhigend zu empfinden. Also heißt es, von der “Konkurrenz” zu lernen und die besten Ideen schamlos zu kopieren.