Kommentar zu einem Kommentar zu Bibliotheken

Christine Adam veröffentlichte am 2. September in der Neuen Osnabrücker Zeitung einen Kommentar. Einigen ihrer Punkte mag man durchaus zustimmen. Einleitend greift sie jedoch etwas auf, das ich längst überwunden glaubte.

Immer weniger Bücher zum Anfassen, immer weniger fundiertes Wissen aus Originalquellen, stattdessen weiter anschwellende unzuverlässige Info-Fluten aus dem Internet? Wie gut, dass manche Horror-Visionen mit Gegenentwürfen abgemildert werden. Die mächtigen Metropolenbibliotheken könnten so ein Korrektiv sein.

  1. Immer weniger Bücher? Die Umsätze des Buchhandels sind laut Börsenverein sind 2012 deutlich höher gewesen als 2002. Die “Titelproduktion Erstauflage” lag 2003 bei 61.538 Titeln, 2012 bei fast 80.000 Titeln. Selbst ein leichter Rückgang in den letzten Jahren verringert den Anstieg insgesamt kaum.
  2. Weniger fundiertes Wissen aus Originalquellen? Hach, dazu ließe sich einiges sagen. Aber nehmen wir uns die webkritische Kernaussage vor: Hat die Kommentatorin einen Brockhaus hinter sich im Regal? Wo schlägt sie denn nach, wer frisch ans Tageslicht gespülte Personen des Zeitgeschehens wie Oliver Scheytt aus Steinbrücks Kompetenzteam sein könnten? Etwa im Munzinger? Oder nicht doch eher in Wikipedia, die zu Scheytt einen mittelgroßen Artikel liefert?
  3. “Die mächtigen Metropolenbibliotheken” haben inzwischen auch die eine oder andere Online-Quelle im Portfolio. Manche sogar diese 50 Millionen Werke hier. Wo die alle herkommen? Aus diesem Internet.

Ist das alles eine Horrorvision? Ist es so furchtbar, wenn sich jede und jeder zu jedem Zeitpunkt ganz nach den eigenen Vorstellungen in einem riesigen Meer von Informationen bedienen kann?

Algorithmische Ignoranz und das persönliche Web

DRadio Wissen macht auf eine drastische Veränderung der Informationsflüsse durch die fortschreitende Personalisierung von Webangeboten aufmerksam.

Jeder steckt in einer Filterblase, denn die virtuelle Welt, die ihm Google, Facebook und Co anliefern, ist auf seine persönlichen Vorlieben abgestimmt. Ein in sich zurückgekrümmtes System – mit fatalen Folgen.

Der komplette, sehr aufschlussreiche Podcast lässt sich auf der DRadio-Webseite nachhören. Noch etwas ausführlicher beschäftigt sich Mashable mit dem Thema. Sowohl Mashable als auch DRadio beziehen sich auf einen TED-Talk von Eli Pariser mit dem Titel Beware online “filter bubbles”“.


Ein sehr anschauliches Beispiel für solch eine “Filterblase” liefert der oben verlinkte DRadio-Podcast:

Wir werden so zu einem vormodernen Papst, der nach dem Weltbild googelt. Der Name Kopernikus taucht in den Suchlisten nicht auf. Nur ein gewisser Ptolemäus versichert uns tagtäglich: Wir, nur wir, sind der Mittelpunkt des Universums.

Aktuell gibt zum Beispiel Netzpolitik.org praktische Lebenshilfe, wie man in Facebook zumindest teilweise die Kontrolle darüber zurückerlangen kann, wessen Nachrichten man sehen kann. Wir neigen ohnehin dazu, nur das wahrzunehmen, was wir wahrnehmen möchten. Dies kann durch verstärkende Algorithmen in personalisierten Webangeboten in eine permanente Nabelschau münden. Eine Gefahr, die natürlich auch durch personalisierte bibliothekarische Angebote gegeben ist.

Sobald ein Recommender-System erwähnt wird, kommt zwangsläufig die Debatte über den Matthäus-Effekt. Auch Klassifikationen sind alles andere als neutral. Ansonsten hätte die Klassifikation für Allgemeinbibliotheken nach der Wende kaum umgearbeitet werden müssen. Kann es Aufgabe der Bibliotheken sein, diesem Trend durch auch nur scheinbar neutrale Suchsysteme entgegen zu wirken?

The Gatekeeper is Dead! Long live the Gatekeeper!

Cameron Neylon (Science in the Open) hat in dieser Präsentation zusammengefasst, warum er die These vom “Filter Failure” für falsch hält. In guter alliterierender Tradition geht er vom “discovery deficit” aus. Die Folien geben auch ohne Vortrag einen zumindest grundlegenden Eindruck, worum es geht:

In einem Posting erläutert Neylon die zugrunde liegende Überlegung: so lange Publizieren aufwändig und teuer war, mussten leistungsfähige Filter die Menge der publizierten Informationen begrenzen. Durch das Web ist Publizieren jedoch so einfach und auch kostengünstig geworden, dass diese Filter nicht mehr benötigt werden. Seine These:

We don’t need more filters or better filters in scholarly communications – we don’t need to block publication at all. Ever. What we need are tools for curation and annotation and re-integration of what is published. And a framework that enables discovery of the right thing at the right time. And the data that will help us to build these. The more data, the more reseach published, the better.

Diese These kann man auch im Zusammenhang mit der stets wiederkehrenden Debatte diskutieren, welche Inhalte für Kataloge in öffentlichen Bibliotheken “angemessen” sind. So wird gerade in den Netbib-Kommentaren behauptet, für öffentliche Büchereien [sei] der Gesamtbestand von PaperC wohl doch zu wissenschaftlich ausgerichtet.. Zugegeben, die Zahl derer, die nach Perelmans mutmaßlichen(?) Beweis der Poincaré-Vermutung in ÖB-Katalogen sucht, wird eher gering sein. Doch wenn jemand danach sucht, warum soll es nicht zu finden sein? Vom PaperC-Bestand, der meines Erachtens zu einem beachtlichen Teil auch im herkömmlichen Sinne “ÖB-tauglich” ist, ganz zu schweigen. Spontan gefunden habe ich zum Beispiel:

Wer kann behaupten zu wissen, was die Nutzer einer Bibliothek tatsächlich suchen? Dahinter steckt auch ein wenig die Frage, was sie zu verstehen in der Lage sind. Eine Antwort darauf zu finden, steht Bibliothekswesen meines Erachtens nicht zu. Finanzielle Gründe, juristische Straftatbestände oder mangender Platz im Buchregal sind Filtergründe. Rein inhaltliche Filter sind nicht oder nur schwer zu begründen.