ALA-Statement zum PRISM-Skandal

Aus der ALA-Pressemitteilung “ALA calls for national dialogue to reform the nation’s surveillance laws”:

The American Library Association (ALA) is, frankly, saddened that two major revelations about our country’s surveillance practices confirm our gravest worries: the government has obtained vast amounts of personal information about the activities, especially electronic communications of all kinds, of essentially everyone in the United States, including millions of innocent people.

ALA-Präsidentin Maureen Sullivan sieht in Bibliotheken einen geeigneten Ort, die Debatte um die beste Balance zwischen Freiheit und Sicherheit zu führen.

Die NSA und die Cloud

Der US-Geheimdienst NSA fährt also wahrscheinlich ein riesiges Überwachungsprogramm namens PRISM. So ist es gerade überall zu lesen: Zeit, Spiegel, Guardian, New York Times. Überwacht werden laut NZZ:

  • Microsoft seit 2007
  • Yahoo seit 2008
  • Google seit 2009
  • Facebook seit 2009
  • PalTalk seit 2009
  • Youtube seit 2010
  • Skype seit 2011
  • AOL seit 2011
  • Apple seit 2012

Analysiert wird angeblich so gut wie alles:

The National Security Agency and the FBI are tapping directly into the central servers of nine leading U.S. Internet companies, extracting audio, video, photographs, e-mails, documents and connection logs that enable analysts to track a person’s movements and contacts over time.

Soviel zum Thema Cloud Computing für die öffentliche Verwaltung? Ich bin gespannt, ob und wie Juristen sich dieses Themas annehmen werden.

Wie Nutzer unsere Kataloge sehen

An der Bibliothek der Hochschule Hannover haben wir seit ein paar Wochen VuFind im Beta-Einsatz. Den Begriff “Beta” fassen wir in einer ähnlichen Weise auf, wie er in der Wikipedia beschrieben wird:

Der Nutzen eines Betatests besteht darin, dass Fehler, die typischerweise erst in der Praxis auftreten, wie zum Beispiel Konflikte mit anderen Programmen oder Probleme mit bestimmten Hardwarekomponenten, schon vor dem Release des Programms erkannt und behoben oder zumindest dokumentiert werden können.

Dass wir BibliotheksmitarbeiterInnen mit jahre- bis jahrzehntelanger Bibliotheks- und Katalogerfahrung nicht geeignet sind, unser neues System aus Nutzerperspektive zu beurteilen, war uns klar. Also hat meine Kollegin Andrea Hofmann einen Fragebogen konzipiert, den wir mit verschiedenen Nutzern durchgehen wollten. Gesagt, getan:

Das Testszenario war recht einfach. Wir haben StudentInnen und KollegInnen mit Kaffee und Keksen in unseren Besprechungsraum gelockt und sie dort vor den Katalog gesetzt. Meine Kollegin unterhielt sich mit den Testern und ging mit ihnen die Fragen und Aufgaben aus dem vorbereiteten Fragebogen durch. Ich saß im Hintergrund, beobachtete und machte Notizen. Die Ergebnisse haben uns teils bestätigt, teils überrascht.

Da wir nicht die einzige Bibliothek sind, die gerade an der Oberfläche von Discovery-Systemen herumschraubt, möchten wir ein paar der wichtigsten Erkenntnisse hier zusammenfassen:

Kleine Fehler und Unbequemlichkeiten

Erwartungsgemäß sind den Testern gleich ein paar Fehler oder Unbequemlichkeiten in der Usability aufgefallen. Das Fenster für die Autocomplete-Vorschläge war beispielsweise nicht breit genug. Die Vorschläge waren abgeschnitten und wurden dadurch unbrauchbar:

Verwirrende Dialoge und unklare Angaben

Die Favoritenfunktion war einigen Testern zu überladen. Man muss im Favoriten-Popup scrollen, um speichern zu können. Und durchschnittliche Nutzer scrollen nicht gern. Auch war einigen nicht klar, was Tags sind. Und noch wichtiger: wo diese Angaben auftauchen. Letzteres haben wir provisorisch behoben, indem wir das Formular um die Angabe ergänzt haben, was öffentlich ist und was nicht.

Verfügbarkeitsinformationen

Die Darstellung der Verfügbarkeitsinformationen in der Vollanzeige wurde teils als unübersichtlich empfunden. Daran arbeiten wir ohnehin gerade. Die wiederholten Wünsche nach Anzeige des Rückgabedatums und der Zahl der Vormerkungen sind verständlich, können aber leider noch nicht umgesetzt werden.

Bibliothekarische Begrifflichkeiten sind unverständlich

Bibliothekarische Begrifflichkeiten sind Nichtbibliothekaren ebenso unverständlich, wie Versicherungsvokabular Nichtversicherungsmenschen unverständlich ist. Dieser Kritikpunkt war zu erwarten. Erstaunt waren wir ein bißchen, welche Begrifflichkeiten unklar sind. “Artikel” zum Beispiel ist vielen offenbar geläufiger als “Aufsatz”. Hier wollen wir zu einem späteren Zeitpunkt noch einmal mehr Zeit investieren, um ein Vokabular zu finden, das sowohl die exakte Beschreibung des Bestandes erlaubt als auch allgemein verständlich ist.

Ein klarer Kritikpunkt war in diesem Zusammenhang auch unser “Collections”-Filter. Wir hatten Facetten, mit denen sich “Bibliotheksbestand”, “Nationallizenzen” und “Online Contents” filtern ließen. Bibliotheksbestand leuchtete ein, “Nationallizenzen” war allen unklar und “Online Contents” wurde als “online verfügbare Dokumente” missverstanden.

Die Funktion der übrigen Facetten war allen Testern klar und wurde für sinnvoll befunden. Es wurden spontan keine weiteren Facetten vermisst.

Trefferliste zu lang (und zu voll)

Die Trefferliste wurde von fast allen als viel zu lang empfunden. Gewünscht wurden mehr Treffer auf einen Blick. Die bis dahin in der “Kurzliste” angezeigten Verfügbarkeitsinformationen (z.B. Standort und Signatur) wurden an dieser Stelle meist als überflüssig gesehen.

Wir haben zusätzlich die “Ähnlichen Schlagworte” entfernt, um größere Teile der Ergebnisliste auf den Bildschirm zu bekommen. Denn: Nutzer scrollen nicht gerne! 1) Vgl. “Verwirrende Dialoge und unklare Angaben”

Usability der grafischen Zeitleiste

Die Bedienung der grafischen Zeitleiste (Markierung des gewünschten Zeitraums) wurde von keinem Testnutzer ohne Hilfestellung verstanden. Als nützlich wurde die Darstellung der Erscheinungsjahre – im Sinne einer Infografik – meist dennoch empfunden.

Suche nach Dokumententyp

Wir wollten auch herausfinden, wie Nutzer gezielt nach Zeitschriftenartikeln eines bestimmten Autors suchen. Interessanterweise wurde daraufhin mehrfach nach „Bill Gates Artikel“ oder „Bill Gates Zeitschrift“ gesucht. Wir wollen nun verfolgen, 2) In nicht allzu ferner Zeit werden wir eine weitere Gruppe Nutzer unter Beobachtung auf unseren neuen Katalog loslassen. Zusätzlich erfassen wir – selbstverständlich anonymisiert – die Nutzung des Katalogs mit PIWIK. ob wir diese Art der Suche ausgelöst haben oder ob es sich um ein gängiges Suchmuster handelt. Falls letzteres, könnte man darüber nachdenken, diese Art der Suche zu ermöglichen.

Sonstige Bemerkungen

Das waren im wesentlichen die Kritikpunkte. Insgesamt wurde VuFind als “freundlicher”, “einladend” und “umfassend” empfunden. Die Formulierung “besser als der alte Katalog” fiel im Wortlaut mehrfach. Ebenso gab es (positive) Vergleiche zu Ebay, Amazon und Immobilienportalen. Eigentlich war jeder Testnutzer sehr angetan. Also: weiter geht’s!

References   [ + ]

1. Vgl. “Verwirrende Dialoge und unklare Angaben”
2. In nicht allzu ferner Zeit werden wir eine weitere Gruppe Nutzer unter Beobachtung auf unseren neuen Katalog loslassen. Zusätzlich erfassen wir – selbstverständlich anonymisiert – die Nutzung des Katalogs mit PIWIK.

FoeBuD ist tot! Es lebe die Digitalcourage!

Der Verein zur Förderung des öffentlichen bewegten und unbewegten Datenverkehrs e.V. (FoeBuD) hat sich entschlossen, diesen herrlichen Namen aufzugeben und sich fortan Digitalcourage e.V. zu nennen. Wirklich schade, aber verständlich. Rena Tangens, padeluun & Co erklären in diesem Film, warum ein neuer Name notwendig war:

Auch wenn der neue Name ein bißchen glatt wirkt, gibt es keinen Anlass für Zweifel, dass die digital Couragierten auch in Zukunft wichtige und unterstützenswerte Arbeit leisten. Daher möchte ich hier auf den Spendenauf verweisen, der sich (noch) auf der alten Homepage befindet. Wer den Verein übrigens nicht zuordnen kann: das sind (unter anderem) die mit dem Big Brother Award.

[via Netzpolitik.org]

Hiptype schnüffelt E-Book-Lesern hinterher

Die Firma Hiptype will E-Book-Leser überwachen. Heise.de schreibt:

Mit der Analysesoftware der Firma, die auf JavaScript-Routinen basiert und bislang unter anderem mit Titeln aus Apples iBookstore arbeitet, lässt sich aufdecken, wie Nutzer mit E-Books umgehen. Und das sehr genau: Wo beginnen sie zu lesen, wo brechen sie die Lektüre am häufigsten ab, welche Zitate tauschen sie mit anderen Nutzern aus. Auch eine Nachverfolgung, wann eine Kaufentscheidung fällt, ist möglich – die Hiptype-Technik kann selbst in kostenlosen Leseproben stecken.

Genau, was wir uns immer gewünscht haben! Denn die Konsequenzen sind ja wunderbar! Amazon weiß genau, welches Zitat aus Fifty Shades of Grey man geteilt hat und kann dann gleich das passende Zubehör anbieten. Auch hervorragend sind natürlich auf den Lesemainstream zugeschnittene Bestseller. Ein Buch muss ja erfolgreich sein, wenn man die beliebtesten Stellen einfach hintereinander aufreiht. Und Versicherungen haben sicherlich auch ein Interesse daran, wer welchen Ratgeber liest.

Zwar gibt Hiptype an, nur anonymisierte Daten zu speichern, und man wolle Nutzern auch erlauben, sich ganz aus dem Tracking zu verabschieden – letzteres geht allerdings nur nachträglich.

Aber wie schnell AGB geändert werden können, muss an dieser Stelle wohl nicht betont werden.

Tracking via Google Web Fonts?

Google hat seit einiger Zeit einen nützlichen und natürlich kostenlosen Dienst namens Google Web Fonts im Angebot. Das Prinzip: Man kann über die entsprechende API Webfonts für seine Webseiten einbinden. Diese Fonts können dann auch auf Rechnern angezeigt werden, die diese Schriftart nicht installiert haben. Wie das genau funktioniert, wird u.a. von Elmastudio beschrieben.

Wenn Google diese Schriftarten zur Verfügung stellt und diese Schriftarten vom Browser angezeigt werden: Kann Google tracken, wer welche Webseiten mit Google Web Fonts aufgerufen hat? Das heißt, es brächte überhaupt nichts, Google Analytics zu blocken, sobald Web Fonts eingebunden sind? Wenn man z.B. die Webseite des schwedischen Piratenpartei-Gründers besucht, ist dort nämlich nicht nur Google Analytics eingebunden, sondern auch die API für Web Fonts.

Meine Frage an alle AuskennerInnen: Ist das tatsächlich so? Ich habe zwar eine Menge Hinweise dazu gefunden, aber keine definitiv bestätigende Aussage.

Wikipedia(EN):

Google has been suspected to collect and aggregate data of internet users through the various tools provided to developers, such as Google analytics, Google Web fonts and Google APIs. This might allow to figure out a user’s route through internet by storing it’s IP on each site (cross-domain web tracking). Linked to other information made available through Google APIs, which are widely used, Google might be able to provide a quite complete web user profile linked to an IP. This kind of data is invaluable for marketing agencies, and for Google itself to increase the efficiency of its own marketing/advertising activities.

Google is encouraging developers to use their tools and actively encouraging developers to communicate end-user IP’s to Google (https://developers.google.com/web-search/docs/): “Developers are also encouraged to make use of the userip parameter to supply the IP address of the end-user on whose behalf you are making the API request. Doing so will help distinguish this legitimate server-side traffic from traffic which doesn’t come from an end-user.”

Trash-Wissen.de:

Wer Webfonts verwendet, bindet diese mittlerweile in aller Regel via „Google Webfonts“ ein. Das bringt unter bestimmten Bedingungen weniger Traffic, schnellere Ladezeiten, einen Eintrag in der Tracking-db von Google, und eine Kerbe in der Wahrnehmung der Urheber der Schriften.

Ein Nischenangelegenheit ist dies längst nicht mehr. Etliche WordPress-Themes setzen inzwischen auf die Web-Font-API, z.B. das populäre Liquorice-Theme. Als Webseitenanbieter kann man sich dagegen entscheiden, die Web-Fonts über die API einzusetzen. Als Surfer muss man dagegen a) erst einmal davon wissen und b) in der Lage sein, das Tracking zu blockieren.

Wenn Google Webseitennutzung über die Fonts wirklich nachverfolgen kann: Wie blockt man die Fonts-API?

Trend Nr. 1 für 2011: Peer-to-Peer (P2P)

Teil der Operation Frühjahrsputz, in deren Verlauf angefangene und nie beendete Postings einfach so veröffentlicht werden. Dieses Posting finde ich aus bloghistorischer Sicht besonders interessant. Ich lag übrigens mächtig daneben mit meiner Prognose.

Mit meiner Trend-Ansage für 2010 lag ich einigermaßen richtig. Linked (Open) Data ist wirklich ein Dauerthema geworden. Immer noch auf dem aufsteigenden Ast, aber inzwischen im bibliothekarischen Bewusstsein verankert. Auch beim anderen prophezeiten Trend, mobile Bibliotheksanwendungen, ist noch Luft nach oben. Thema waren sie jedoch auch jeden Fall. Daher wage ich es, auch für das nächste Jahr eine Prognose abzugeben.

Trend Nr. 1 für 2011 werden Peer-to-Peer-Anwendungen (P2P) verschiedenster Art sein. Verschiedene Vorgänge der jüngeren Vergangenheit haben auch Laien drastisch vorgeführt, wie fragil digitale Kommunikation ist. In Ägypten wurde das Netz kurzerhand abgeschaltet

Zentral Dezentral
Twitter Identi.ca
Facebook Diaspora
Google Yacy

http://webzwonull.ishp.de/allgemein/amazon-facebook-twitter-und-das-hausrecht-in-der-cloud/

http://annalist.noblogs.org/post/2011/01/08/us-justiz-holt-die-netze-ein/

http://derstandard.at/1289609196058/P2P-DNS-Pirate-Bay-Gruender-unterstuetzt-alternatives-Domain-Name-System

P2P-DNS

PS: Der erste Monat des Jahres ist schon wieder herum, und dieses Posting harrte immer noch der Fertigstellung. Daher ist es nun in nicht so ausführlicher Form wie ursprünglich geplant.

Warum es Google egal ist, eine Social-Media-Geisterstadt zu bauen

Einer Studie von Comscore (im Wall Street Journal wiedergegeben) zufolge fällt die monatliche Nutzungszeit von Google+ pro User deutlich geringer aus als die z.B. von Facebook. PC-User verbrachten zwischen September 2011 und Januar 2012 etwa drei Minuten pro Monat in Google+. Facebook kommt dagegen auf sechs bis sieben Stunden. Venturebeat tritt noch einmal mit der Behauptung nach, dass sogar “social networking pariah MySpace” auf eine durchschnittliche Nutzungszeit von 8 Minuten pro Monat käme.

Gegenüber Venturebeat hat Google auch geäußert, worum es bei Google+ eigentlich geht:

The reality that Google+ is much more than a destination site makes it exceedingly hard for any third-party research firm to monitor or measure its performance. Google thinks about the service not as a site but as a deepening of its relationship to billions of existing users who are already committed to Google’s services like Search, YouTube, Android, etc. By this measure, engagement is already enormous.

Es geht Google also nicht um die Beziehungen der Nutzer untereinander, sondern um Googles Beziehung zu den Nutzern. Das ist wenigstens eine klare Aussage.

Nicht nur in Hamburg sagt man Tschüss.

Suchprotokoll leeren (Google)

Die Electronic Frontier Foundation beschreibt, wie man sein Suchprotokoll bei Google löschen kann. Und warum man das noch heute, vor dem 1. März 2012 tun möchte.

1. https://www.google.com/history aufrufen
2. Einloggen.
3. “Ganzes Webprotokoll entfernen”
4. Dann sollte da stehen: “Ihr Suchprotokoll ist derzeit leer.”

Mehr dazu auch bei Wired.