Zoosphere: Datenaggregator mit CC0-Insekten-Bildern

Zoosphere ist ein Portal, in dem Sequenzen digitalisierter Insektenpräparate aus dem Bestand des durch das Museums für Naturkunde Berlin unter CC0-Lizenz(!) veröffentlicht werden, zum Beispiel von Chrysis comparata, einer recht hübschen Wespe.

Chrysis Comparata
Chrysis Comparata, CC0

Die Seiten zu den einzelnen Digitalisaten sind nette Beispiele für die Aggegration von Fremddaten in Kombination mit eigenen Daten und Medien. So sind dort zum Beispiel Daten zu den Vorkommen der Insekten aus der mir bislang unbekannten Global Biodiversity Information Facility eingebunden. Vereinzelt sind auch “References” zu finden, zum Beispiel bei der Goldschildfliege (Phasia aurigera).

Die Ziele des Zoosphere-Projekts:

  • An international repository and web hub for high resolution image sequences of biological specimen
  • Delivering content to various end user devices, such as dekstop computers, mobile devices and web browsers in general
  • Create a tool for scientists, especially taxonomists, to speed up and improve their research
  • Prevent physical object transfer via regular mail
  • Reduce travel costs and efforts related to local object inspection
  • Digital preservation of biological collection objects, which are subject to natural decay
  • Increasing the visibility and accesibility of biological collection objects
  • Making objects available to both: general public and scientists

Das Projekt befindet sich nach Eigenangabe noch in einer sehr frühen Phase. Was jetzt zu sehen ist, ist jedoch schon recht vielversprechend. Besonders die CC0-Lizenzierung muss positiv hervorgehoben werden, wo andere Museen doch lieber auf nervige Wasserzeichen und mit sachlichen Gründen nicht zu erklärenden Nutzungseinschränkungen arbeiten.

Mankos wie die nicht funktionierende(?) Favoritenfunktion werden sicherlich noch behoben. Von diesem Projekt wird man jedoch sicherlich noch mehr hören, hoffentlich auch in Form einer Kooperation mit Wikimedia/Wikidata und einer daraus resultierenden Bot-generierten Anlage von Artikeln zu bisher in der deutschsprachigen Wikipedia fehlenden Insekten.

Historiker.de pausiert wegen des #LSR

Historiker.de, der “Nachrichtendienst für Historiker” befindet sich im “Wartungsmodus”:

aufgrund des am 1. März 2013 in Kraft getretenen Leistungsschutzrecht für Presseverleger müssen wir den Betrieb des Nachrichtendienst für Historiker nach 17 Jahren vorerst einstellen.

Die unklare Lage bezüglich der Textlänge für Snippets (siehe auch: Leistungsschutzrecht für Presseverleger bei Wikipedia) zwingt uns zu diesem Schritt.

Ob und wie dieser Dienst weiter zur Verfügung gestellt werden kann, können wir erst nach den ersten klärenden Urteilen zur eher unsicheren Ausgestaltung des Gesetztes sagen.

Wollen Sie über die weitere Entwicklung informiert werden, so möchten wir Ihnen einen Besuch unserer Facebookseite ans Herz legen: Nachrichtendienst für Historiker auf Facebook

Rivva will weitermachen, hat aber neben den durchs Leistungsschutzrecht verursachten Unannehmlichkeiten auch noch Ärger mit den Twitter Display Requirements. Tweetdeck wird gestorben, die API wird eingeschränkt, dann auch noch diese “Display Requirements”… Es wird Zeit, Alternativen zu Twitter zu finden und zu nutzen!

[u.a. via Archivalia]

Aufstieg und Fall von Digg.com

Dan Rowinski beschreibt auf Readwriteweb die Entwicklung von Digg.com:

Digg was started in late 2004 as a news aggregator that let users vote stories up or down. The “up vote” mechanism is now commonplace on the Web, with popular sites such as Reddit and Hacker News using it as a primary feature. The up vote can be seen in many different social sites these days, with the “Like” from Facebook and “+1” of Google+ as derivatives of the concept.

Interessanter Artikel, auch wenn ich die dortige Definition des mobilen Webs als “Web 3.0” nicht teile.

Plan3t.info – der neue Planet ist da

Dieses Posting ist von Edlef Stabenau ordnungsgemäß nach CC-BY aus Netbib übernommen:

Nachdem letzte Woche etwas klammheimlich der Start erfolgte, aber schon einige sehr interessante Stimmen ein sehr breites Themenspektrum abdecken, auch hier der Hinweis auf den Planet.info.

Er soll den alten Planet Biblioblogs ablösen, hat aber ein neues und interessantes Feature:

Dazu werden nun verschiedene KollegInnen aus der Bibliotheks-Sphäre ihre Stimme ergreifen. Jeweils eine “Stimme” pro (Werk)Tag wird lesenswerte Bücher, Blogs, Artikel, Podcasts, Videoclips, Vorträge ansagen, vielleicht auch von Erfahrungen mit kommerzieller und nichtkommerzieller Bibliothekssoftware berichten oder was auch immer die Stimme für empfehlenswert oder diskussionswürdig hält.

Alle weiteren Informationen dazu finden sich auf der Seite Was ist das hier?. An einigen Funktionalitäten wird z.Zt. noch ein wenig herumgeschraubt…

Relativ wichtig sind die 2 wichtigen Feeds: Wer nur an den Stimmen interessiert ist, nutzt diese Adresse: http://plan3t.info/category/stimmen/feed/, wer an allen aggregierten Weblogs inkl. der Stimmen interessiert ist, nutzt diese: http://plan3t.info/category/aggregator/feed/

Ergänzung:
Eine “Stimme” von mir gibt’s auch schon: “Woher die guten Ideen kommen”

Man darf sowohl die Stimmen als auch das Startposting übrigens auch gerne kommentieren…

Rivva-Ersatz in geschlossener Gesellschaft: Newshype

Mit Newshype geht nun endlich eine Seite an den Start, die die Rivva-Nachfolge antreten möchte. Artikel über Newshype:

Momentan ist die Besichtigung nur mit Einladung möglich. In den Screenshots sieht Newshype aber schon einmal recht rivva-artig aus. Die praktische Umsetzung des Rankings zu beobachten, wird besonders spannend sein. Ich hoffe auf baldige Freischaltung des Dienstes.

Ein brauchbarer Open-Source-Memetracker für kleinere, speziellere Communities wie z.B. die Biblioblogosphäre ist jedoch auch dann weiterhin wünschenswert, wenn Newshype den Erwartungen gerecht würde.

(Biblio-)Blogempfehlungen

Neue Biblioblogs allerorten! Der frischeste Neuzugang ist der
TUBfind-Blog der TUB Hamburg-Harburg, in dem über den alternativen Katalog der TUB HH informiert wird. Im letzten Posting geht es um die Probleme mit Umlauten und Trunkierung inklusive Vorschläge zur Umgehung eben dieser Probleme. Das TUBfind-Blog richtet sich also zumindest bislang eher an das technisch interessierte Bibliothekswesen von heute.

Wer so langsam den Überblick verliert, was für Bibliotheksblogs es gibt, dem möchte ich zum wiederholten Male zwei Wege vorstellen, wie man sich zumindest ein kleines bißchen auf dem Laufenden halten kann.

Da ist natürlich einmal der Planet Biblioblog, in dem ziemlich viele (nicht alle) deutschsprachigen Blogs mit Bibliotheksbezug versammelt sind. Eine manuelle, subjektive Selektion aus der deutschsprachigen Bibliotheksblogwelt wird in Lesewolkes Rubrik “Gelesen in Biblioblogs” geboten. Dieser bibliothekarische Perlentaucher erscheint wöchentlich(!), im letzten zur 33. Kalenderwoche wird unter anderem eine Diskussion aus dem ebenfalls noch recht neuen Blog “Ethik von unten” aufgegriffen.

RSS:
http://rss.netbib.de/?media=rss
http://lesewolke.wordpress.com/feed/

Abonnieren!

Schaufenster der deutschen Open-Access-Szene

Im Juni 2009 forderte ich die Öffnung der Open-Access-Szene und schlug die Einrichtung von Projektblogs vor. Die RSS-Feeds könnte man bündeln und in irgendeiner Form verfügbar machen.

Nun ist es soweit, eine Yahoo-Pipe sorgt nun dafür, dass man zumindest einen gewissen Teil der Open-Access-relevanten Blogs auf einen Blick beobachten kann.

Die Pipe funktioniert folgendermaßen:

  1. In einem Google-Doc werden die Feeds gesammelt, die für die Pipe relevant sind. Ich habe mich dafür entschieden, weil man solch ein Dokument kooperativ erstellen kann. Das heißt, die Auswahl der Feeds ist nicht abhängig von der Pflege der Pipe. Außerdem kann man Google-Spreadsheets auch als .csv anzeigen lassen. Das erleichtert die Weiterverarbeitung mit der Pipe enorm.
  2. Die Feeds werden, wie schon erwähnt, als .csv-Datei in die Pipe eingelesen und aggregiert.
  3. Der aggregierte Feed wird nach verschiedenen Begriffen durchsucht. Motto: Falls Open-Access-relevanter Begriff enthalten, dann ab ins Töpfchen; else: Kröpfchen.

Das war’s schon. Das Ergebnis findet sich nun zusammen mit einem von Lambert Heller vorgeschlagenen Twitterwidget auf der Webseite von Open-Access.net. Und hier:

Verbesserungsvorschläge werden gerne angenommen, Rumgemecker ignoriert. Das Ganze ist nicht perfekt, eben perpetual beta. Aber es ist brauchbar. Wer Blogs vermisst, möge sie hier in den Kommentaren oder per Email an info (at) openaccess-germany.de vorschlagen!

Open Access muss sich öffnen

Ein umfassender Rückblick auf die Open-Access-Vernetzungstage 2009 steht noch aus. Bevor ich mich in einem späteren Posting einzelnen Projekten widme, möchte ich auf ein Thema kommen, das zum Ende des Workshops von einem immer größeren Teil der Teilnehmer besprochen wurde: Die Kommunikation innerhalb der “Szene”.

Es gibt zahlreiche Projekte in der deutschsprachigen Open-Access-Szene. Dem interessierten Beobachter fällt es nicht immer leicht, den Überblick zu behalten. Noch schwieriger wird es, wenn man sich zum Ziel setzt, den Fortschritt einzelner Projekte im Auge behalten zu wollen. Einige Projekte und Initiativen betreiben Öffentlichkeitsarbeit nur auf Tagungen, Workshops oder aber per Journal-Veröffentlichung. Das ist weder effektiv noch dem Thema “Open Access” angemessen.

Die einfachste Lösung: Projektblogs. Jedes Projekt sollte ein Blog führen, in dem zumindest wesentliche Meilensteine dokumentiert werden. Noch schöner wäre es natürlich, wenn tatsächlich projektinterne Überlegungen offen gelegt und zur Diskussion gestellt werden. Zwei schöne Beispiele für Projektblogs sind zum Beispiel Oliver Flimms Blog zu OpenBib und der des Beluga-Projekts.

Wenn alle (oder zumindest einige) der Projekte per Blog kommunizieren, ist der nächste logische Schritt die Einrichtung eines RSS-Aggregators zum Thema Open Access. Zwei Alternativen habe ich quick’n’dirty eingerichtet. Hier eine Yahoo-Pipe, in der News-Artikel und Blogpostings aus verschiedenen Quellen aggregiert sind:

Den selben Feed habe ich auch in einen Testplaneten gepackt. Welche Quellen enthalten sind, wie ein Aggregator genau aussieht: Das ist meines Erachtens gar nicht so wichtig. Wichtig ist, dass die Projekte so schnell wie möglich anfangen, ihre Bemühungen zu dokumentieren und die Berichte irgendwie per RSS zugänglich machen. Dann findet sich schon eine Lösung, wie man einen Aggregator aufbaut, der Deutschlands Open Access in Aktion darstellt.