Infobib

Interessantes aus Informations- und Bibliothekswesen

Du durchsuchst gerade das Archiv des Tags ‘metadaten’.

Archiv: metadaten

Interessantes neues interdisziplinäres Repository: Zenodo.

All research outputs from across all fields of science are welcome! ZENODO accept any file format as well as both positive and negative results. However, we do promote peer-reviewed openly accessible research, and we do curate your upload before putting it on the front-page.

Die Features klingen spannend. Unter anderem kann man direkt aus seiner Dropbox veröffentlichen. Metadatenextraktion aus Dateien ist auch geplant.

[via Peter Suber, siehe auch Archivalia]

Das Board der Digital Public Library of America (DPLA) hat in einem Meeting empfohlen, CC0 als Lizenz für die Publikation von bibliographischen Metadaten zu verwenden. Sofern man überhaupt davon ausgeht, dass die Daten urheberrechtlich geschützt werden können und müssen. Aus der Empfehlung (PDF):

  • The DPLA asserts that metadata are not copyrightable, and that applying a license to them is not necessary.
  • To the extent that the law determines a copyright interest exists, a CC0 license applies.
  • The DPLA asserts no new rights over metadata at the DPLA level.

Damit liegt die DPLA auf einer Linie mit den “Empfehlungen zur Öffnung bibliothekarischer Daten”.1 Und reibt sich ein wenig am Widerspruch von Klaus Tochtermann, der nach Alternativen sucht. In einem Kommentar zu seinem Posting schreibt er:

For me it is still too simple to argue “the tax payers pays so we have to make it public without any restriction”. Yes the tax payer paid and the public has the right to access, reuse the data – no doubt about that. But what about commercialisation of the data? What did we learn during the last decades about publication processes of scientific papers: The tax payer pays twice: First the scientific community writes and reviews the papers for the publishers; Second the scientific community buys the journals in which these papers have been published. What makes you so confident that we will not enter the same loop with data – regardless of whether it is research data or library data? And then the European Commission must help out similar to a recent proposal to publish only OA in EC-funded projects.

Im Gegensatz zu den ins Feld geführten Nicht-OA-Publikationen führt eine Veröffentlichung von bibliographischen Metadaten unter CC0 dazu, dass sie jeder verwenden kann. Wenn man sie zurückkauft, dann muss man das nur, weil ein Mehrwert mitgeliefert wird. Zum Beispiel die Auslieferung als komfortabler Suchindex. Die datenproduzierende Bibliothek hat jedoch jederzeit die Möglichkeit, die Daten selbst aufzubereiten und damit zu machen, was sie will. Die erwähnten Publikationen sind jedoch in der Regel nicht OA verfügbar, sondern werden meist exklusiv einem Verlag zur Nutzung überlassen.

Die Kommerzialisierung von Daten, die unter CC0-Lizenz veröffentlicht wurden, schadet der datenproduzierenden Bibliothek meines Erachtens überhaupt nicht.

[via OpenGLAM]

PS: Dieses Thema wird zur Zeit auch in der Mailingliste RepMan diskutiert. Anlass ist die Möglichkeit, OA-Repositories für den Primo-Central-Index zu registrieren. Voraussetzung: Content must be published with a CC0 (no rights reserved) license.


  1. Disclaimer: … an denen ich mitgewirkt habe. []

Aus einer Pressemitteilung der Max Planck Digital Library:

Die Software imeji erzeugt aus wissenschaftlichen Mediendaten wie z.B. Fotografien, Mikroskop-Aufnahmen oder Grafiken zitierfähige digitale Forschungsobjekte. Eine erste Version dieser Software hat die Max Planck Digital Library nun für Forschungseinrichtungen, aber auch andere Interessierte online gestellt. Als Open-Source Software ist imeji frei verfügbar und kann nach Belieben nachgenutzt werden.

Die Software selbst gibt es hier. Auf imeji.org steht auch eine Demoversion zur Besichtigung zur Verfügung.

Lizenzinformationen zu den einzelnen Objekten habe ich bei ein paar Stichproben (z.B. bei diesem Bild) nicht gefunden.

2012 3 Aug

Googles “Structured Data Dashboard”

Abgelegt unter: Suchmaschinen | RSS 2.0 | TB | Tags: , , , , , | Kommentare geschlossen

In Googles Webmaster Central Blog wird das Structured Data Dashboard vorgestellt, mit dem u.a. sehen kann, welche Rich Snippets in einer Webseite verborgen sind, bzw. ob die eigenen korrekt funktionieren. Dies kann man auch direkt über Rich Snippet Testing Tool (Beispiel) testen.

2012 6 Jul

MARCXML via OAI-PMH von DOABooks

Abgelegt unter: Bibliothek,Open Access | RSS 2.0 | TB | Tags: , , , , , | Kommentare geschlossen

Die bibliographischen Daten des Directory of Open Access Books sind nun per OAI-PMH auch als MARCXML abgreifbar:

To enable easier incorporation into library catalogues, we have added the MARCXML metadata format the OAI-PMH interface.

[via Doabooks.org]

2012 7 Feb

Libcatcode.org

Abgelegt unter: Bibliothek,EDV | RSS 2.0 | TB | Tags: , , , , | Kommentare geschlossen

Eines Tages begab es sich, dass sich eine Programmiererin (m/w) und ein Bibliothekar (m/w) trafen. Der Bibliothekar sprach: “Du hast Deinen Code in meinen Metadaten!”
Die Programmiererin antwortete: “Deine Metadaten sind in meinem Code!”

So oder ähnlich soll sich die Gründung von Libcatcode.org zugetragen haben. Libcatcode ist eine Q&A-Seite für alle Fragen rund um “cataloging/coding integration and dialogue”.

Die Software dahinter ist übrigens OSQA von Bitnami, das auch für die Answers-Sektion von Semanticweb.com eingesetzt wird.

Aus einer E-Mail von Julia Hauser:

Wir freuen uns, mitteilen zu können, dass der bestehende Linked Data-Service der Deutschen Nationalbibliothek um Titeldaten erweitert wird.

2010 hat die Deutsche Nationalbibliothek damit begonnen, Normdaten als Linked Data zu veröffentlichen. Der bestehende Linked Data Service der DNB [1] wird nun um Titeldaten erweitert. In diesem Zuge wird auch die Nutzungslizenz für Linked Data auf “Creative Commons Zero” [2] umgestellt.

Jetzt wurde der überwiegende Teil der Titeldaten der DNB – es fehlen z. B. noch Musikalien und die Bestände des Deutschen Exilarchivs – sowie die fortlaufenden Sammelwerke (Zeitschriften-, Zeitungs- und Schriftenreihentitel der Zeitschriftendatenbank (ZDB)) umgesetzt. Die RDF/XML-Repräsentation des jeweiligen Datensatzes ist ab sofort im Portal der DNB [3] über einen entsprechenden Link verfügbar. Es handelt sich ausdrücklich um einen experimentellen Dienst, der laufend erweitert und verfeinert werden soll. Nähere Informationen zu Fragen der Modellierung und des Vorgehens finden sich in der aktualisierten Dokumentation [4].

Der einzig richtige und wichtige Schritt! Die dazugehörigen Links:

[1] https://wiki.dnb.de/display/LDS/
[2] http://creativecommons.org/publicdomain/zero/1.0/
[3] http://portal.dnb.de/
[4] http://files.d-nb.de/pdf/linked_data.pdf

Anne Christensen macht auf Plan3t.info auf Shelflife (hatten wir hier schon einmal) aufmerksam. Dabei handelt es sich um einen pfiffigen Versuch, den Mehrwert des Stöberns am Regal in die digitale Welt zu übertragen.

Am meisten beeindruckt bin ich davon, dass die Farbe der Buchrücken die Relevanz der jeweiligen Titel abbildet, und zwar auf Grundlage von lokalen Ausleihdaten sowie der Verwendung der Titel in Kursen und Seminaren der Universität. “Community Relevance” heißt dieser Faktor, den das clevere Entwicklungsteam einführt und damit bestehende interessante Vorschläge zur Integration von Popularitätsdaten in Ranking-Algorithmen aufgreift.

Mehr dazu im Video:

Tutorial from Harvard Library Innovation Lab on Vimeo.

Und natürlich (auch weiterführende Links) in Annes Posting auf Plan3t.info.


Shelflife von CH steht unter einer Creative Commons Namensnennung-Weitergabe unter gleichen Bedingungen 3.0 Deutschland Lizenz. blogoscoop
Infobib läuft unter Wordpress.3.0.5 | Theme: angepasst nach : Gabis Wordpress-Templates | Creative Commons Lizenzvertrag 25 Verweise - 0.413 Sekunden.