Electronic-Ressource-Management-Systeme: AMSL und SemperTool RMS

Die Verwaltung von elektronischen Ressourcen und der dazugehörigen Lizenzen etc. spielt in Bibliotheken eine immer größere Rolle. Ein von der, bzw. für die UB Leipzig auf Linked-Data-Technologie entwickeltes System auf Ontowiki-Basis nennt sich AMSL:

Projektziel ist die Bereitstellung einer skalierbaren, nachnutzbaren Web-Applikation zur Verwaltung elektronischer Ressourcen in sächsischen Hochschulbibliotheken. Die Software nutzt Linked-Data Technologien und integriert alle für das ERM benötigten Daten in RDF. Notwendige Transformationsprozesse werden auf der Datenmanagement-Plattform formuliert, ausgeführt und in das ERM-System überführt. Ablaufprozesse, Datenmodelle und Abfragen können auf einer systembibliothekarischen Ebene erstellt und konfiguriert werden. Als generisches Werkzeug sind die Empfehlungen der DLF ERMI zu berücksichtigen.

Ein weiteres, zumindest von der UB Mannheim (PDF) eingesetztes Tool ist das dänische SemperTool Resource Management System (RMS).

The SemperTool Resource Management System (RMS) is a tool that provides all of the core functionality critical for managing library collections: including all features of an Electronic Resource Management System (ERM), as well as the ability to manage physical holdings on the library shelf.

VIVO-Workshop am 9. September 2015 in Hannover

die Technische Informationsbibliothek (TIB) lädt am Mittwoch, 9. September 2015, zum Workshop „VIVO als Forschungsinformationssystem in der Praxis“ nach Hannover ein. Das System VIVO, das auf Open Source Software und Linked Open Data beruht, verbreitet sich verstärkt im deutschsprachigen Raum. Der kostenlose Workshop bietet Interessierten die Möglichkeit, sich zu VIVO zu informieren und auszutauschen.

Die Teilnehmerzahl ist auf 40 begrenzt, um Anmeldung bis zum 30. Juli 2015 wird gebeten.

Am 10.9. findet am selben Ort ein Workshop der DINI AG Forschungsinformationssysteme (FIS) mit Gästen statt. Auf der untenstehenden Seite können Sie sich auch zu dieser Veranstaltung anmelden.

Weitere Infos zu Programm und Anmeldung: http://blogs.tib.eu/wp/vivo/

GND per SPARQL

Die ZBW hat nun einen SPARQL-Endpoint für die GND (Fuseki) gebaut. Aus der dazugehörigen Mail von Joachim Neubert:

Der Endpoint ist rein experimentell und ohne jede Gewähr auf Verfügbarkeit oder Performanz. Ich würde mich freuen davon zu hören, wenn er sich für Experimente als hilfreich erweist (oder was ggf. verbessert werden könnte).

Dies ist nützlich u.a. für den Abgleich (Reconciliation) von eigenen Daten mit der GND zum Beispiel via Google Refine/OpenRefine.

Wikidata wächst und gedeiht

Wikidata ist zur Zeit vermutlich das spannendste Wikimediaprojekt. Umso schöner, dass es offensichtlich nicht nur eine Kopfgeburt ist, sondern von den aktiven Nutzern sehr gut angenommen wird. Im Wikimediablog sind nun erste Zahlen zur Nutzung zu lesen:

Vor einem Monat wurden Aussagen in Wikidata verfügbar gemacht. Inzwischen sind zu mehr als 660.000 Objekten auch Aussagen hinzugefügt worden, was im Endergebnis mehr als 1,4 Millionen Aussagen bedeutet. Das Objekt mit den meisten Aussagen ist das Objekt “Vereinte Nationen (Q1065)“, welches alle Mitgliedsstaaten auflistet. Das Wachstum der Aussagenmenge ist großartig und übertrifft unsere Erwartungen.

Bisher haben wir mehr als 22 Millionen Links zu Wikipedia Artikeln. Es gibt etwas 24 bis 25 Millionen Wikipedia-Artikel, was also bedeutet, dass wir bereits mehr als 90% aller Links in Wikidata haben. Angenommen die Bots arbeiten weiterhin so effizient wie bisher, sollten alle Links in einem oder zwei Monaten übertragen sein. Danach ist es zu erwarten, dass das Wachstum in der Anzahl der Objekte erheblich zurückgeht.

Es sind aber auch schon über zwei Millionen manuelle Edits durchgeführt worden.

Wer sich unter Wikidata nichts vorstellen kann, sollte sich einfach ein paar Beispieldatensätze ansehen (zum Beispiel Ranganathan, Academic Library, Nordhorn oder Harry Potter and the Philosopher’s Stone) oder auch Lydia Pintschers Vortrag zu Wikidata ansehen.

10 Regeln für persistente URIs

Phil Archer hat eine Studie zur Gestaltung von URIs veröffentlicht. Praktischerweise gibt er eine knackige Zusammenfassung in Form von 10 Regeln, die es zu beachten gilt:

Follow the pattern
e.g. http://{domain}/{type}/{concept}/{reference}
Avoid stating ownership
e.g. http://education.data.gov.uk/ministryofeducation/id/school/123456
Re-use existing identifiers
e.g. http://education.data.gov.uk/id/school/123457
Avoid version numbers
e.g. http://education.data.gov.uk/doc/school/v01/123456
Link multiple representations
e.g. http://data.example.org/doc/foo/bar.rdf
e.g. http://data.example.org/doc/foo/bar.html
Avoid using auto-increment
e.g. http://education.data.gov.uk/id/school/123456
e.g. http://education.data.gov.uk/id/school/123457
Implement 303 redirects for real-world objects
e.g. http://www.example.com/id/alice_brown
e.g. http://www.example.com/doc/alice_brown
Avoid query strings
e.g. http://education.data.gov.uk/doc/school?id=123456
Use a dedicated service
i.e. independent of the data originator
Avoid file extensions
http://education.data.gov.uk/doc/schools/123456.csv

Die Erläuterungen zu den einzelnen Thesen sind unbedingt zu lesen, und zwar in der “Study on Persistent URIs with identification of best practices and recommendations on the topic for the Member States and the European Commission”.

Wikidata.org ist online

Lydia Pintscher gab in der Wikidata-Mailingliste den Launch von Wikidata.org bekannt:

The Wikidata team is excited to let you know that http://wikidata.org is now online and running the repository code \o/

You can now create items and add language links to the various Wikipedias to them. Thank you to everyone who helped.

There are some caveats! We’re still testing things and fixing minor bugs. Please let us know about any problems you find and go easy on the new wiki.

Wer einen Single-User-Login für die Wikimedia-Projekte hat – hier steht, wie das funktioniert – kann sich auf der Projektseite schon einloggen.

You can already edit, but beware that any content may be lost in case we have to reset the database.

Wer viel Zeit in die Daten stecken möchte, sollte diese Warnung ernst nehmen.

VIVO ist eine Ontologie

VIVO ist nicht nur eine Software und ein Netzwerk, sondern auch eine Ontologie.

Wer sich mit Linked Data und Ontologien auskennt: hier geht’s zum OWL-File (Version 1.5). 1) Wer sich die Ontologie ansehen möchte und VIVO nicht installiert hat, kann dafür unter anderem den Protégé Ontology Editor nutzen. Wer sich nicht damit auskennt, sollte erst diesen Wikipedia-Artikel über Linked Open Data lesen, dann die Linked-Data-FAQ und dann den (englischen) Wikipedia-Artikel über Ontologien.

Oder, wie die deutsche Wikipediaseite 2) Wieso eigentlich “Ontologie (Informatik)” und nicht “Ontologie (Informationswissenschaften)”? zum Thema meint: Ontologien in der Informatik sind meist sprachlich gefasste und formal geordnete Darstellungen einer Menge von Begrifflichkeiten und der zwischen ihnen bestehenden Beziehungen in einem bestimmten Gegenstandsbereich.

Bekannte Ontologien sind FOAF (für die Beschreibung von sozialen Netzwerken) oder Bibliontology (für bibliographische Daten). VIVO verwendet diese und andere Ontologien:

Ganz unten finden sich die Ontologie, um die es hier gehen soll, die VIVO-Ontologie. Diese Ontologie (in der aktuellen Version 1.4) kann man sich hier in einem bunten Diagramm ansehen. Vermutlich der beste Weg, sie kennenzulernen. Warum ist das Diagramm so schön bunt? Weil VIVO Teile verschiedenen Ontologien weiterverwendet und diese Teile in unterschiedlichen Farben dargestellt sind.

Paul Albert hat zwei Präsentationen zum Thema bei Slideshare:

Man kann in VIVO weitere Ontologien importieren und auch eigene anlegen. Die VIVO-Ontologie selbst ist organisationsübergreifend angelegt. Da jede Organisation ihre Hausregeln und Besonderheiten hat, können diese nicht in der VIVO-Ontologie abgelegt werden. Dafür baut man sich dann eben selbst eine. Im Backend gibt es dazu verschiedene Werkzeuge zum Browsen der Ontologie und zum Erstellen eigener Klassen.

Morgen geht’s dann weiter mit der VIVO-Community.

References   [ + ]

1. Wer sich die Ontologie ansehen möchte und VIVO nicht installiert hat, kann dafür unter anderem den Protégé Ontology Editor nutzen.
2. Wieso eigentlich “Ontologie (Informatik)” und nicht “Ontologie (Informationswissenschaften)”?