GND per SPARQL

Die ZBW hat nun einen SPARQL-Endpoint für die GND (Fuseki) gebaut. Aus der dazugehörigen Mail von Joachim Neubert:

Der Endpoint ist rein experimentell und ohne jede Gewähr auf Verfügbarkeit oder Performanz. Ich würde mich freuen davon zu hören, wenn er sich für Experimente als hilfreich erweist (oder was ggf. verbessert werden könnte).

Dies ist nützlich u.a. für den Abgleich (Reconciliation) von eigenen Daten mit der GND zum Beispiel via Google Refine/OpenRefine.

Wikidata wächst und gedeiht

Wikidata ist zur Zeit vermutlich das spannendste Wikimediaprojekt. Umso schöner, dass es offensichtlich nicht nur eine Kopfgeburt ist, sondern von den aktiven Nutzern sehr gut angenommen wird. Im Wikimediablog sind nun erste Zahlen zur Nutzung zu lesen:

Vor einem Monat wurden Aussagen in Wikidata verfügbar gemacht. Inzwischen sind zu mehr als 660.000 Objekten auch Aussagen hinzugefügt worden, was im Endergebnis mehr als 1,4 Millionen Aussagen bedeutet. Das Objekt mit den meisten Aussagen ist das Objekt “Vereinte Nationen (Q1065)“, welches alle Mitgliedsstaaten auflistet. Das Wachstum der Aussagenmenge ist großartig und übertrifft unsere Erwartungen.

Bisher haben wir mehr als 22 Millionen Links zu Wikipedia Artikeln. Es gibt etwas 24 bis 25 Millionen Wikipedia-Artikel, was also bedeutet, dass wir bereits mehr als 90% aller Links in Wikidata haben. Angenommen die Bots arbeiten weiterhin so effizient wie bisher, sollten alle Links in einem oder zwei Monaten übertragen sein. Danach ist es zu erwarten, dass das Wachstum in der Anzahl der Objekte erheblich zurückgeht.

Es sind aber auch schon über zwei Millionen manuelle Edits durchgeführt worden.

Wer sich unter Wikidata nichts vorstellen kann, sollte sich einfach ein paar Beispieldatensätze ansehen (zum Beispiel Ranganathan, Academic Library, Nordhorn oder Harry Potter and the Philosopher’s Stone) oder auch Lydia Pintschers Vortrag zu Wikidata ansehen.

10 Regeln für persistente URIs

Phil Archer hat eine Studie zur Gestaltung von URIs veröffentlicht. Praktischerweise gibt er eine knackige Zusammenfassung in Form von 10 Regeln, die es zu beachten gilt:

Follow the pattern
e.g. http://{domain}/{type}/{concept}/{reference}
Avoid stating ownership
e.g. http://education.data.gov.uk/ministryofeducation/id/school/123456
Re-use existing identifiers
e.g. http://education.data.gov.uk/id/school/123457
Avoid version numbers
e.g. http://education.data.gov.uk/doc/school/v01/123456
Link multiple representations
e.g. http://data.example.org/doc/foo/bar.rdf
e.g. http://data.example.org/doc/foo/bar.html
Avoid using auto-increment
e.g. http://education.data.gov.uk/id/school/123456
e.g. http://education.data.gov.uk/id/school/123457
Implement 303 redirects for real-world objects
e.g. http://www.example.com/id/alice_brown
e.g. http://www.example.com/doc/alice_brown
Avoid query strings
e.g. http://education.data.gov.uk/doc/school?id=123456
Use a dedicated service
i.e. independent of the data originator
Avoid file extensions
http://education.data.gov.uk/doc/schools/123456.csv

Die Erläuterungen zu den einzelnen Thesen sind unbedingt zu lesen, und zwar in der “Study on Persistent URIs with identification of best practices and recommendations on the topic for the Member States and the European Commission”.

Wikidata.org ist online

Lydia Pintscher gab in der Wikidata-Mailingliste den Launch von Wikidata.org bekannt:

The Wikidata team is excited to let you know that http://wikidata.org is now online and running the repository code \o/

You can now create items and add language links to the various Wikipedias to them. Thank you to everyone who helped.

There are some caveats! We’re still testing things and fixing minor bugs. Please let us know about any problems you find and go easy on the new wiki.

Wer einen Single-User-Login für die Wikimedia-Projekte hat – hier steht, wie das funktioniert – kann sich auf der Projektseite schon einloggen.

You can already edit, but beware that any content may be lost in case we have to reset the database.

Wer viel Zeit in die Daten stecken möchte, sollte diese Warnung ernst nehmen.

VIVO ist eine Ontologie

VIVO ist nicht nur eine Software und ein Netzwerk, sondern auch eine Ontologie.

Wer sich mit Linked Data und Ontologien auskennt: hier geht’s zum OWL-File (Version 1.5). [1] Wer sich die Ontologie ansehen möchte und VIVO nicht installiert hat, kann dafür unter anderem den Protégé Ontology Editor nutzen. Wer sich nicht damit auskennt, sollte erst diesen Wikipedia-Artikel über Linked Open Data lesen, dann die Linked-Data-FAQ und dann den (englischen) Wikipedia-Artikel über Ontologien.

Oder, wie die deutsche Wikipediaseite [2] Wieso eigentlich “Ontologie (Informatik)” und nicht “Ontologie (Informationswissenschaften)”? zum Thema meint: Ontologien in der Informatik sind meist sprachlich gefasste und formal geordnete Darstellungen einer Menge von Begrifflichkeiten und der zwischen ihnen bestehenden Beziehungen in einem bestimmten Gegenstandsbereich.

Bekannte Ontologien sind FOAF (für die Beschreibung von sozialen Netzwerken) oder Bibliontology (für bibliographische Daten). VIVO verwendet diese und andere Ontologien:

Ganz unten finden sich die Ontologie, um die es hier gehen soll, die VIVO-Ontologie. Diese Ontologie (in der aktuellen Version 1.4) kann man sich hier in einem bunten Diagramm ansehen. Vermutlich der beste Weg, sie kennenzulernen. Warum ist das Diagramm so schön bunt? Weil VIVO Teile verschiedenen Ontologien weiterverwendet und diese Teile in unterschiedlichen Farben dargestellt sind.

Paul Albert hat zwei Präsentationen zum Thema bei Slideshare:

Man kann in VIVO weitere Ontologien importieren und auch eigene anlegen. Die VIVO-Ontologie selbst ist organisationsübergreifend angelegt. Da jede Organisation ihre Hausregeln und Besonderheiten hat, können diese nicht in der VIVO-Ontologie abgelegt werden. Dafür baut man sich dann eben selbst eine. Im Backend gibt es dazu verschiedene Werkzeuge zum Browsen der Ontologie und zum Erstellen eigener Klassen.

Morgen geht’s dann weiter mit der VIVO-Community.

References

References
1 Wer sich die Ontologie ansehen möchte und VIVO nicht installiert hat, kann dafür unter anderem den Protégé Ontology Editor nutzen.
2 Wieso eigentlich “Ontologie (Informatik)” und nicht “Ontologie (Informationswissenschaften)”?

VIVO ist ein Netzwerk

VIVO ist nicht nur eine Software, sondern (unter anderem) auch ein Netzwerk. Einerseits – technisch – ein Netzwerk aus verschiedenen Installationen der Software. Andererseits auch ein soziales Netzwerk aus den Personen, die in VIVO erfasst sind. Und aus all den anderen Daten in den – technisch – vernetzten VIVO-Installationen.

Enabling collaboration and discovery among scientists across all disciplines. Unter diesem Motto steht VIVO. Entwickelt wurde es ursprünglich an der Cornell University. [I]n 2009, The University of Florida received a $12.2M award from the NIH to expand the platform at Cornell and five other institutions to facilitate cross-institutional discovery. [1] Aus dem VIVO-Flyer (PDF)

Für das Netzwerk steht Vivosearch.org.

Über Vivosearch können Aktivitäten, Kurse, Organisationen, Personen und Publikationen der zur Zeit acht teilnehmenden Institutionen [2]Cornell University, Harvard University, Indiana University, Ponce School of Medicine, The Scripps Research Institute, University of Florida, Washington University in St. Louis School of Medicine und … Continue reading gesucht werden. Auf der Seite sind die Tools aufgeführt, mit denen Vivosearch gebaut wurde.

Jon Corson-Rikert, John Fereira, Valeria Pesce und Johannes Keizer haben die Netzwerkeigenschaften von VIVO in einem Vortrag über AgriVIVO zusammengefasst:

Und morgen geht es dann weiter mit der Ontologie.

References

References
1 Aus dem VIVO-Flyer (PDF)
2 Cornell University, Harvard University, Indiana University, Ponce School of Medicine, The Scripps Research Institute, University of Florida, Washington University in St. Louis School of Medicine und Weill Cornell Medical College

Was ist VIVO?

Immer häufiger wird VIVO in Bibliothekskreisen erwähnt. Zum Beispiel hier im Blog vor einigen Monaten, als ich nach der korrekten Übersetzung des deutschen Fakultätsbegriffes ins Englische suchte. [1]Ich verwende provisorisch “College” für Fakultäten und “Academic Department” für die Abteilungen und Fachbereiche in den Fakultäten. Einsprüche, Widerworte und … Continue reading Oder in Lambert Hellers “Prognose zur Ausbildung von Social Networking-Diensten für Wissenschaftler als öffentliche (oder öffentlich cofinanzierte) Infrastruktur”.

Was ist VIVO? Diese Frage ist nicht so einfach zu beantworten. Denn VIVO umfasst verschiedene Komponenten. Auf der Projektwebseite heißt es:

VIVO enables the discovery of researchers across institutions. Participants in the network include institutions with local installations of VIVO or those with research discovery and profiling applications that can provide semantic web-compliant data. The information accessible through VIVO’s search and browse capability will reside and be controlled locally, within institutional VIVOs or other semantic web-compliant applications.

VIVO bezeichnet also:
a) Lokale Installationen (an Hochschulen und anderen Forschungseinrichtungen), und
b) ein Netzwerk, das aus diesen lokalen Installationen gebildet wird

Dazu kommt noch, als ganz wesentlicher Bestandteil,

c) die VIVO-Ontologie.

Und noch einiges mehr. Im VIVO-Wiki sind die Komponenten ausführlicher aufgelistet:

  • VITRO is the semantic web tool kit and ontology editor that provides a foundation for VIVO
  • VIVO Core are the central applications that make a particular instance of VIVO work
  • VIVO Harvester is a semantic web extract-translate-load (ETL) tool for getting data from source systems and providing it to VIVO.
  • VIVO Visualizations provide visual display of VIVO data
  • VIVO Connectors provide access to VIVO data to external software
  • VIVO Projects are additional efforts to provide additional functionality for VIVO. Some software will become part of the VIVO core, while other projects will result in stand-alone applications that use VIVO as a supporting data infrastructure.
  • Virtual Appliances provide easy-to-install instances of VIVO for development and testing purposes

Da VIVO in Zukunft häufiger thematisiert werden könnte, möchte ich in dieser Woche ausgewählte Komponenten kurz und ebenso lücken- wie bruchstückhaft vorstellen. Einen Überblick über das gesamte System gibt es aber schon hier:

Morgen gibt es einen kurzen Einblick in die Oberflächen der lokalen Installation.

References

References
1 Ich verwende provisorisch “College” für Fakultäten und “Academic Department” für die Abteilungen und Fachbereiche in den Fakultäten. Einsprüche, Widerworte und Verbesserungsvorschläge bitte sehr gerne in die Kommentare oder per Mail an mich! Eine Bestätigung würde ich natürlich auch gerne hören.