Eugene Garfield (1925 – 2017)

Eugene Garfield, Mitbegründer der Bibliometrie und zweifelsohne eine der einflussreichsten Persönlichkeiten der Informationswissenschaft des 21. Jahrhunderts, verstarb am 26. Februar. In der von ihm gegründeten Zeitschrift The Scientist wurde ein ausführlicher Nachruf veröffentlicht.

Die Verwendung des von ihm entwickelten Impact Factors zur Evaluation von Forschungsoutput sah er äußerst kritisch. Um ihn selbst zu zitieren: 1) Garfield, Eugene (2006): The History and Meaning of the Journal Impact Factor. In: JAMA 295 (1), S. 90–93.(PDF)

The use of journal impacts in evaluating individuals has its inherent dangers. In an ideal world, evaluators would read each article and make personal judgments.

References   [ + ]

1. Garfield, Eugene (2006): The History and Meaning of the Journal Impact Factor. In: JAMA 295 (1), S. 90–93.(PDF)

Linked Data oder Semantic Web?

Tom Heath schreibt zu der Frage “What is the relationship between Linked Data and the Semantic Web?” in der Linked-Data-FAQ:

Opinions on this topic do differ somewhat, however a widely held view is that the Semantic Web is made up of Linked Data; i.e. the Semantic Web is the whole, while Linked Data is the parts. Tim Berners-Lee, inventor of the Web and the person credited with coining the terms Semantic Web and Linked Data has frequently described Linked Data as “the Semantic Web done right”, e.g. in these slides.


Das W3C hat natürlich auch eine Definition des Terms Linked Data, auch in Beziehung zum Semantic Web.

Evaluation des Data-Integration-Tools Karma

Felix Lohmeier möchte Karma einer gemeinschaftlichen Evaluierung unterziehen:

Ich möchte mir in nächster Zeit die Open-Source-Software Karma data integration tool2 genauer anschauen und sie für verschiedene Zwecke evaluieren. Möchte sich jemand daran beteiligen?

Mehr Infos gibt es im Openbiblio-Discourse.

Rückblick auf die SWIB 2016

Achte internationale Konferenz “Semantic Web in Libraries” erfolgreich abgeschlossen – Konferenzvideos und –folien jetzt online

Über 170 Teilnehmer/innen aus sechs Kontinenten nahmen vom 28. bis 30. November an der SWIB16 in Bonn teil – Keynote Speaker aus den USA und stark nachgefragte Workshops der Pre-Conference

Kiel/Hamburg/Köln, den 16. Januar 2017. Die achte internationale Konferenz „Semantic Web in Libraries“ brachte 172 Teilnehmer/innen aus 27 Ländern zusammen. Die Highlights der Tagung vom 28. bis 30. November 2016 waren die Keynotes von Ivan Herman, World Wide Web Consortium (W3C), über die Aufhebung der Trennung von Online- und Offline- Dokumenten sowie Andromeda Yelton über Community Building in Open-Source-Projekten.

Über 170 Teilnehmerinnen und Teilnehmer aus sechs Kontinenten, rund 700 Tweets und zahlreiche Zugeschaltete per Livestream – so die Teilnahmebilanz der internationalen Konferenz Semantic Web in Libraries 2016. Sechs früh ausgebuchte Workshops und 16 Präsentationen vor Ort beleuchteten Linked Open Data in allen Facetten.

Blicken Sie mit uns zurück auf die SWIB16 – Semantic Web in Libraries!

Zum Programm mit Links zu Folien und Konferenzvideos: http://swib.org/swib16/programme.html

Zu den Referent/inn/en: http://swib.org/swib16/speakers

Zur interaktiven Grafik der 27 Herkunftsländer der Gäste: http://swib.org/swib16/SWIB16%20participants%20by%20country.html.

Zu den Pressebildern: http://swib.org/swib16/impressions.html

Zum Youtube Channel der SWIB: https://www.youtube.com/channel/UCfLnEmKaWqtR_4V1CNeK6rQ/videos?flow=grid&sort=dd&view=0

Zur Pressemitteilung. Ich war nicht anwesend, habe aber den Stream verfolgt. Eins meiner Highlights ist dieser Vortrag von Christina Harlow.

VIVO-KDSF-Integration

Um den Kerndatensatz Forschung (KDSF) in VIVO nutzen zu können, muss zwar noch mehr gemacht werden. Die Anpassung des KDSF-Datenmodells an die VIVO-Ontologie ist jedoch eine notwendige Voraussetzung. Mit dem ersten Entwurf, der nun auf Github veröffentlicht wurde, sind wir jetzt einen Schritt in diese Richtung gegangen. Es ist noch einiges zu tun, wie man den (nicht vollständigen) Issues entnehmen kann. Wenn etwas auffällt: Bitte ergänzen!

Internet Archive betreibt purl.org

Persistente URIs sind ein zentrales Problem bei der Veröffentlichung von Ontologien in Linked-Data-Kontexten. Der meistgenutzte Dienst war bislang purl.org. Purl steht für Persistent Uniform Resource Locator. Der Dienst wurde von OCLC betrieben und existiert schon seit 1995. In letzter Zeit war es aber nicht möglich, neue Accounts anzulegen. Es gab daher Überlegungen, einen Alternativdienst aufzubauen: w3id.org. 1) Vgl. Permanent identifiers and vocabulary publication: purl.org and w3id 

W3id.org baut dabei auf Github auf. Dies hat den Vorteil, dass die Hemmschwelle recht niedrig ist, Github ist schließlich inzwischen nicht nur in Enwicklerkreisen ein gängiges Werkzeug. Der Nachteil dieser Lösung ist, dass man sich unnötigerweise von einem weiteren Dienst abhängig macht. Github ist ein kommerzieller Anbieter. Streicht dieser die Segel oder ändert er seine Geschäftsbedingungen, steht w3id.org vor großen Schwierigkeiten.

Langer Rede, kurzer Sinn: Das Internet Archive betreibt Purl.org seit September, wie im dortigen Blog bekannt gegeben wurde. Der Dienst kann also wieder genutzt werden.

References   [ + ]

Automatisch generierte Peer Reviews

Alberto Bartoli, Andrea De Lorenzo, Eric Medvet, Fabiano Tarlao: Your Paper has been Accepted, Rejected, or Whatever: Automatic Generation of Scientific Paper Reviews.

Abstract:

Peer review is widely viewed as an essential step for ensuring scientific quality of a work and is a cornerstone of scholarly publishing. On the other hand, the actors involved in the publishing process are often driven by incentives which may, and increasingly do, undermine the quality of published work, especially in the presence of unethical conduits. In this work we investigate the feasibility of a tool capable of generating fake reviews for a given scientific paper automatically. While a tool of this kind cannot possibly deceive any rigorous editorial procedure, it could nevertheless find a role in several questionable scenarios and magnify the scale of scholarly frauds.

A key feature of our tool is that it is built upon a small knowledge base, which is very important in our context due to the difficulty of finding large amounts of scientific reviews. We experimentally assessed our method 16 human subjects. We presented to these subjects a mix of genuine and machine generated reviews and we measured the ability of our proposal to actually deceive subjects judgment. The results highlight the ability of our method to produce reviews that often look credible and may subvert the decision.

Ein äußerst interessanter, aber leider wieder einmal hinter einer Paywall versteckter Artikel. Wer nicht bezahlen möchte und keiner Institution angehört, die dies für ihn oder sie übernimmt, kann die Zusammenfassung in der Times Higher Education lesen. Die gestattet immerhin drei kostenfreie Artikelabrufe pro Monat.