Rückblick auf die SWIB 2016

Achte internationale Konferenz “Semantic Web in Libraries” erfolgreich abgeschlossen – Konferenzvideos und –folien jetzt online

Über 170 Teilnehmer/innen aus sechs Kontinenten nahmen vom 28. bis 30. November an der SWIB16 in Bonn teil – Keynote Speaker aus den USA und stark nachgefragte Workshops der Pre-Conference

Kiel/Hamburg/Köln, den 16. Januar 2017. Die achte internationale Konferenz „Semantic Web in Libraries“ brachte 172 Teilnehmer/innen aus 27 Ländern zusammen. Die Highlights der Tagung vom 28. bis 30. November 2016 waren die Keynotes von Ivan Herman, World Wide Web Consortium (W3C), über die Aufhebung der Trennung von Online- und Offline- Dokumenten sowie Andromeda Yelton über Community Building in Open-Source-Projekten.

Über 170 Teilnehmerinnen und Teilnehmer aus sechs Kontinenten, rund 700 Tweets und zahlreiche Zugeschaltete per Livestream – so die Teilnahmebilanz der internationalen Konferenz Semantic Web in Libraries 2016. Sechs früh ausgebuchte Workshops und 16 Präsentationen vor Ort beleuchteten Linked Open Data in allen Facetten.

Blicken Sie mit uns zurück auf die SWIB16 – Semantic Web in Libraries!

Zum Programm mit Links zu Folien und Konferenzvideos: http://swib.org/swib16/programme.html

Zu den Referent/inn/en: http://swib.org/swib16/speakers

Zur interaktiven Grafik der 27 Herkunftsländer der Gäste: http://swib.org/swib16/SWIB16%20participants%20by%20country.html.

Zu den Pressebildern: http://swib.org/swib16/impressions.html

Zum Youtube Channel der SWIB: https://www.youtube.com/channel/UCfLnEmKaWqtR_4V1CNeK6rQ/videos?flow=grid&sort=dd&view=0

Zur Pressemitteilung. Ich war nicht anwesend, habe aber den Stream verfolgt. Eins meiner Highlights ist dieser Vortrag von Christina Harlow.

VIVO-KDSF-Integration

Um den Kerndatensatz Forschung (KDSF) in VIVO nutzen zu können, muss zwar noch mehr gemacht werden. Die Anpassung des KDSF-Datenmodells an die VIVO-Ontologie ist jedoch eine notwendige Voraussetzung. Mit dem ersten Entwurf, der nun auf Github veröffentlicht wurde, sind wir jetzt einen Schritt in diese Richtung gegangen. Es ist noch einiges zu tun, wie man den (nicht vollständigen) Issues entnehmen kann. Wenn etwas auffällt: Bitte ergänzen!

Internet Archive betreibt purl.org

Persistente URIs sind ein zentrales Problem bei der Veröffentlichung von Ontologien in Linked-Data-Kontexten. Der meistgenutzte Dienst war bislang purl.org. Purl steht für Persistent Uniform Resource Locator. Der Dienst wurde von OCLC betrieben und existiert schon seit 1995. In letzter Zeit war es aber nicht möglich, neue Accounts anzulegen. Es gab daher Überlegungen, einen Alternativdienst aufzubauen: w3id.org. 1) Vgl. Permanent identifiers and vocabulary publication: purl.org and w3id 

W3id.org baut dabei auf Github auf. Dies hat den Vorteil, dass die Hemmschwelle recht niedrig ist, Github ist schließlich inzwischen nicht nur in Enwicklerkreisen ein gängiges Werkzeug. Der Nachteil dieser Lösung ist, dass man sich unnötigerweise von einem weiteren Dienst abhängig macht. Github ist ein kommerzieller Anbieter. Streicht dieser die Segel oder ändert er seine Geschäftsbedingungen, steht w3id.org vor großen Schwierigkeiten.

Langer Rede, kurzer Sinn: Das Internet Archive betreibt Purl.org seit September, wie im dortigen Blog bekannt gegeben wurde. Der Dienst kann also wieder genutzt werden.

References   [ + ]

Automatisch generierte Peer Reviews

Alberto Bartoli, Andrea De Lorenzo, Eric Medvet, Fabiano Tarlao: Your Paper has been Accepted, Rejected, or Whatever: Automatic Generation of Scientific Paper Reviews.

Abstract:

Peer review is widely viewed as an essential step for ensuring scientific quality of a work and is a cornerstone of scholarly publishing. On the other hand, the actors involved in the publishing process are often driven by incentives which may, and increasingly do, undermine the quality of published work, especially in the presence of unethical conduits. In this work we investigate the feasibility of a tool capable of generating fake reviews for a given scientific paper automatically. While a tool of this kind cannot possibly deceive any rigorous editorial procedure, it could nevertheless find a role in several questionable scenarios and magnify the scale of scholarly frauds.

A key feature of our tool is that it is built upon a small knowledge base, which is very important in our context due to the difficulty of finding large amounts of scientific reviews. We experimentally assessed our method 16 human subjects. We presented to these subjects a mix of genuine and machine generated reviews and we measured the ability of our proposal to actually deceive subjects judgment. The results highlight the ability of our method to produce reviews that often look credible and may subvert the decision.

Ein äußerst interessanter, aber leider wieder einmal hinter einer Paywall versteckter Artikel. Wer nicht bezahlen möchte und keiner Institution angehört, die dies für ihn oder sie übernimmt, kann die Zusammenfassung in der Times Higher Education lesen. Die gestattet immerhin drei kostenfreie Artikelabrufe pro Monat.

Werden Open-Access-Publikationen in Patenten zitiert?

Werden Open-Access-Publikationen in Patenten zitiert? Ja. Aber ich würde gerne herausfinden, wie hoch der Open-Access-Anteil der in Patenten zitierten Literatur tatsächlich ist. Und ob und wie stark er steigt. Ich habe keine Veröffentlichungen gefunden, die sich dieser Thematik annehmen. Und auch keine geeigneten Daten oder Suchinstrumente. Eventuell könnte PatBase dafür in Frage kommen? Zumindest wird dies hier angedeutet.

Die OECD-Daten sind zu alt, das NBER Patent Citation Data File sowieso. Kann mir jemand weiterhelfen?