Automatisch generierte Peer Reviews

Alberto Bartoli, Andrea De Lorenzo, Eric Medvet, Fabiano Tarlao: Your Paper has been Accepted, Rejected, or Whatever: Automatic Generation of Scientific Paper Reviews.

Abstract:

Peer review is widely viewed as an essential step for ensuring scientific quality of a work and is a cornerstone of scholarly publishing. On the other hand, the actors involved in the publishing process are often driven by incentives which may, and increasingly do, undermine the quality of published work, especially in the presence of unethical conduits. In this work we investigate the feasibility of a tool capable of generating fake reviews for a given scientific paper automatically. While a tool of this kind cannot possibly deceive any rigorous editorial procedure, it could nevertheless find a role in several questionable scenarios and magnify the scale of scholarly frauds.

A key feature of our tool is that it is built upon a small knowledge base, which is very important in our context due to the difficulty of finding large amounts of scientific reviews. We experimentally assessed our method 16 human subjects. We presented to these subjects a mix of genuine and machine generated reviews and we measured the ability of our proposal to actually deceive subjects judgment. The results highlight the ability of our method to produce reviews that often look credible and may subvert the decision.

Ein äußerst interessanter, aber leider wieder einmal hinter einer Paywall versteckter Artikel. Wer nicht bezahlen möchte und keiner Institution angehört, die dies für ihn oder sie übernimmt, kann die Zusammenfassung in der Times Higher Education lesen. Die gestattet immerhin drei kostenfreie Artikelabrufe pro Monat.

BASE: Weniger Quellen, höhere Volltextquote?

Klaus Graf kritisiert ein Interview von Richard Poynder mit Clifford Lynch  (PDF).

Poynder sagt, dass BASE keine Volltexte erfassen kann, wenn es keine Volltexte gibt. Nur ca. 60 % des Inhalts seien Volltexte. Poynder übersieht, dass BASE so gut wie keine Volltextsuche anbietet, das allermeiste sind OAI-PMH-Metadaten (auch von Volltexten). Dass BASE nicht nur Peer Review Beiträge bietet (Poynder denunziert die Suchmaschine, weil sie einen Blogpost von mir enthält) ist für mich absolut in Ordnung. Qualitäts-Fetischisten, die nur Peer Review Inhalte akzeptieren, können in der Geschichtswissenschaft schätzungsweise mehr als 99 % der Gesamtproduktion seit der Renaissance in die Tonne drücken. Retrodigitalisate und Dissertationen, die BASE erfreulicherweise nachweist, unterliegen/unterlagen keinem Peer Review.

Das soll eine Denunziation sein? Egal, kommen wir zum Inhaltlichen: Die Forderung nach Peer-Review-Kennzeichnung verkennt tatsächlich die Vielfalt der wissenschaftlichen Kulturen. Es ist gerade eine Stärke von BASE, auch Abschlussarbeiten etc. in großer Zahl nachzuweisen. Wo findet man sonst Bachelorarbeiten?

Poynders Kritik an der zu geringen Volltextquote in BASE teile ich allerdings, und das seit vielen Jahren. Etliche Quellen sollten einfach gestrichen werden. Was BASE vielleicht gut tun würde, ist ein radikaler Schnitt, wie ihn DOAJ gerade durchführt. Alle Quellen auf den Prüfstand. Alle anschreiben, ein Sigel ausschreiben. Kein kostenpflichtiges und sehr aufwändiges wie das DINI-Zertifikat. Eines, das deutlich weniger, aber sehr wichtige Kriterien abprüft. Als erstes: Gibt es ein OAI-Set, das nur OA-Volltexte enthält. Würde man diese dann zum „Kernbestand“ des BASE-Index machen, hätte man tatsächlich eine OA-Suche, die zwar immer noch nur die Metadaten durchsucht und nicht die Volltexte, deren Treffer aber immerhin garantiert zum Volltext führen.

Es ist schon bezeichnend, dass die Facette „Open Access“ nur noch 37 Mio Dokumente übrig lässt. Davon übrigens sehr viele aus Pubmed Central, DOAJ und CiteSeerX, Dubletten sind da wohl sehr wahrscheinlich. Beispielsuche in BASE nach The diploid genome sequence of an individual human: sieben Treffer für ein und denselben Artikel. Dubletten-Bereinigung ist nicht trivial, ist aber gerade bei Green OA ein sinnvolles Ziel. Das ist etwas, was Google Scholar deutlich besser macht. Dort gibt es nur einen Treffer – und 34 Orte, an denen man zum Text kommen soll.

BASE ist ein sehr gutes Werkzeug, das ich nahezu werktäglich einsetze. Aber es ist – und das ist keine Schande – tatsächlich noch Luft nach oben.

3sat-Beitrag zu Journal of Interrupted Studies und Science4Refugees

In einem guten – und dazu kurzen – 3sat-Beitrag wird das Journal of Interrupted Studies (JIS) und Science4Refugees vorgestellt. JIS ist ein schönes Projekt, kann aber m.E. den eigenen Anspruch, akademische Sichtbarkeit für geflohene WissenschaftlerInnen zu schaffen, nicht einlösen. Ein Open-Access-Journal würde sowohl die WissenschaftlerInnen stärker exponieren, aber auch der wissenschaftlichen Community ermöglichen, von den Publikationen zu profitieren. Bislang ist JIS in der ZDB nicht nachgewiesen. Per DOAJ wären die Artikel aber inzwischen sicherlich in zahlreichen Bibliothekskatalogen und Discoverysystemen gelandet.

Novellierung des Bundesarchivgesetzes

Heute steht die Novellierung des Bundesarchivgesetzes im Bundestag zur Debatte:

Die Schutzfristen im Bundesarchiv sollen deutlich verkürzt werden. Dies sieht eine Gesetzentwurf der Bundesregierung (18/9633) zur Novellierung des Bundesarchivrechts vor. Mit der Neuregelung soll das Bundesarchiv nutzer- und wissenschaftsfreundlicher werden.

So sollen die Schutzfristen für personenbezogenes Archivgut von 30 auf zehn Jahre nach dem Tod der betroffenen Person gesenkt werden. Im Fall von Amtsträgern und Personen der Zeitgeschichte soll die Schutzfrist komplett entfallen, wenn der schutzwürdige Privatbereich nicht betroffen ist. Nach dem Willen der Regierung sollen zudem in Zukunft alle öffentlichen Stellen des Bundes ihre Akten und Unterlagen nach 30 Jahren dem Bundesarchiv anbieten. Die Schutzfristen für Archivgut, das den Geheimhaltungsvorschriften des Bundes unterliegen, sollen von 60 auf 30 Jahre verkürzt werden können, wenn eine Veröffentlichung die Sicherheit der Bundesrepublik Deutschland nicht gefährdet.

Digita Vaticana

Die Vatikanbibliothek ist voller historischer Schätze. Tausende alter Handschriften sollen digitalisiert und online gestellt werden. Überraschende Kleinode könnten gehoben werden. Es ist eine Jahrhundertaufgabe.

Mehr bei Heise.de und natürlich auf DigitalVaticana.org. Auf den ersten Blick sehe ich:

  • Schutzrechtsberühmung (oder ist es im Vatikanstaat rechtmäßig, das Urheberrecht für jahrhundertealte Werke zu reklamieren?)
  • JPG-Download
  • kein Download des Gesamtwerks
  • keine Möglichkeit, auf einzelne Seiten zu verlinken

Ob die angebotene Auflösung reicht, kann ich nicht beurteilen. Als Laie würde ich sagen, dass da noch Luft nach oben wäre. Mehr zu DigitaVaticana bei Archivalia.

Dafür aber bibliographische Angaben zur das jeweilige Manuskript behandelnder Literatur. Beispiel:
http://digi.vatlib.it/view/MSS_Vat.lat.3773
http://digi.vatlib.it/mss/detail/Vat.lat.3773

Dass um Spenden für die Digitalisierung geboten wird, empfinde ich als recht belustigend.

Einbettung von Drittinhalten im Web

Wambach, Tim, Schulte, Laura, Knorr, Konstantin (2016): Einbettung von Drittinhalten im Web. Datenschutz und Datensicherheit – DuD, 40(8), 523-527. URL: http://dx.doi.org/10.1007/s11623-016-0650-6

Abstract:

Einbettungen von Drittinhalten auf Webseiten ermöglichen aus technischer Sicht eine Benutzerverfolgung, die aus datenschutzrechtlichen Gründen kritisch zu beurteilen ist. In der vorliegenden Studie wurden Webseiten von Kliniken und Krankenhäusern auf solche Einbettungen und die damit verbundene Datenverarbeitung untersucht.

Leider sind die Autorinnen nicht nur um den Datenschutz besorgt, sondern auch darum, diesen interessanten Artikel vor einer allzu großen Leserschaft zu schützen. Ich vermute einen starken Zusammenhang zwischen der Resonanz bei den Lesern seit dem 22. Juli 2016 einerseits,

tpe49und andererseits dem Preisschild für alle, die nicht in den Genuss eines Zugangs via Hochschulnetz kommen: tpe_paywalled_science

Firefox und Third Party Elements

Ein etwas älteres, aber sehr interessantes Interview mit den Firefox-Chefentwickler Mark Mayo über Third Party Elements (TPE) – Webseitenbestandteile, die von Servern Dritter nachgeladen werden – und ihre Bedeutung für und vor allem gegen die Privatsphäre. TPE gibt es übrigens auch in ziemlich vielen Bibliothekswebseiten. Mehr dazu hoffentlich zu einem späteren Zeitpunkt.

Carla Hayden wird heute Librarian of Congress

Carla Hayden wird heute 14. Librarian of Congress.

Hayden will be the first woman and the first African-American to lead the national library since its inception in 1800. She’s the longtime CEO of the library system in Baltimore. She’s also just the third professional librarian to get the job.

Wer neben diesen fünf Fakten über Carla Hayden noch etwas zum Erzählen für den nächsten Bibliotheksstammtisch benötigt: Sie leitete ab 1991 die Enoch Pratt Free Library, in der Tupac Shakur einige Jahre zuvor einen Jugend-Rap-Wettbewerb gewann.

Shakur and Smith’s winning performance opened with Shakur declaring, “Yo’ Enoch Pratt, bust this!” and urging Baltimoreans to get library cards. They told kids to stay in school, learn to read, and “get all the credits that you need.” (Shakur’s handwritten verses now reside in the Pratt’s Special Collections archive, alongside works by H.L. Mencken and Edgar Allan Poe.)