Peer Review? Zusammenfassung der Diskussion bei Libreas

Karsten Schuldt schreibt:

Immer wieder einmal, so auch letztens auf dem Deutschen Bibliothekstag in Hamburg, wird behauptet, dass Forschende dazu streben würden, ihre Texte in Peer Reviewed Zeitschriften zu veröffentlichen, um Reputation aufzubauen. Aber in meiner Zeit an Universität und Hochschule habe ich davon wenig mitbekommen.

Doch, doch, das ist schon sehr oft so. Im Dauergespräch mit Forschenden und Lehrenden höre ich dieses Argument sehr, sehr häufig: Peer Review stehe für Qualität. Kritik am Peer Review wird gar nicht aufgenommen. Weder das Instrument an sich noch einzelne Ausprägungen werden hinterfragt.

Karsten Schuldt fast nun gut lesbar und kompakt viele wichtige (nicht alle) Kritikpunkte am Peer Review zusammen. Weiter geht’s im Libreas-Blog.

"The Five Stars of Online Journal Articles — a Framework for Article Evaluation"

David Shotton: “The Five Stars of Online Journal Articles — a Framework for Article Evaluation”
D-Lib Magazine Volume 18, Number 1/2

I propose five factors — peer review, open access, enriched content, available datasets and machine-readable metadata — as the Five Stars of Online Journal Articles, a constellation of five independent criteria within a multi-dimensional publishing universe against which online journal articles can be evaluated, to see how well they match up with current visions for enhanced research communications. Achievement along each of these publishing axes can vary, analogous to the different stars within the constellation shining with varying luminosities. I suggest a five-point scale for each, by which a journal article can be evaluated, and provide diagrammatic representations for such evaluations. While the criteria adopted for these scales are somewhat arbitrary, and while the rating of a particular article on each axis may involve elements of subjective judgment, these Five Stars of Online Journal Articles provide a conceptual framework by which to judge the degree to which any article achieves or falls short of the ideal, which should be useful to authors, editors and publishers. I exemplify such evaluations using my own recent publications of relevance to semantic publishing.

Zum Artikel: http://dx.doi.org/10.1045/january2012-shotton

Elsevier vs. Wissenschaft

Liane Haensch macht in ihrer Stimme auf zwei Kampagnen aufmerksam. Die eine Kampagne geht von Elsevier, Thieme und Springer aus, die den Dokumentenlieferdienst der ETH-Bibliothek untersagen lassen will.

Die zweite Kampagne ist von Wissenschaftlern initiiert und richtet sich gegen die Praktiken von Elsevier: The Cost of Knowledge. Man kann auf der Webseite seinen Unwillen erklären, für Elsevier tätig zu werden als Autor, als Herausgeber oder als Reviewer.

Zu “The Cost of Knowlegde” gibt es auch sonst eine Menge zu lesen. Ich hebe hier mal die Mail von BC Kämper in Inetbib hervor.

Die Resonanz auf die Aktion reicht von Mathematikern (und nochmal Mathematikern) zu Historikern, von Linguisten über Biologen zu Webwissenschaftlern.

Unterzeichnet hat übrigens auch Scott Aaronson, der Verfasser dieses amüsanten Reviews von John Willinskys “Access Principle”.

Mangelnde Relevanz nobelpreisprämierter Erkenntnisse?

Der frischgebackene Nobelpreisträger Dan Shechtman hatte Probleme, seine preisgekrönte Erkenntnis zu publizieren:

Eine erstes Paper wurde – offiziell wegen mangelnder Relevanz für die Wissenschaft – zunächst zurückgewiesen. Erst 1984 gelang es Shechtman gemeinsam mit drei Kollegen einen Aufsatz in den renommierten Physical Review Letters zu platzieren. Von einem Interviewer Anfang 2010 nach der Lehre aus diesen Erfahrungen gefragt, antwortete Shechtman: “Wenn Du ein Wissenschaftler bist, der an seine Ergebnisse glaubt, dann musst Du auch dafür kämpfen.” Das hat sich nun offenbar gelohnt.

[Via Heise]

Ist Klimagate ein Peer-Review-Gate?

CC: BY-NC-ND by Pek&Anoek
CC: BY-NC-ND by Pek&Anoek

Die Fehler im IPCC-Bericht sind passiert, und sie lassen sich unterschiedlich auslegen. Eine Möglichkeit ist es, den gesamten Klimawandel zu leugnen (PDF):

Die jüngsten Skandale um Datenmanipulation (Klimagate) zerstören die Glaubwürdigkeit der Klimaforschung.

Analog: Ein paar Bahnverspätungen stellen die Zuverlässigkeit des Schienenverkehrs insgesamt in Frage. Kann man behaupten, aber wohl kaum, wenn man sich gerne oberhalb des Stammtisches aufhält.

Daher vergessen wir das gleich wieder und widmen uns einer seriösen Interpretation: Peer Review ist nicht der Weisheit letzter Schluß. Dies haben brandaktuell schon andere formuliert, daher verweise ich auf:

CERN fördert Open Peer Review

CERN will mit offenem Peer Review das Open-Access-Modell beflügeln

Forschungseinrichtungen auf dem Gebiet der Teilchenphysik und internationale Bibliotheken wollen die Qualität von Fachartikeln, die gemäß dem Open-Access-Prinzip kostenlos übers Internet veröffentlicht werden, verbessern. Sie haben daher ein Konsortium ins Leben gerufen, um eine gemeinsame Begutachtung der in Eigenregie publizierten Texte im wissenschaftsüblichen Peer-Review-Verfahren zu ermöglichen. Seinen Sitz hat das Sponsoring Consortium for Open Access Publishing in Particle Physics (SCOAP3) am Genfer CERN, einem der weltweit führenden Institute im Bereich der Nuklearforschung und Geburtsstätte des World Wide Web. Kernidee der Vereinigung ist es, die Kosten für das Gegenlesen und Kommentieren der Beiträge durch andere Forscher aus dem gleichen Fachgebiet gemeinsam zu schultern.

Deutscher Teilnehmer des Konsortiums ist unter anderem die TIB.

CARPET legt los

CARPET, eines der zentralen DFG-Projekte zum elektronischen Publizieren, steht in den Startlöchern. Wie man ausgerechnet bei einem Projekt zu diesem Thema auf die Idee kommen kann, die komplette “Webseite” als als Graphik (inkl. Text) einzustellen, ist mir völlig rätselhaft. Ist das eine Art Kopierschutz? Vermutlich ging es eher darum, dass die Seite chic aussieht. Benutzbarkeit muss da leider hinten anstehen.

Daher zitiere ich hier einmal Open-Access-Net, wo ich die Meldung auch gefunden hatte:

Das Projekt CARPET (Community for Academic Reviewing, Publishing and Editorial Technology) hat das Ziel, eine elektronische Plattform aufzubauen, um Werkzeuge und Dienstleistungen für das elektronische Publizieren systematisch und übersichtlich darzustellen. Dies soll eine effizientere Nutzung bestehender Werkzeuge und zugleich eine aufeinander abgestimmte Entwicklung unter Vermeidung von Redundanzen unterstützen. Im von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projekt kooperieren die Humboldt-Universität zu Berlin, die Max Planck Digital Library und die Niedersächsische Staats- und Universitätsbibliothek Göttingen.

Mehr dazu gibt es in der Presse-Erklärung.