Regierungsprogrammentwurf der SPD zu Open Access

Bildung und Wissenschaft sollen die Chancen der Digitalisierung stärker nutzen können. Wir wollen die offenen Kanäle für wissenschaftliche Kommunikation und Publikation fördern (Open Access). Für die Verwertung und Nutzung von Daten wollen wir Rechtssicherheit für alle schaffen und eine solide Vergütung der Urheber sowie eine angemessene Beteiligung der Verlage gewährleistet. In Forschung und Lehre sollen digitale Methoden legal genutzt werden können. Beispiele hierfür sind Text- und Datamining, also die Auswertung digitaler Datenbestände.

So schreibt die SPD in ihrem “Entwurf des Leitantrags der Programmkommission für das Regierungsprogramm 2017” in Zeile 350-356, und skizziert damit so etwas wie den sich abzeichnenden Minimalkonsens unter den Parteien. Text- und Datamining, legale Nutzung für Forschung und Lehre, Open Access. Ob und wie das dann in die Praxis umgesetzt würde, bleibt anzuwarten. Die bisherige Praxis im Bund und den Ländern spricht nicht gerade dafür, dass dieses Thema irgendeiner Partei tatsächlich wichtig wäre, dass man über einen Minimalkonsens hinaus ginge oder so sogar eigene Ideen entwickeln würde.

Nun ja, in einem Bundestagswahlprogramm werden alle Themen nur sehr kurz angeschnitten, übermäßige Kritik ist an dieser Stelle also nicht angebracht. Abzuwarten ist, wie sich das Schattenkabinett zusammensetzen wird und wer wie für diesen Bereich in die Bresche springen wird.

SPD fordert Open Access auf Bundesebene

Saskia Esken, Mitglied des Bundestags für die SPD, erinnert auf ihrer Webseite daran, dass die aktuelle Bundesregierung eigentlich eine Open-Access-Strategie vorlegen wollte.

„Im Koalitionsvertrag haben wir uns darauf geeinigt, auf Bundesebene eine Open-Access-Strategie zu entwickeln, die die Rahmenbedingungen für einen effektiven und dauerhaften Zugang zu öffentlich finanzierten Publikationen und Daten verbessern soll – bislang hat das hierfür zuständige Ministerium aber hierzu keine Initiative erkennen lassen. Wir fordern das Bundesministerium für Bildung und Forschung daher auf, dies zügig nachzuholen“, erklärt Saskia Esken, Mitglied im Ausschuss für Bildung und Forschung sowie Berichterstatterin für Digitale Bildung und stellvertretende digitalpolitische Sprecherin der SPD-Fraktion im Bundestag. „Eine solche Strategie ist auch ein wichtiger Baustein, damit Deutschland im internationalen Wissenschaftsvergleich wettbewerbsfähig und innovativ bleibt.“

Sie veröffentlichte nun ein Positionspapier der Arbeitsgruppe Bildung und Forschung der SPD-Bundestagsfraktion mit dem Titel Vorschläge und Forderungen der Arbeitsgruppe Bildung und Forschung der SPD-Bundestagsfraktion an eine moderne Open Access-Strategie (PDF). In diesem Papier sind 10 Anregungen und Forderungen formuliert. Unter anderem sollen Empfänger öffentlicher Fördermittel zu OA verpflichtet werden – ein längst überfälliger Schritt. Die Berliner Erklärung soll flächendeckend unterzeichnet werden und die Umsetzung der dort formulierten Ziele institutionell verankert werden. Darüber hinaus:

(6) Vorlage eines Konzepts zur bundesweiten Förderung einer einheitlichen Infrastruktur für die elektronische wissenschaftliche Kommunikation und zur Vernetzung der bestehenden Infrastrukturen zur Open Access-Publikation wie insbesondere von Repositorien. Darüber hinaus sind Anreize zu schaffen, existierende sowie geplante Angebote zu vereinheitlichen mit dem Ziel eines erleichterten Zugangs und eine befristete öffentliche Förderung von „Open Source“ Projekten zur Entwicklung von digitalen Gold Open Access Publikationsinfrastrukturen auf den Weg zu bringen.

(7) Förderung und Koordination von Aktivitäten zur Sicherstellung eines nachhaltigen und systematischen Zugangs zum übergreifenden Zugang zu Forschungsdaten und Entwicklung entsprechender förderpolitischer und rechtlicher Rahmenbedingungen; hierzu zählt auch der Aufbau von Plattformen, um dem wachsenden Informationsbedarf in Wissenschaft, Lehre und Forschung Rechnung zu tragen.

“Text and data mining” ist ebenfalls im Papier verzeichnet. Spannend ist der letzte Punkt:

(10) Durchführung einer regelmäßigen Konferenz zur Digitalisierung in der Wissenschaft mit dem Ziel, die Sichtbarkeit Deutschlands in diesem Zukunftsfeld zu steigern, Leuchttürme des digitalen Fortschritts in der Wissenschaft zu identifizieren und über „best practice“-Beispiele eine neue Dynamik in diesem Bereich zu entfachen.

Mir fehlt gerade ein wenig die Fantasie, wie solch eine Konferenz aussehen könnte. Kann jemand auf vergleichbare Veranstaltungen im Ausland verweisen?

Bibliothekare entdecken bisher unbekannten Vordenker des deutschen Naturschutzes

Im zweiteiligen Posting “Bibliothekare entdecken bisher unbekannten Vordenker des deutschen Naturschutzes” (1: Naturschutzteil, 2: Bibliotheksteil) erklärt Gerhard Hachmann, wie er in Zusammenarbeit mit seinem Kollegen Rainer Koch die bisher als Begründer des deutschen Naturschutzes geltenden Ernst Rudorff, Wilhelm Wetekamp und Hugo Conwentz vom Sockel stieß und Philipp Leopold Martin emporhob.

Kein einziger deutscher Historiker kannte bisher Martins überragende Bedeutung für den deutschen Naturschutz.

Im bibliothekarischen Teil wird der methodische Weg beschrieben. Soviel sei hier erwähnt: Googles nGram-Viewer spielte eine herausragende Rolle. Weiteres in den oben verlinkten Postings!

Ich zitiere meinen eigenen Kommentar: Diese beiden Postings sind eine schöne Demonstration, was sich mit Daten (und Digitalisaten) alles anstellen lässt, wenn man sie mal genauer unter die Lupe nimmt. Eine Perle der Biblioblogosphäre!

Google Refine

Am Mittwoch wurde Google Refine 2.0 released. Google Refine kann dazu dienen, unordentliche Datenmengen aufzuräumen und nachnutzbar zu machen. Hat man z.B. eine Datei in der unterschiedliche Schreibweisen zur Beschreibung des selben Sachverhalts genutzt wurden, kann man sie mit Refine mühelos clustern. Mehr Infos dazu gibt es im Refine-Blog oder in diesen Tutorial-Videos:

Erste Spielereien mit Refine zeigen, dass es ein mächtiges, aber durchaus schnelles Tool ist. Einsatzszenarien sind zum Beispiel die Aufbereitung von Open Government Data vor der Publikation. Vor diesem Release hieß die Software Freebase Gridworks und wurde u.a. eingesetzt, um Daten für data.gov.uk aufzubereiten. Dieses Beispiel ist neben anderen im Google-Refine-Blog zu finden.

Themenschwerpunkt "Big Data" bei Nature News

Nature News hat passend zum Start des Large Hadron Colliders ein Special über Big Data veröffentlicht.

Enthalten unter anderem:
The next Google

Ten years ago this month, Google’s first employee turned up at the garage where the search engine was originally housed. What technology at a similar early stage today will have changed our world as much by 2018? Nature asked some researchers and business people to speculate — or lay out their wares. Their responses are wide ranging, but one common theme emerges: the integration of the worlds of matter and information, whether it be by the blurring of boundaries between online and real environments, touchy-feely feedback from a phone or chromosomes tucked away on databases.

Data wrangling

Collecting and releasing environmental data have stirred up controversy in Washington, says David Goldston, and will continue to do so.

Welcome to the petacentre

What does it take to store bytes by the tens of thousands of trillions? Cory Doctorow meets the people and machines for which it’s all in a day’s work.

Wikiomics

Pioneering biologists are trying to use wiki-type web pages to manage and interpret data, reports Mitch Waldrop. But will the wider research community go along with the experiment?

How do your data grow?

Scientists need to ensure that their results will be managed for the long haul. Maintaining data takes big organization, says Clifford Lynch.