Infobib

Interessantes aus Informations- und Bibliothekswesen

Du durchsuchst gerade das Archiv des Tags ‘langzeitarchivierung’.

Archiv: langzeitarchivierung

Netzpolitik hat dankenswerterweise einen Entwurf der Digitalen Agenda veröffentlicht. Natürlich sind ein paar Punkte aus hiesiger Blogperspektive von Interesse.

Nach viel Blabla (“digitaler Wandel”, “Zukunftsvision” etc.) soll es im Programmteil dann konkreter werden. Los geht es mit I. DIGITALE INFRASTRUKTUREN, was hier vorwiegend “Zugang zum Netz” bedeutet.

Dann geht es zu II. DIGITALE WIRTSCHAFT. Sichere Big-Data- und Cloud-Anwendungen sollen unterstützt werden. Hoffentlich diesmal etwas sicherer als die Fehlkonstruktion DE-Mail.

Darüber hinaus soll die Digitalisierung wichtiger Zukunftsmärkte unterstützt werden. Da die Kreativ- und Medienwirtschaft genannt ist, gehe ich davon aus, dass uns noch mehr brillante Ideen à la Leistungsschutzrecht bevorstehen. Immerhin:

Die Einführung einer EU-weiten Datenschutz-Grundverordnung, in der die Geltung des EU-Datenschutzrechts auch für nicht in der EU niedergelassene Internetunternehmen festgeschrieben werden soll (Marktortprinzip), wird mit Nachdruck unterstützt.

Gleich darauf folgt eine Ankündigung zur Anpassung des Urheberrechts an die rasante technische Digitalisierung in Wirtschaft und Gesellschaft:

Wir passen die rechtlichen Rahmenbedingungen für das Urheberrecht an die rasante technische Digitalisierung in Wirtschaft und Gesellschaft unter gerechtem Ausgleich der betroffenen Interessengruppen an. Dieses Ziel verfolgen wir auch auf europäischer Ebene. Wir werden dazu die urheberrechtlich zulässige Nutzung von geschützten Inhalten zu Zwecken von Wissenschaft, Forschung und Bildung verbessern, die kollektive Rechtewahrmehmung entsprechend dem europäischen Rechtsrahmen stärken sowie an der Revision des europäischen Urheberrechts aktiv mitwirken.

Weiter unten wird noch einmal erwähnt, dass eine “allgemeine Bildungs- und Wissenschaftsschranke eingeführt werden” soll.

Nun zum Abschnitt III. INNOVATIVER STAAT. Erst:

Unsere Rolle als großer IT-Beschaffer werden wir dazu nutzen, Innovationen und die Umsetzung von Sicherheit in der IT zu fördern.

Open Source und Verschlüsselung? Super! Aber dann:

Wir führen De-Mail flächendeckend ein.

Ja, was denn nun?

IV. DIGITALE GESELLSCHAFT

“Dialog mit gesellschaftlichen Gruppen ausweiten” klingt gut, “Digitale Medienkompetenz stärken” auch. Ein interessanter Begriff ist in diesem Zusammenhang “safety by default”. Wie soll das realisiert werden? Mit Websperren? Mit bestimmten Tools, die über White- oder Blacklists den Zugang von Kindern und Jugendlichen einschränken sollen? Oder Zugang zu bestimmten Ressourcen nur nach Login und ordentlicher Registrierung, was sehr ernsthafte Konsequenzen für die Anonymität im Netz hätte? Wer sich anmelden muss, ist schließlich noch leichter überwachbar als ohnehin schon.

Na, stöbern wir ein bißchen weiter:

Wir wollen das Internet dazu nutzen, Familien durch innovative Vermittlungsplattformen von familienunterstützenden Dienstleistungen zu unterstützen.

Kann mir das mal jemand übersetzen und/oder mit Inhalt füllen?

Spannend wiederum klingt das Modellprojekt „Freiwilliges Soziales Jahr Digital”. Nun aber zum Kernpunkt:

V. BILDUNG, FORSCHUNG UND KULTUR

  • Eine neue Strategie für den digitalen Wandel in der Wissenschaft wird wesentlich zur Weiterentwicklung der Informationsinfrastrukturen (wie z.B. Archive, Bibliotheken, Forschungs- und Publikationsdatenbanken) beitragen.
  • Der von Bund und Ländern beschlossene Rat für Informationsinfrastrukturen wird als übergeordnetes Koordinierungs- und Beratungsgremium die Weiterentwicklung der wissenschaftlichen Intormationsinfrastruktur, z.B. durch Empfehlungen, unterstützen.
  • Die Vernetzung von Forschungsdatenbanken und Repositorien sowie virtuelle Forschungsumgebungen fördern wir im Rahmen eines eigenen Programms.

Es wird also Geld geben. Vermutlich lohnt es sich, schon mal Projekte zu entwerfen. Wenn man nur wüsste, welches Ziel die Strategie für den digitalen Wandel in der Wissenschaft haben soll…

Den nächsten Punkt möchte ich komplett zitieren:

2. Zugang zu Wissen als Grundlage für Innovation sichern
Wir werden die Rahmenbedingungen für einen ungehinderten Informationsfluss insbesondere der Wissenschaft verbessern durch

  • eine umfassende Open Access-Strategie, die den Zugang zu Forschungspublikationen und -daten verbessern und Anreize ausbauen soll;
  • Verbesserungen im Urheberrecht, um die Potenziale der Digitalisierung für Wissenschaft, Forschung und Bildung voll zu nutzen. Insbesondere soll eine allgemeine Bildungs- und Wissenschaftsschranke eingeführt werden.

In der Ausgestaltung und der praktischen Umsetzung kann natürlich noch viel schief gehen. Aber sofern hier echtes Open Access – und nicht nur “gratis im Web ansehbar” – gemeint ist, sehe ich das als sehr gute Nachricht an.

Im Abschnitt Kultur und Medien geht es dann um Kulturgüter und Langzeitarchivierung:

  • Wir entwickeln eine übergreifende Strategie mit geeigneten technischen Lösungen und Standards zur langfristigen digitalen Bewahrung von Wissen, Informationen und Kulturgütern und schaffen die dafür notwendigen (urheber-)rechtlichen Rahmenbedingungen.
  • Wir stellen digitalisierte Kulturgüter und deren Metadaten offen und – soweit urheberrechtlich zulässig – möglichst unentgeltlich zur Verfügung.
  • Zur Digitalisierung von Kulturgut und zu seiner langfristigen digitalen Bewahrung entwickeln wir Strategien und Aktionspläne (u.a. zur Kino- und Filmdigitalisierung) und schaffen die notwendigen (urheber-)rechtlichen Rahmenbedingungen für die langfristige digitale Bewahrung.
  • Wir bauen die „Deutsche Digitale Bibliothek” weiter auf und aus.

Der abschließende Bereich IKT in der Entwicklungshilfezusammenarbeit klingt dann wieder nach Wirtschaftsförderung.

Fazit: Einiges wird angedeutet, aber sehr viel bleibt völlig unklar. Dass es eine “Strategie für den digitalen Wandel in der Wissenschaft” geben soll, ist ja prima, aber von dieser Agenda hätte ich eigentlich erwartet, dass sie zumindest grob skizziert, in welche Richtung es gehen soll. Laut Netzpolitik soll die finale Version am 20. August veröffentlicht werden. Hoffentlich trägt die via Netzpolitik.org hergestellte Öffentlichkeit dazu bei, dass die Verantwortlichen die Schwachstellen beseitigen.

Teil der Operation Frühjahrsputz 2014, in deren Verlauf angefangene und nie beendete Postings einfach so veröffentlicht werden.

Artikel dazu, siehe auch hier.

Das Internet Archive ist nun auch im Softwarebereich aktiv und hat in den letzten Tagen ein paar Konsolenklassiker veröffentlicht, die man per Emulation im Browser spielen kann. Echte Klassiker wie Mario Bros (1988) oder Tennis (1983). Hier geht es zum Console Living Room.

Sound ist leider noch nicht dabei, aber der Emulator soll kontinuierlich weiterentwickelt werden.

Weitere Titel: Ninja Golf, One-on-One-Basketball, Sword and the Sorcerer, etc.

PS: Ob das hier wohl dazu führen wird, dass Archive.org in Großbritannien zensiert wird?

Drei DFG-Projekte zur Ausschreibung “Neuausrichtung überregionaler Informationsservices” (PDF) wurden bewilligt.

Im Themenfeld 1 „Bibliotheksdateninfrastruktur und Lokale Systeme“ überzeugte das Konzept „CIB“ des hessischen Bibliotheksinformationssystems (HEBIS), des Bibliotheksverbunds Bayern (BVB) und des Kooperativen Bibliotheksverbunds Berlin-Brandenburg, das die Entwicklung einer cloudbasierten Infrastruktur für Bibliotheksdaten mit der verstärkten Anpassung und Einbindung bestehender Strukturen in internationale Nachweissysteme vorsieht.

Im Themenfeld 3 „Electronic Resource Management“ befürwortete der Hauptausschuss die Konzeption zum Electronic Resource Management System „ERMS“ des Hochschulbibliothekszentrums des Landes NRW (hbz), der Universitätsbibliothek Frankfurt am Main, der Universitätsbibliothek Freiburg und der Verbundzentrale des Gemeinsamen Bibliotheksverbundes (GBV). Dieses Projekt ist auf die Entwicklung eines bundesweit einsetzbaren, mandantenfähigen Systems ausgerichtet, das das Management elektronischer Ressourcen auf allen Ebenen (lokal, regional, national) unterstützt und die Bibliotheken von den entsprechenden Verwaltungsaufgaben entlastet.

Von den im Themenfeld 4 „Forschungsnahe Informationsinfrastruktur“ vorgelegten Konzepten konnte das Projekt „RADAR“ den Hauptausschuss überzeugen, das den Aufbau eines bislang fehlenden Datenzentrums als Basisdienstleistung zur Publikation und Archivierung von Forschungsdaten anstrebt.

Mehr Infos gibt es in der Mitteilung der DGF.

[via @nesnu]

Teil der Operation Frühjahrsputz, in deren Verlauf angefangene und nie beendete Postings einfach so veröffentlicht werden.

Wie Spiegel Online berichtet sprechen sich verschiedene Mitglieder des Arbeitskreises Energie der Deutschen Physikalischen Gesellschaft für den Neubau von Atomkraftwerken aus. Martin Keilhacker wird zitiert:

“Wir vom Arbeitskreis Energie sind keine Kernkraftbefürworter”, betonte der emeritierte Professor. Man müsse den Anteil des Atomstroms in Deutschland nicht erhöhen. Es gehe vielmehr darum, ihn zu halten.

Im Artikel werden natürlich auch die üblichen Einwände genannt. Anreicherung und Proliferation von waffenfähigem Uran, explodierende Kosten und Atomkraftwerke. Auch die Endlagerfrage wird gestellt. Es gebe weltweit noch kein Endlager für Atommüll, dessen Betrieb langfristig sichergestellt sei.

Was bedeutet in diesem Zusammenhang langfristig? Ich bin weder Experte für Atommüll, noch für Langzeitarchivierung. Aber schon kurzes Wikipedia-Gestöber und ein paar Zeitungsartikel zur Asse lassen mich stutzig werden.

Zuerst einmal scheint nicht klar zu sein, was überhaupt in der Asse liegt. In einem Zeit-Dossier ist zu lesen, dass das Forschungsministerium Siemens zugesichert habe,

»einen Teil« von »ca. 25 Fässern mit hochradioaktivem Abfall (Kernbrennstoff)« in der Asse einlagern zu dürfen. »Wir danken Ihnen für diese Möglichkeit zur Entlastung unserer Lagerkapazität«, antwortete Siemens, »und erwarten bei gelegentlichen Anfragen einen Ihnen günstigen Termin für die Anlieferung in Asse II.« Ob der strahlende Abfall tatsächlich angeliefert wurde, so behauptet Siemens, wisse man nicht mehr – die Akten seien nicht mehr vorhanden, da die vorgeschriebene Aufbewahrungszeit von 30 Jahren abgelaufen sei.

Siegmar Gabriel bezeichnete den Zustand der Dokumentation zur Asse als deutsche Verhältnisse ungewöhnlich. Die Vorgänge sind noch kein halbes Jahrhundert alt. Radioaktiver Abfall hat eine weitaus längere Lagerzeit. Setzen wenn wir den Idealfall einer lücken- und fehlerlosen Dokumentation voraussetzen, müsste man sich also ansehen, wie lange diese Dokumentation überhaupt überdauern kann.

Wenn man sich auf Google verlässt, dann ist man verlassen. Google Video wird kurzerhand eingestellt. In der zugehörigen Hilfefunktion heißt es:

Uploaded video content no longer available
On April 29, 2011 videos that have been uploaded to Google Video will no longer be available for playback. We’ve added a Download button to the Video Status new window page, so you can download videos that you want to save. If you don’t want to download your videos, you don’t need to do anything. (The Download feature will be disabled after May 13, 2011.)

Wieder einmal ein Beispiel dafür, wie Google eine Dienstleistung innerhalb kürzester Zeit abschaltet. Wer sich auf Google verlassen hat, um z.B. historische Videos zu archivieren, erfährt hoffentlich schnell genug von der Schließung und hat auch noch die Original-Files vorliegen. Das Archive-Team versucht, alle Videos zu sichern und ist dabei auf der Suche nach Unterstützung. Mehr Infos gibt’s im dortigen Wiki.

Dies ist übrigens auch ein deutlicher Hinweis darauf, warum Shortlinks nichts in Mailinglisten oder Blogpostings zu suchen haben. Einzelne Postings würden durch ein Abschalten entwertet, in Mailinglisten beträfe es teils ganze Threads.

[via Archivalia]

Drei gebrauchte Radiergummis, CC: BY-SA von Xjaja

Drei gebrauchte Radiergummis, CC: BY-SA von Xjaja

Die Bundesministerin für Ernährung, Landwirtschaft und Verbraucherschutz Ilse Aigner sagte im Interview mit der Süddeutschen Zeitung:

Deutsche Informatiker haben mittlerweile eine Art digitalen Radiergummi entwickelt: ein System, mit dem jeder seine Dateien und Bilder mit einem Verfallsdatum versehen kann, bevor er sie ins Internet stellt. Nach Ablauf dieser Frist kann die Datei nicht mehr aufgerufen werden. Wenn es funktioniert, käme das einem Radiergummi doch sehr nahe und ließe sich auch weltweit verkaufen.

Konkret meint sie dabei das Projekt X-Pire. Das Verfahren ist so umständlich, dass es sich ohnehin nicht durchsetzen wird. Darüber hinaus finden sich bei Isotopp weitere Informationen, warum X-Pire mehr Schaden als Nutzen anrichten kann. Selbst wenn die Datenschutzaspekte wegfallen, bleibt ein wesentlicher Kritikpunkt. Das System sieht vor, Bilder zu verschlüsseln und den Schlüssel auf einem zentralen Server zu hinterlegen. Dazu Kristian Köhntopp:

Ist der Keyserver down oder nicht erreichbar, sind alle Bilddaten dieses Systems nicht mehr verfügbar.

Wer denkt, das wäre doch sehr unwahrscheinlich, möge sich bitte über Sony Connect und andere fehlgeschlagene DRM-Konzepte mit zentralisierter Infrastruktur informieren. Das Fazit kann nur sein, dass Bibliotheken und Archive die Annahme von Dokumenten mit solchen Mechanismen verweigern, da eine zuverlässige Archivierung nicht möglich ist.

Klaus Graf schlägt “7 Grundregeln für digitale Projekte” vor:

Für digitale Sammlungen von Archiven, Bibliotheken, Museen usw. und virtuelle Ausstellungen sind die folgenden Grundregeln gedacht, die ich zur Diskussion stelle.

1. NICHT AN DER AUFLÖSUNG SPAREN! Jede Bildseite muss in hoher Auflösung vorliegen, denn nur diese garantiert die wissenschaftliche Nutzbarkeit.

2. PERMANENT-LINKS! Jede einzelne Bildseite muss mit einem deutlich angebrachten KURZEN dauerhaften Link versehen werden.

3. META-DATEN ZU JEDEM DIGITALEN OBJEKT! Zu jedem digitalen Objekt (auch zu separat nutzbaren Einzelseiten wie Druckgrafik, Zeichnungen) muss es entsprechende Metadaten geben, die professionellen Ansprüchen genügen müssen.

4. OAI-PMH NUTZEN! Alle Meta-Daten müssen für OAI-Harvester zur Verfügung stehen.

5. KEIN COPYFRAUD! Die Rechtslage ist in den Metadaten möglichst objektiv und auf jeden Fall ohne Copyfraud zu beschreiben. Was gemeinfrei ist, muss auch als Digitalisat gemeinfrei bleiben! Wenn das Projekt über Urheberrechte verfügt, ist eine Nachnutzbarkeit über eine möglichst liberale CC-Lizenz vorzusehen.

6. WEB 2.0! Nutzer sollten die Möglichkeit haben, Ergänzungen und Korrekturen anzubringen (Tags, Transkriptionen usw.)

7. LANGZEITARCHIVIERUNG! Die dauerhafte öffentliche Verfügbarkeit ist ggf. durch Kooperation mit Bibliotheken sicherzustellen.

Hier geht’s zum Posting und zur Diskussion.

Am 18. und 19. März 2009 findet an der Uni Kassel das 10. Sun Summit Bibliotheken zum Thema “Digitalisieren, Archivieren, Publizieren” statt. Kleine Auswahl aus dem wirklich interessanten Programm:

  • Helge Steenweg: Digitalisierung im bibliothekarischen Alltag abseits von Förderprojekten
  • Manfred Thaller: Langzeitarchivierung zwischen Planung und technischer Praxis
  • Volker Conradt: Aggregation, Archivierung und Aufbereitung elektronischer Ressourcen am Bibliotheksservice-Zentrum Baden-Württemberg
  • Sabine Thänert: Archivierung, Verknüpfung und Präsentation komplexer Forschungsmaterialien: Bibliotheken und Archive am Deutschen Archäologischen Institut

Da unter anderem auch Anne Christensen und Jakob Voss zu den Referenten gehören, wird vermutlich auch konferenzgebloggt?

Im September 2007 gab Google bekannt, dass wissenschaftliche Daten in Zukunft gratis gehosted werden können, sofern die Eigentümer die Daten frei (public domain) zur Verfügung stellen. Zu diesem Zweck sollten per Post Festplatten verschickt werden, deren Inhalt – wissenschaftliche Terabytes – von Google dann kostenlos gehosted wird. Details in dieser Präsentation:

Nun bekommt Google kalte Füße und stampft das Projekt ein, bevor es überhaupt offiziell eröffnet wurde. Nature Blog:

Initially scheduled for public release around last month, Google pushed the launch date back to January 2009. Since then Google has been making economies in the face of the financial crisis, and the non-profit Google Research Datasets project was reviewed. Late Wednesday evening, a spokesperson wrote me to say that “We’ve been evaluating our resources to ensure they are used in the most effective possible way to bring maximum value to our users. Unfortunately, we’ve decided not to launch Google Research Datasets publicly, but to instead focus our efforts on other activities such as Google Scholar, our Research Programs, and publishing papers about research here at Google.”

Bislang wurden anscheinend nur Testdaten bearbeitet, glücklicherweise noch keine “richtigen” Daten. Dies ist ein Präzedenzfall bezüglich der Zuverlässigkeit Googles im Ernstfall. Wired:

“‘It’s a sad story if it’s true,” wrote Attila Csordas, a stem cell biologist and author of Partial Immortalization who recently moved to Hungary from Tulane University, in an email to Wired.com. “Assuming it is true that might mean that Google is still a couple years away from directly helping the life sciences (on an infrastructural level).”

Other scientists remained hopeful that the service might return in better times.

Selbst wenn der Dienst wieder aufleben sollte, bleiben nun doch ernste Zweifel an dessen Zuverlässigkeit. Eine Alternative kann sein, die Daten in P2P-Netze zu stellen und an mehreren Standorten zu verteilen. Universitäre Rechenzentren sollten eigentlich Kapazitäten für solche Projekte haben oder zumindest schaffen können. Das Outsourcen der Archivierung und Verteilung freier wissenschaftlicher Daten ist meines Erachtens nur eine Notlösung.


Google lässt Wissenschaftler im Stich von CH steht unter einer Creative Commons Namensnennung-Weitergabe unter gleichen Bedingungen 3.0 Deutschland Lizenz. blogoscoop
Infobib läuft unter Wordpress.3.0.5 | Theme: angepasst nach : Gabis Wordpress-Templates | Creative Commons Lizenzvertrag 25 Verweise - 0.560 Sekunden.