Infobib

Interessantes aus Informations- und Bibliothekswesen

Du durchsuchst gerade das Archiv des Tags ‘langzeitarchivierung’.

Archiv: langzeitarchivierung

Das Internet Archive ist nun auch im Softwarebereich aktiv und hat in den letzten Tagen ein paar Konsolenklassiker veröffentlicht, die man per Emulation im Browser spielen kann. Echte Klassiker wie Mario Bros (1988) oder Tennis (1983). Hier geht es zum Console Living Room.

Sound ist leider noch nicht dabei, aber der Emulator soll kontinuierlich weiterentwickelt werden.

Weitere Titel: Ninja Golf, One-on-One-Basketball, Sword and the Sorcerer, etc.

PS: Ob das hier wohl dazu führen wird, dass Archive.org in Großbritannien zensiert wird?

Drei DFG-Projekte zur Ausschreibung “Neuausrichtung überregionaler Informationsservices” (PDF) wurden bewilligt.

Im Themenfeld 1 „Bibliotheksdateninfrastruktur und Lokale Systeme“ überzeugte das Konzept „CIB“ des hessischen Bibliotheksinformationssystems (HEBIS), des Bibliotheksverbunds Bayern (BVB) und des Kooperativen Bibliotheksverbunds Berlin-Brandenburg, das die Entwicklung einer cloudbasierten Infrastruktur für Bibliotheksdaten mit der verstärkten Anpassung und Einbindung bestehender Strukturen in internationale Nachweissysteme vorsieht.

Im Themenfeld 3 „Electronic Resource Management“ befürwortete der Hauptausschuss die Konzeption zum Electronic Resource Management System „ERMS“ des Hochschulbibliothekszentrums des Landes NRW (hbz), der Universitätsbibliothek Frankfurt am Main, der Universitätsbibliothek Freiburg und der Verbundzentrale des Gemeinsamen Bibliotheksverbundes (GBV). Dieses Projekt ist auf die Entwicklung eines bundesweit einsetzbaren, mandantenfähigen Systems ausgerichtet, das das Management elektronischer Ressourcen auf allen Ebenen (lokal, regional, national) unterstützt und die Bibliotheken von den entsprechenden Verwaltungsaufgaben entlastet.

Von den im Themenfeld 4 „Forschungsnahe Informationsinfrastruktur“ vorgelegten Konzepten konnte das Projekt „RADAR“ den Hauptausschuss überzeugen, das den Aufbau eines bislang fehlenden Datenzentrums als Basisdienstleistung zur Publikation und Archivierung von Forschungsdaten anstrebt.

Mehr Infos gibt es in der Mitteilung der DGF.

[via @nesnu]

Teil der Operation Frühjahrsputz, in deren Verlauf angefangene und nie beendete Postings einfach so veröffentlicht werden.

Wie Spiegel Online berichtet sprechen sich verschiedene Mitglieder des Arbeitskreises Energie der Deutschen Physikalischen Gesellschaft für den Neubau von Atomkraftwerken aus. Martin Keilhacker wird zitiert:

“Wir vom Arbeitskreis Energie sind keine Kernkraftbefürworter”, betonte der emeritierte Professor. Man müsse den Anteil des Atomstroms in Deutschland nicht erhöhen. Es gehe vielmehr darum, ihn zu halten.

Im Artikel werden natürlich auch die üblichen Einwände genannt. Anreicherung und Proliferation von waffenfähigem Uran, explodierende Kosten und Atomkraftwerke. Auch die Endlagerfrage wird gestellt. Es gebe weltweit noch kein Endlager für Atommüll, dessen Betrieb langfristig sichergestellt sei.

Was bedeutet in diesem Zusammenhang langfristig? Ich bin weder Experte für Atommüll, noch für Langzeitarchivierung. Aber schon kurzes Wikipedia-Gestöber und ein paar Zeitungsartikel zur Asse lassen mich stutzig werden.

Zuerst einmal scheint nicht klar zu sein, was überhaupt in der Asse liegt. In einem Zeit-Dossier ist zu lesen, dass das Forschungsministerium Siemens zugesichert habe,

»einen Teil« von »ca. 25 Fässern mit hochradioaktivem Abfall (Kernbrennstoff)« in der Asse einlagern zu dürfen. »Wir danken Ihnen für diese Möglichkeit zur Entlastung unserer Lagerkapazität«, antwortete Siemens, »und erwarten bei gelegentlichen Anfragen einen Ihnen günstigen Termin für die Anlieferung in Asse II.« Ob der strahlende Abfall tatsächlich angeliefert wurde, so behauptet Siemens, wisse man nicht mehr – die Akten seien nicht mehr vorhanden, da die vorgeschriebene Aufbewahrungszeit von 30 Jahren abgelaufen sei.

Siegmar Gabriel bezeichnete den Zustand der Dokumentation zur Asse als deutsche Verhältnisse ungewöhnlich. Die Vorgänge sind noch kein halbes Jahrhundert alt. Radioaktiver Abfall hat eine weitaus längere Lagerzeit. Setzen wenn wir den Idealfall einer lücken- und fehlerlosen Dokumentation voraussetzen, müsste man sich also ansehen, wie lange diese Dokumentation überhaupt überdauern kann.

Wenn man sich auf Google verlässt, dann ist man verlassen. Google Video wird kurzerhand eingestellt. In der zugehörigen Hilfefunktion heißt es:

Uploaded video content no longer available
On April 29, 2011 videos that have been uploaded to Google Video will no longer be available for playback. We’ve added a Download button to the Video Status new window page, so you can download videos that you want to save. If you don’t want to download your videos, you don’t need to do anything. (The Download feature will be disabled after May 13, 2011.)

Wieder einmal ein Beispiel dafür, wie Google eine Dienstleistung innerhalb kürzester Zeit abschaltet. Wer sich auf Google verlassen hat, um z.B. historische Videos zu archivieren, erfährt hoffentlich schnell genug von der Schließung und hat auch noch die Original-Files vorliegen. Das Archive-Team versucht, alle Videos zu sichern und ist dabei auf der Suche nach Unterstützung. Mehr Infos gibt’s im dortigen Wiki.

Dies ist übrigens auch ein deutlicher Hinweis darauf, warum Shortlinks nichts in Mailinglisten oder Blogpostings zu suchen haben. Einzelne Postings würden durch ein Abschalten entwertet, in Mailinglisten beträfe es teils ganze Threads.

[via Archivalia]

Drei gebrauchte Radiergummis, CC: BY-SA von Xjaja

Drei gebrauchte Radiergummis, CC: BY-SA von Xjaja

Die Bundesministerin für Ernährung, Landwirtschaft und Verbraucherschutz Ilse Aigner sagte im Interview mit der Süddeutschen Zeitung:

Deutsche Informatiker haben mittlerweile eine Art digitalen Radiergummi entwickelt: ein System, mit dem jeder seine Dateien und Bilder mit einem Verfallsdatum versehen kann, bevor er sie ins Internet stellt. Nach Ablauf dieser Frist kann die Datei nicht mehr aufgerufen werden. Wenn es funktioniert, käme das einem Radiergummi doch sehr nahe und ließe sich auch weltweit verkaufen.

Konkret meint sie dabei das Projekt X-Pire. Das Verfahren ist so umständlich, dass es sich ohnehin nicht durchsetzen wird. Darüber hinaus finden sich bei Isotopp weitere Informationen, warum X-Pire mehr Schaden als Nutzen anrichten kann. Selbst wenn die Datenschutzaspekte wegfallen, bleibt ein wesentlicher Kritikpunkt. Das System sieht vor, Bilder zu verschlüsseln und den Schlüssel auf einem zentralen Server zu hinterlegen. Dazu Kristian Köhntopp:

Ist der Keyserver down oder nicht erreichbar, sind alle Bilddaten dieses Systems nicht mehr verfügbar.

Wer denkt, das wäre doch sehr unwahrscheinlich, möge sich bitte über Sony Connect und andere fehlgeschlagene DRM-Konzepte mit zentralisierter Infrastruktur informieren. Das Fazit kann nur sein, dass Bibliotheken und Archive die Annahme von Dokumenten mit solchen Mechanismen verweigern, da eine zuverlässige Archivierung nicht möglich ist.

Klaus Graf schlägt “7 Grundregeln für digitale Projekte” vor:

Für digitale Sammlungen von Archiven, Bibliotheken, Museen usw. und virtuelle Ausstellungen sind die folgenden Grundregeln gedacht, die ich zur Diskussion stelle.

1. NICHT AN DER AUFLÖSUNG SPAREN! Jede Bildseite muss in hoher Auflösung vorliegen, denn nur diese garantiert die wissenschaftliche Nutzbarkeit.

2. PERMANENT-LINKS! Jede einzelne Bildseite muss mit einem deutlich angebrachten KURZEN dauerhaften Link versehen werden.

3. META-DATEN ZU JEDEM DIGITALEN OBJEKT! Zu jedem digitalen Objekt (auch zu separat nutzbaren Einzelseiten wie Druckgrafik, Zeichnungen) muss es entsprechende Metadaten geben, die professionellen Ansprüchen genügen müssen.

4. OAI-PMH NUTZEN! Alle Meta-Daten müssen für OAI-Harvester zur Verfügung stehen.

5. KEIN COPYFRAUD! Die Rechtslage ist in den Metadaten möglichst objektiv und auf jeden Fall ohne Copyfraud zu beschreiben. Was gemeinfrei ist, muss auch als Digitalisat gemeinfrei bleiben! Wenn das Projekt über Urheberrechte verfügt, ist eine Nachnutzbarkeit über eine möglichst liberale CC-Lizenz vorzusehen.

6. WEB 2.0! Nutzer sollten die Möglichkeit haben, Ergänzungen und Korrekturen anzubringen (Tags, Transkriptionen usw.)

7. LANGZEITARCHIVIERUNG! Die dauerhafte öffentliche Verfügbarkeit ist ggf. durch Kooperation mit Bibliotheken sicherzustellen.

Hier geht’s zum Posting und zur Diskussion.

Am 18. und 19. März 2009 findet an der Uni Kassel das 10. Sun Summit Bibliotheken zum Thema “Digitalisieren, Archivieren, Publizieren” statt. Kleine Auswahl aus dem wirklich interessanten Programm:

  • Helge Steenweg: Digitalisierung im bibliothekarischen Alltag abseits von Förderprojekten
  • Manfred Thaller: Langzeitarchivierung zwischen Planung und technischer Praxis
  • Volker Conradt: Aggregation, Archivierung und Aufbereitung elektronischer Ressourcen am Bibliotheksservice-Zentrum Baden-Württemberg
  • Sabine Thänert: Archivierung, Verknüpfung und Präsentation komplexer Forschungsmaterialien: Bibliotheken und Archive am Deutschen Archäologischen Institut

Da unter anderem auch Anne Christensen und Jakob Voss zu den Referenten gehören, wird vermutlich auch konferenzgebloggt?

Im September 2007 gab Google bekannt, dass wissenschaftliche Daten in Zukunft gratis gehosted werden können, sofern die Eigentümer die Daten frei (public domain) zur Verfügung stellen. Zu diesem Zweck sollten per Post Festplatten verschickt werden, deren Inhalt – wissenschaftliche Terabytes – von Google dann kostenlos gehosted wird. Details in dieser Präsentation:

Nun bekommt Google kalte Füße und stampft das Projekt ein, bevor es überhaupt offiziell eröffnet wurde. Nature Blog:

Initially scheduled for public release around last month, Google pushed the launch date back to January 2009. Since then Google has been making economies in the face of the financial crisis, and the non-profit Google Research Datasets project was reviewed. Late Wednesday evening, a spokesperson wrote me to say that “We’ve been evaluating our resources to ensure they are used in the most effective possible way to bring maximum value to our users. Unfortunately, we’ve decided not to launch Google Research Datasets publicly, but to instead focus our efforts on other activities such as Google Scholar, our Research Programs, and publishing papers about research here at Google.”

Bislang wurden anscheinend nur Testdaten bearbeitet, glücklicherweise noch keine “richtigen” Daten. Dies ist ein Präzedenzfall bezüglich der Zuverlässigkeit Googles im Ernstfall. Wired:

“‘It’s a sad story if it’s true,” wrote Attila Csordas, a stem cell biologist and author of Partial Immortalization who recently moved to Hungary from Tulane University, in an email to Wired.com. “Assuming it is true that might mean that Google is still a couple years away from directly helping the life sciences (on an infrastructural level).”

Other scientists remained hopeful that the service might return in better times.

Selbst wenn der Dienst wieder aufleben sollte, bleiben nun doch ernste Zweifel an dessen Zuverlässigkeit. Eine Alternative kann sein, die Daten in P2P-Netze zu stellen und an mehreren Standorten zu verteilen. Universitäre Rechenzentren sollten eigentlich Kapazitäten für solche Projekte haben oder zumindest schaffen können. Das Outsourcen der Archivierung und Verteilung freier wissenschaftlicher Daten ist meines Erachtens nur eine Notlösung.

In den Kommentaren zur Meldung über die Verordnung zur Pflichtabgabe von Netzpublikationen sind zum Teil gruselige Visionen beschworen worden. Der Telagonsichelputzer hat bei der DNB nachgefragt und früher als ich eine Antwort erhalten. Alle Angaben ohne Gewähr, wie man in seinem Blog nachlesen kann:

* Publikationen wie Weblogs sind momentan für die Erfassung nicht relevant.
* Private Inhalte auch außerhalb Weblogs, die mit Werbeanzeigen einen gewerblichen Charakter haben, sind für die Archivierung derzeit nicht relevant.
* Technisch gesehen ist die Archivierung von sehr vielen Datenmengen, insbesondere individuelle Publikationen wie Weblogs, noch nicht ausgereift.
* XML und RSS seien andenkbare Lösungen zur Aggregation der Inhalte, die jedoch noch in Planung sind.
* Die Pflege der Daten bei Aktualisierungen der publizierten Texte ist derzeit noch nicht gelöst.
* Digitale Bilder und Videos diverser Social Media Networks stellen die Nationalbibliothek vor eine Herausforderung, insbesondere die zu bereitstellende Speicherkapazität seitens der Nationalbibliothek für einen digitalen Film sind derzeit nicht abgedeckt.

Für Nichtblogger und Firmen: Kann man nicht einfach per wget oder einem ähnlichen Tool die Seiten runterschaufeln, das dann durch sowas wie HTML2PDF drehen und anschließend der DNB rüberschicken? Das kann man automatisieren, und wenn die Notwendigkeit bestünde, lässt eine bedienungsfreundliche Open-Source-Applikation bei Bedarf bestimmt nicht allzu lange auf sich warten.

Laut Heise tritt die Verordnung zur Pflichtabgabe von Netzpublikationen heute in Kraft.

Generell soll die Anlieferung möglichst per FTP und bevorzugt als PDF erfolgen. Bilder, andere Darstellungselemente sowie “Software und Werkzeuge, die in physischer oder in elektronischer Form erkennbar zu den ablieferungspflichtigen Netzpublikationen gehören”, sind aber ebenfalls betroffen. Dies gilt vor allem für “nicht marktübliche Hilfsmittel”, ohne die ein Lesen der digitalen Werke im Offline-Modus nicht möglich ist.

Ohne mir jetzt die Zeit genommen zu haben, das auszuprobieren: es sieht nicht so aus, als ob die Deutsche Nationalbibliothek seit der Testphase etwas gelernt hätte.

Siehe auch hier, hier oder hier.

Na, wer traut sich ran und schreibt einen Erfahrungsbericht?


Pflichtabgabe von Netzpublikationen von CH steht unter einer Creative Commons Namensnennung-Weitergabe unter gleichen Bedingungen 3.0 Deutschland Lizenz. blogoscoop
Infobib läuft unter Wordpress.3.0.5 | Theme: angepasst nach : Gabis Wordpress-Templates | Creative Commons Lizenzvertrag 25 Verweise - 1.293 Sekunden.