Microsoft in der Dateiformat-Falle

Dass Dateiformate digitaler Daten irgendwann nicht mehr lesbar sein könnten, stellt eines der Hauptprobleme bei deren Langzeitarchivierung dar. Die Tatsache, dass es sich oft um proprietäre Formate handelt, erschwert die Archivierung zusätzlich. Deshalb hat Microsoft vor kurzem den britischen National Archives angeboten, bei der Migration älterer proprietärer Dateiformate in aktuelle behilflich zu sein – und sich ein Eigentor geschossen:

Die auf den ersten Blick noble Unterstützung geriet aber schell unter die kritische Lupe bekannter digitaler Bürgerrechtler wie Georg Greve und Joachim Jakobs von der Free Software Foundation Europe. Diese weisen nun mit Recht darauf hin, dass Microsoft der Hauptverursacher des Problems sei. Eine Benutzung von offenen Formaten wie “.odf” hätte das Problem erst gar nicht entstehen lassen. Statt dessen versucht der Redmonder Riese derzeit, ein eigenes “offenes” Format zum Standard adeln zu lassen.

Das Angebot von Microsoft verwandelt sich nun in eine PR-Falle und selbst die BBC fragt: Warum weigert sich Microsoft konsequent, an vorhandenen Standardisierungsverfahren teil zu nehmen?

via gmx.de, testticker.de

Pflichtexemplar zu viel für Online-Autoren

Vom elektronischen Pflichtexemplar betroffen wären Unternehmen und Blog-Betreiber, die zukünftig ihre Artikel regelmäßig bei der Deutschen Nationalbibliothek (DNB) abliefern sollen.
Dies sieht BITKOM als Grund zu einer Warnung an.

Die so genannte “Pflichtablieferungsverordnung” werde unverhältnismäßig weit gefasst, sagte BITKOM-Hauptgeschäftsführer Bernhard Rohleder in Berlin.

Die Verordnung, die im Entwurf des Bundesbeauftragten für Kultur und Medien schon vorliegt, soll noch dieses Jahr in Kraft treten.

“Natürlich soll die Nationalbibliothek wichtige Internet-Publikationen archivieren können”, erklärte Rohleder. Das sei etwa für die Wissenschaft und zur historischen Dokumentation nützlich.

Rohleder warnt vor zu viel übertriebener Bürokratie und wirft dabei der Bundesregierung vor, über ihr ursprüngliches Ziel hinauszuschießen.

Wenn der Staat bestimmte Internet-Inhalte aufbewahren wolle, müsse er den nötigen Aufwand selbst betreiben. Die Dokumente seien schließlich frei verfügbar.

Die Verordnung solle nur gesetztliche Pflichten klar begrenzen, solle aber nicht zu einer Pflichtverordnung mit einer Menge teurer Pflichten für die Unternehmen werden. BITKOM rechnet, dass die deutschen Unternehmen durch die Pflichtabgabenverordnung mit rund 115 Millionen Euro jährlich belastet würden.

Das hat eine Modellrechnung des BITKOM ergeben, die von einer monatlichen Pflichtablieferung der Web-Seiten ausgeht. Häufig aktualisierte Seiten wie Nachrichtenportale und Blogs könnten einer weitaus intensiveren Meldepflicht unterliegen. Zudem sind in der BITKOM-Berechnung nur Seiten mit “.de”-Endung einkalkuliert. In der Praxis dürfte die Belastung also noch höher ausfallen.

Rohleder sieht dabei statt einer Förderung er Online-Autoren eine zunehmende Behinderung.

Es gibt mehrere Dinge zu bedenken. Eine pauschale Belastung, wie sie die BITKOM hier mal wieder sieht, wage ich ein wenig zu bezweifeln. Sicherlich wird es nicht jedem Anbieter von Online-Information möglich sein, Komplettpakete zu schnüren und diese regelmäßig bei der DNB abzuliefern. Auch gibt es technische Möglichkeiten wie RSS-Feeds, Informationen gefiltert vom Layout herunterzuladen. Dies würde Speichervolumen beschränken und zumindest die Blog- oder News-Inhalte könnten so automatisiert von der DNB abgerufen werden, ohne z.B. eine übermäßige Belastung für den Blogger, der häufig auch fremde Dienst nutzt, zu werden.
Die Firmen werden in zunehmenden Maße auch solche standardisierten Schnittstellen zur Verfügung stellen. Hier sollte das Gespräch gesucht werden und nicht von vornherein gestöhnt werden, was es alles kostet. Es ist nicht nur die Wissenschaft und Forschung, die davon profitieren werden. In zweiter Ebene werden es wieder die Unternehmen sein, wieder Menschen, die mit diesem archivierten Informationen etwas Neues schaffen können.

Quelle:
BITKOM kritisiert neue Pflichten für Web-Autoren via de.internet.com


Ähnliche Beiträge

Pflichten für Internetarchivierung

Juni 2006 wurde das Gesetz über die Deutsche Nationalbibliothek (DNBG) novelliert und der Sammelauftrag auf “unkörperliche Werke” (§14 Abs. 3 DNBG), darunter fallen auch Netzinhalte, erweitert. Dies bedeutet, dass zukünftig auch Netzpublikationen im Wege der Pflichtablieferung der Bibliothek zur Verfügung gestellt werden müssen. Das heißt, dass derjenige, der diesen Verpflichtungen nicht oder nicht vollständig nachkommt, ordnungswidrig handelt und im Extremfall mit einer Geldbuße mit bis zu 10.000 Euro rechnen muss.
Wie die Inhalte aus dem Internet zu erfolgen hat, steht nun der Entwurf der Pflichtabgabeverordnung (PflAV) vom 21. Mai 2007.

Danach sind Netzpublikationen “in marktüblicher Ausführung und in mit marktüblichen Hilfsmitteln benutzbarem Zustand abzuliefern”. Die Ablieferung kann dem Entwurf zufolge aktiv durch Einsendung oder passiv durch Bereitstellung zur elektronischen Abholung durch die Deutsche Nationalbibliothek erfolgen. Nähere Informationen über die technischen Details enthält eine FAQ des Instituts. Danach müssen bei der Ablieferung “alle zur Netzpublikation gehörenden Dateien in eine Archivdatei gepackt” und mit einer Lieferungsidentifikation per FTP übertragen werden.

Der Verordnungsentwurf ist noch unscharf bei der Abgrenzung der Inhalte, die unter die Archivierungspflicht fallen sollen, bietet allerdings größtenteils Ausschlusskriterien.

So kann die DNB demnach auf Netzpublikationen verzichten, wenn an der Sammlung und Archivierung sowie der Nutzbarmachung kein öffentliches Interesse besteht oder der Aufwand der Archivierung zu groß würde. Als verzichtbar gelistet sind auch “institutionsinterne Medienwerke”, Medienwerke mit amtlichen Inhalten und so genannte Akzidenzien, die “gewerblichen, geschäftlichen oder innerbetrieblichen Prozessen oder rein privaten, häuslichen Zwecken oder dem geselligen Leben dienen”.

Verfügbar gemacht werden müssen nach diesem Entwurf auf jeden Fall: E-Mail-Newsletter mit Webarchiv, netzbasierte Kommunikations-, Diskussions- oder Informationsinstrumente, die sachliche oder personenbezogene Zusammenhänge aufweisen, wie beispielsweise Weblogs.

Ute Schwens, die Direktorin der Deutschen Nationalbibliothek spricht darüber hinaus auch von “Formen, die originär dem Web entsprungen sind”, wie etwa Wikis und gegebenenfalls Foren.

Aber auch Bilder und Töne fallen unter den Archivierungsauftrag.

Genauer kann man sich aber auch über ein Informationsportal der DNB informieren.

Derzeit bereitet die DNB drei Varianten für die Abgabe der “Pflichtablieferungen” vor.

  • Direkte Kooperation mit Ablieferern oder Kooperation mit aggregierenden Partnern wie regionalen Pflichtexemplarbibliotheken oder zentralen Fachbibliotheken hinsichtlich der Sammlung einzeln identifizierbarer Online-Publikationen. Entsprechende Verfahren werden bereits genutzt.
  • Implementierung einer generell nutzbaren Schnittstelle auf der Website der Deutschen Nationalbibliothek für die Ablieferung einzeln identifizierbarer Netzpublikationen in einem standardisierten Verfahren. Diese Schnittstelle wird bereits seit einigen Jahren genutzt und in den kommenden Monaten für den Massenbetrieb optimiert.
  • Erprobung von Harvesting-Methoden für die Sammlung bzw. den Abruf definierter Domainbereiche wie .de. In diesen Bereich fällt auch das Einsammeln ganzer Objektgruppen wie etwa Websites aller Bundesbehörden, oder thematische Sammlungen zu besonderen nationalen Ereignissen wie Bundestagswahlen.

Quellen:
Nyenhuis, Katharina: Bundesregierung präzisiert Pflichten zur Archivierung von Netzinhalten via heise online
Voß, Jakob: Vorbereitungen zur Archivierung von Netzpublikationen bei der DNB via Jakoblog
Gömpel, Renate: Netzpublikationen DNB

Die 10 Prinzipien für die Digitale Langzeitarchivierung

Nach den in letzter Zeit eher zu bezeichnenden Horromeldungen zur Langzeitarchivierung will Nestor, das Kompetenznetzwerk Langzeitarchivierung, 10 zentrale Anforderungen an digitale Langzeitarchive gefunden haben, um als vertrauenswürdig zu gelten:

  • Das digitale Langzeitarchiv übernimmt die Verantwortung für die dauerhafte Erhaltung und kontinuierliche Pflege der digitalen Objekte für die identifizierten Zielgruppen.
  • Das digitale Langzeitarchiv belegt die organisatorische Beständigkeit (auch in den Bereichen Finanzierung, Personalausstattung, Prozesse), um seine Verantwortung zu erfüllen.
  • Das digitale Langzeitarchiv verfügt über die erforderlichen Rechte (per Vertrag oder Gesetz), um seine Verantwortung zu erfüllen.
  • Das digitale Langzeitarchiv besitzt ein effektives und effizientes Geflecht von Grundsätzen (policy).
  • Das digitale Langzeitarchiv erwirbt und übernimmt digitale Objekte auf der Grundlage definierter Kriterien gemäß seinen Verpflichtungen und Fähigkeiten.
  • Das digitale Langzeitarchiv stellt die Integrität, Authentizität und Nutzbarkeit der dauerhaft aufbewahrten Objekte sicher.
  • Das digitale Langzeitarchiv dokumentiert alle Maßnahmen, die während des gesamten Lebenszyklus auf die digitalen Objekte angewendet werden, durch angemessene Metadaten.
  • Das digitale Langzeitarchiv übernimmt die Bereitstellung der digitalen Objekte.
  • Das digitale Langzeitarchiv verfolgt eine Strategie zur Planung und Durchführung von Langzeiterhaltungsmaßnahmen.
  • Das digitale Langzeitarchiv besitzt eine angemessene technische Infrastruktur zur dauerhaften Erhaltung und Sicherung der digitalen Objekte.

Diese Punkte stellen eine Einigung mit den Institutionen Center for Research Libraries (CRL):engl: und Digital Curation Center (DCC):engl: und dem Projekt Digital Preservation Europe (DPE) dar.

Dieses Leitbild enthält die Punkte, die in dem Moment umgesetzt werden müssen, wenn die software- und hardwaretechnischen Vorraussetzungen gefunden worden sind, um Daten sicher und dauerhaft zu speichern. Doch erstmal müssen diese Speichergrundlagen und Speichersysteme entwickelt werden. Es gibt zwar bereits einen Speicher, aber der ist vielen nicht digital genug (Das Schwarz auf Weiß in Büchern).

Quellen:
nestor Newsletter 11/2007 [27. April 2007] auf nestor
Schulze, Carsten M.: 10 Prinzipien für Vertrauenswürdige Digitale Langzeitarchive via Blog-o-scope

Unser digitales Gedächtnis: ein Sieb mit vielen Löchern

Steintafeln halten ewig, Disketten und CDs nicht. Atari-Dateien lesen ist schon verflucht schwer. Bibliotheken suchen verzweifelt nach Lösungen zur Langzeitspeicherung. Europa will sich vereinheitlichen: Muss man am Ende wieder Daten in Büchern ablegen?

Dies ist die Einleitung des Artikels von Hendrik Werner in Welt Online.
5100 Jahre wie Tontafeln aus der Metropole Uruk am Euphrat hat kein Stück Papier gehalten und unsere digitalen Medien halten kaum 20 Jahre. Aber nicht nur die Haltbarkeit der Trägermedien digitaler Daten ist ein Problem, sondern auch ihre Kodierung. Wie soll man noch Daten entziffern, die in den Neunzigern auf einem Atari-Computer geschrieben wurden? Mitte der Achtziger jubelte der Philosoph Vilém Flusser noch in seinem Manifest “Die Schrift”:

„Es gibt jetzt Codes, die besser als die der Schriftzeichen Informationen übermitteln. Was bisher geschrieben wurde, kann besser auf Tonbänder, Schallplatten, Videobänder oder Disketten übertragen werden. Künftig wird mit Hilfe der neuen Codes besser korrespondiert, Wissenschaft getrieben, politisiert, gedichtet und philosophiert werden können als im Alphabet.“

Tja, heute kann man nur noch traurig darüber schmunzeln. Am effektivsten und am dauerhaftesten für die Archivierung hat sich noch immer das Buch erwiesen, totgesagt und schwachgeredet.

Der Bibliothekswissenschaftler Uwe Jochum warnt vor der Alterung der Hardware digitaler Speichermedien, die es notwendig mache, die Systeme alle drei Jahre auf neue, kompatible Versionen umzustellen.

Das Ergebnis der Konferenz zur Digitalen Langzeitarchivierung in Frankfurt a. M. hat viele Fragen aufgeworfen, aber keine Antworten gefunden. Man einigte sich nur darauf, dass die Kräfte auf europäischer Ebene gebündelt werden müssen, um die vielfältigen Probleme rasch und möglichst ressourcenschonend zu lösen. Wichtig dafür ist die Standardisierung von Workflows und Prozessen für die digitale Langzeitarchivierung.
Neil Beagrie von der British Library warnte davor:

„Die Risiken, die mit einem Nachlassen der gemeinsamen Bemühungen verbunden sind, sind kaum zu kalkulieren. Wir stehen alle in der Pflicht, das Bewusstsein für die Bedeutung dieser globalen Herausforderung hochzuhalten“.

Quellen:
Werner, Hendrik: Digitale Gedächtnisse bekommen Alzheimer auf WELT ONLINE
Experten vereinbaren multinationale Zusammenarbeit bia Börsenblatt Online

Mehr Informationen:
Herausforderung: Digitale Langzeitarchivierung. Strategien und Praxis europäischer Kooperation

Langzeitgedächtnis für Europa

Die Langzeitarchivierung digitaler Publikationen ist ein Problem, das nur mit europäischer Koodination und gemeinsamen Anstrengungen technisch zu lösen ist, meinte Hermann Schäfer, Abteilungsleiter für Kultur und Medien beim Beauftragten der Bundesregierung für Kultur und Medien zum Auftakt eines zweitägigen Kongresses in der Deutschen Nationalbibliothek in Frankfurt am Main. Etwa 300 Teilnehmer sind für den Kongress gemeldet und wollen sich unter anderem mit Kriterien für Vertrauenswürdigkeit und Standards der Langzeitarchivierung, aber auch mit den notwendigen Werkzeugen und Arbeitsprozessen beschäftigen.

“Die Daten sind verloren, bevor sie überhaupt daran gedacht haben, dass sie verloren gehen können”, mahnte Hans Jansen, Direktor für Forschung und Entwicklung an der Nationalbibliothek der Niederlande. Er verwies auch darauf, dass nicht nur veröffentlichte Daten über lange Zeiträume gesichert werden müssten, sondern auch die enormen Datenströme wissenschaftlicher Daten, die in der Zukunft für wissenschaftliche Analysen von Bedeutung sein könnten.

Derzeit unterstützt die EU Projekte der Langzeitarchivierung mit etwa 25 Millionen Euro.

Quelle:
Wygoda, Hermann: Strategien gesucht, damit Europa nicht sein Gedächtnis verliert via heise online

Langzeitarchivierung kippelt

Hier nochmal ein paar Informationen rund um die Langzeitarchivierung. Der Artikel ist kurz vor dem Hilferuf aus dem Deutschen Musikarchiv erschienen.

Mit zwei Problemen haben die Archivare von Informationen zu kämpfen:

  1. Einmal mit dem exponentiellen Wachstum von (digitaler) Information
  2. und andererseits fehlenden Möglichkeiten für die Langzeitarchivierung.

Derzeit gängige Speichermedien für digitale Daten wie CDs, DVDs, Festplatten unterliegen mechanischen und erosiven Einflüssen und müssen daher als ungeeignet angesehen werden. Ein weiteres Problem ist die fehlende Kompatibiblität von Speicherdateiformaten und der Lesesoftware.

Mit den digitalen Datenmengen verhält es sich wie mit dem Klimawandel, den alle kennen, aber niemand weiß, wie er in den Griff zu bekommen ist. Die Marktforscher von IDC haben mit ihrer Studie zum digitalen Datenaufkommen “The Expanding Digital Universe”:engl: versucht, dem Phänomen einen Namen zu geben.

Wohin also mit der anschwellenden Datenflut, die sich schon 2010 zu zwei Dritteln aus den privaten Quellen speisen wird. Die gute, alte Festplatte reicht heute selbst da kaum noch aus. Stark im Ansteigen ist die Verwendung von Flash-Speichern, wie sie in USB-Sticks und in den meisten tragbaren digitalen Endgeräten wie Handys oder Musik-Playern verwendet werden. Technisch gesehen könnten sie auch die rotierende Festplatte in PCs ersetzen.

Die technische Möglichkeit ist derzeit finanziell jedoch nicht zu stämmen. Aber auch Festplatte und Flash-Speicher sind keine Lösung für eine langfristige Speicherung der digitalen Daten. Diese müssen daher weiterhin auf CDs und DVDs geschrieben werden.

Der deutsche Bundesverband der Phonographischen Wirtschaft (IFPI) hat erst diese Woche errechnet, dass sich die Zahl der Benutzer, die sich digitale Inhalte auf CD/DVD brennen, von 1999 bis 2006 vervierfacht hat. Auf der Hitliste ganz oben ist nach wie vor Musik (70 %), gefolgt von privaten Fotos oder Videos (67 %) – Hauptverursacher des “digitalen Urknalls”.

Allerdings sind sich die Forscher zurecht uneinig, wie lange solche Träger halten. Dass die von den Herstellern häufig bezeugte Haltbarkeit von 50 Jahren bei richtiger Lagerung und Behandlung nicht hinhaut, haben unlängst die Schlagzeilen aus dem Deutschen Musikarchiv bewiesen.

Quelle:
FORMAT – Die digitale Ewigkeit ist wackelig: Wie Datenberge richtig konserviert werden auf networld.at (17.03.2007)

Nachtrag: Scheitern der digitalen Langzeitarchivierung

Bereits am 23. Februar haben wir schon über den CD-Zerfall geschrieben. Klar ist abzusehen, dass dies nicht nur das Musikarchiv in Berlin betrifft.

Digitale Information hält für immer oder fünf Jahre – je nachdem, was zuerst kommt”, spotten Experten, die sich mit der Haltbarkeit von modernen Datenträgern vom magnetbeschichteten Band bis zur DVD befassen.

Das scheint sich mehr denn je die Wahrheit zu sein. Ein anderer Punkt ist die Lesbarkeit der Daten. Lesegeräte von heute können Daten von vor einigen Jahren nicht mehr richtig feststellen oder sie gibt es nicht mehr. Denken wir hier an die verschiedenen Lesegeräte. Wer besitzt heute noch ein Diskettenlaufwerk. Gespeichert wird heute auf CDs, DVDs oder mal eben auf USB-Sticks. Doch auch bei letzteren schwächeln erste Exemplare bereits.

Wir erleben so etwas wie eine kalte Bücherverbrennung./cite>

Werden wir eine geschichtslose Gesellschaft, weil wir nicht in der Lage sind, aktuelles Wissen, aktuelle Geschichte dauerhaft zu speichern. Auch müssen die Auswahlmethoden geändert werden. Was soll gespeichert werden, was digital, was in Papierform?

Mehr dazu:
Glaser, Peter: Digitale Bücherverbrennung, FOCUS-Online

CD-Langzeitarchivierung vorm Scheitern

Der Zerfall von CDs bedroht den Bestand des Deutschen Musikarchives in Berlin. Seit den 80er Jahren des letzten Jahrhunderts werden CDs im Archiv gesammelt. Durch Benutzung entstehen Micro-Verletzungen im Schutzlack der CDs, in die Feuchtigkeit zieht. Das führt zu einer Errusion, so dass die CD wie ein Spiegel “blind” wird und somit nicht mehr gelesen werden kann. Hinzu kommen die früher verwendeten Drucklacke, die jetzt ebenfalls den Schutzlack angreifen.

“Unter idealen Lagerungsbedingungen gebe ich einer CD 50 bis 80 Jahre Lebensdauer”, sagt der Leiter des Lehrgebietes Multimedia und Internetanwendungen der Fernuniversität Hagen, Matthias Hemmje. Eine “Lagerung unter idealen Bedingungen” hieße jedoch, dass die CDs nicht angefasst und staub- sowie lichtgeschützt in klimatisierten Räumen aufbewahrt werden müssten, deren Temperatur 18 Grad Celsius nicht übersteigt. An das Abspielen der CD unter solchen Bedingungen sei kaum mehr zu denken.

Noch problematischer ist die Situation bei selbstgebrannten CDs, auf denen man Zuhause alte Videofilme, Fotos, Musik und so weiter speichert. Hier empfiehlt Herr Hemmje, die Daten auf externen Festplatten zu speichern. Diesen Weg versucht das Archiv seit 2006 zu gehen. Fraglich ist jedoch, wie dabei mit den CDs und den Informationen vor 2006 umgegangen werden soll? Auch die Speicherung auf Festplatten ist keine Lösung für die Langzeitarchivierung.

Die Speicherung von Daten auf CDs für die Langzeitarchiverung muss daher als gescheitert angesehen werden. Dies betrifft wohl im großen Rahmen dann auch DVDs, die in ihrer Herstellung ähnlich sind.

Quelle: Deutsches Musikarchiv: CD-Zerfall bedroht Kulturerbe auf Heise online

1 2 3