[Nachtrag zum Bibliothekskongress 2010] Ulmer erklärt sein gerichtliches Vorgehen gegen Leseplatzangebote

Eigentlich sollte dieser Beitrag über den Vortrag von Herrn Ulmer auf dem Bibliothekskongress längst veröffentlicht sein. Aber er ist irgendwie untergegangen. Daher nehme ich die Anfrage von Kathrin als Anlass, ihn jetzt doch noch zu veröffentlichen.

Herr Matthias Ulmer hielt seinen Vortrag ohne Folien. Er machte deutlich, dass er die Gerichtsverfahren nicht aufrollen will und es ihm mit seiner Klage um eine Musterlösung ging. Er sei kein ideologischer Vertreter der Verlage, sondern er sähe sich als Rechteinhaber, der für so ein Musterverfahren den Kopf hinhält. Sein Ziel sei es, in die Diskussion einzutreten und um Verständnis für die Verlegerseite zu werben. Er könne viele Positionen nachvollziehen, aber häufig seien ihm gemachte Aussagen gerade seitens der Bibliotheken wenig produktiv. Er wolle nicht polemisieren sondern die Verlagssicht (er-)klären.

Als erstes definierte er dann die Aufgabe der Verlage / seines Verlages als Sicherstellung einer optimalen Nutzung von Lehrbüchern für Studierende. Prüfkriterien wären das geänderte Lern- und Leseverhalten der Zielgruppe. Für eine optimale Lösung bedürfe es technischer, rechtlicher und wirtschaftlicher Prüfungen. Dazu mussten als erster Schritt die rechtlichen Grundlagen mit den Autoren geklärt werden. Dies ist seiner Meinung nach ein Grund für die verspäteten elektronischen Angebote der Verlage.

Um den Studierenden gerecht zu werden, hat sich der der Ulmer-Verlag am UTB E-Book-Angebot beteiligt. Bei den Gesprächen zu diesem Angebot hätten 50% der Bibliotheken für eine Copy&Paste-Option ausgesprochen und 50% wären strikt dagegen gewesen – so in der Art: Um Gottes Willen, der Studierende lernt ja sonst nichts mehr. Da habe ich mich natürlich gefragt, was das für gefragte Bibliotheken waren…

Der Ausdruck von Seiten aus dem “utb-studi-e-book”-Angebot sei auch deshalb ein Problem, weil über die Ausdruckoption nicht sichergestellt werden kann, dass nur ein Papierausdruck und kein PDF erstellt wird. Ein weiteres Problem sind auch die Metadaten gewesen, um die Bücher automatisch in den Katalog übernehmen zu können. Das nächste ist der aufzubauende neue Workflow. Neben der Belastung der Mitarbeiter gibt es einen hohen Bedarf an Investitionen. Der kann jedoch noch nicht aus den Einnahmen der E-Books gedeckt werden. Nach Ulmers Angaben betrugen die Einnahmen aus dem E-Book-Verkauf für den Ulmer-Verlag nur 5000 Euro im Jahr 2009. Der Aktualisierungsaufwand für Produktionssoftware usw. ist außerdem wesentlich höher als bei gedruckten Büchern.

Damit nicht genug. Die nächste offene Frage betrifft Nutzungsstatistiken, die nicht nur wichtig sind, um herauszufinden, was benötigt wird, sondern die auch für eine angemessene Vergütung (Honorierung) der E-Books notwendig sind. Hauptproblem für den Verlag sind fehlende Erfahrungen und die daraus resultierenden unterschiedlichen Angebotsmodelle. Um Erfahrungen zu sammeln, führt Herr Ulmer derzeit einen Hybridtest durch, auch um die Chancen und Risiken der E-Books besser ausloten zu können

Der Ulmer-Verlag ist im E-Book-Geschäft seit drei Jahren dabei. Ulmer sieht, dass einige Verlage bereits tragbare Modelle besitzen. Denen will man es im Verlag gleichtun und etwas an Potential abjagen. Doch wichtig ist, dass das Hauptgeschäft – der Print-Bereich – darunter nicht leidet. Zurzeit sieht man, dass die Einnahmen im Bereich der Printprodukte sinken, aber noch kann man nach drei Jahren keine mittelfristigen Aussagen treffen. Es führt jedoch zu einer Verunsicherung, da die Einnahmen aus dem Printbereich stärker sinken als sie im E-Book-Bereich steigen. Dabei waren elektronische Produkte eigentlich als zusätzliche Einnahmequelle gedacht. Zumindest bedarf es eines Ausgleiches, der nicht da ist.

Wie ist jedoch nun die Haltung zur Schranke des § 52b UrhG? Erstmal ist diese demokratisch so gewollt und somit okay, aber Ulmer schränkte das auch gleich ein. Die Schranke ist okay, wenn sie vielleicht auch nicht gut ist. Die Anwendung ist gut, aber es geht um die Ausgestaltung der Umsetzung. Der Verlag hatte die betroffenen Autoren angeschrieben, als man auf das Angebot der TU Darmstadt aufmerksam wurde. Damals sprach man in diesen Briefen von einem “kriminellen Verhalten” der Bibliothek. Dies hatte zu starker Kritik geführt. Anders als im Fazit der UB der TU Darmstadt hat das Verfahren Ulmer vs. TU Darmstadt zu mehr Rechtssicherheit geführt und das Hauptsacheverfahren sei deshalb nicht notwendig. Man müsste sozusagen durch die Gegenseite dazu gezwungen werden.

Die Ziele des Gesetzgebers, die dem § 52b UrhG zugrunde liegen, sind auch aus Sicht der Verlage sinnvoll, aber nur wenn seitens der Verlage keine Angebote oder nur Angebote zu inakzeptablen Bedingungen gemacht werden. In der Leipziger Verständigung hatte man auch den Ausdruck und eine campusweite Nutzung vereinbart. Die Priorität sollte dabei auf Verlagsangeboten mit annehmbaren Konditionen liegen. Nach Ulmers Meinung leg(t)en die Bibliotheken diese Vereinbarung zu weit aus.

Er sprach auch kurz die Verhandlungen um eine angemessene Vergütungsabgabe an, die an die §§ 52a und 52b UrhG gekoppelt werden soll. Der bisherige Schiedsspruch für § 52a UrhG wurde abgelehnt und man erhofft sich, durch die Kopplung einen zusätzlichen Ausgleich zu schaffen. Der Verlag selbst würde eine privatwirtschaftliche Lösung einer pauschalisierten Vergütung durch die VG WORT vorziehen.

Ulmer sieht es als gemeinsame Aufgabe von Verlagen und Bibliotheken an, Studierenden den Zugang zur Information zu ermöglichen. Derzeit stände man am Anfang, zumal die neue Technik auch neue Vernetzungsmöglichkeiten ermöglicht. Das Angebot von komplexen Datenbanken, die im Rahmen schwieriger Nutzungsmöglichkeiten, einen Schutz vor Urheberrechtsverletzungen bieten, geht seiner Meinung nach nur in der Zusammenarbeit mit Verlagen. Neben der Schaffung des Zugangs ist auch die Qualitätssicherung der Lehrmittel eine Aufgabe der Verlage.

Die Bedeutung der Bibliotheken als Einnahmequelle für Verlage wird größer werden. Bisher waren Bibliotheken nicht von direktem Interesse, da diese die Medien über den Buchhandel erworben haben. Aber durch die Lizenzierung elektronischer Medien wird der Kontakt zueinander direkter werden. Bei der Frage des Zugangs sieht Ulmer ein Scheitern, denn der Zugang wurde nicht verbessert, weil man nicht auf Basis der Leipziger Verständigung weitergearbeitet hat. Seit dem Sündenfall “Download” bestand Ulmers Meinung nach keine Möglichkeit der Verständigung mehr.

Eine weitere Aufgabe sei die Finanzierung des Ganzen. Dies ist ein bildungspolitisches Thema. Sowohl bei der Qualitätssicherung, dem Zugang als auch bei der Finanzierung sei man derzeit gescheitert. Man hätte viele Chancen vertan. So hätte man beispielsweise die Bildungspolitik bei der Bundestagswahl gemeinsam wesentlich weiter nach oben puschen müssen. Die Politiker seien sogar froh, dass Bibliotheken und Verlage sich streiten. So hätte man bei den ständigen Kostendiskussionen derzeit keine schlagfertigen Gegner, wenn es um Kürzungspotentiale in diesem Bereich geht.

Aus Ulmers Sicht benötigen wir eine Einigung und einen Verzicht auf gegenseitige Brüskierung. Dies ist etwas schwer, da die unterschiedlichen Standpunkte der Parteien zum Dritten Korb als eine solche Brüskierung angesehen werden. Deswegen ist es dringend, dass man jetzt auf Ideologien verzichtet und dem Pragmatismus bei den Lösungen Vorrang einräumt.

Eine solche Forderung wirkt seltsam in einem doch immer wieder von Ideologien geprägten Vortrag, der an einigen Stellen an den Forderungen und Wünschen der Bibliotheksnutzer, denen die Bibliotheken verpflichtet sind, vorbeigeht. Eine erhoffte Erklärung des Kommunikationsverzichtes zwischen Bibliothek und Verlag, eine wirkliche Diskussionsbereitschaft und das damit verbundene Akzeptieren anderer Wünsche und Notwendigkeiten konnte ich in diesem Vortrag nicht finden.

[Update] Rechtschreib- und Grammatikkorrektur, 30.06.2010, 16.45 Uhr u. 01.07.2010, 17.00 Uhr

Neues von der Siebenbürgischen Bibliothek

Das Siebenbürgen-Institut in Gundelsheim nutzt das digitale Medium verstärkt auch für seine Forschungsarbeit. Im Mai letzten Jahres wurde die Website des Instituts modern und professionell umgestaltet. Dies war der erste Schritt in eine digitalere Ausrichtung. Jetzt setzt man mit einem Auflichtscanner einen neuen technischen Schwerpunkt besonders im Bereich Familienforschung.

Seit Ende letzten Jahres besitzt das Siebenbürgen-Institut besitzt einen hochmodernen, 35.000 Euro teuren Aufsichtscanner der Marke Zeutschel. Dieses Gerät verdanken sie der Förderung durch den Beauftragten für Kultur und Medien (BKM). Dieser Scanner ermöglicht ein sanfte Behandlung des Scangutes, welches durch eine Glasplatte auf einer Buchwippe, die einen Höhenausgleich ermöglicht, fixiert wird. Die Seiten werden dann eingescannt. Das Abspeichern in mehreren Formaten ist möglich (jpg, pdf, tif).

Nett war die Beschreibung der Probleme, die es gab, zumal man selten davon liest. In den ersten zwei Monaten mussten die Hard- und Softwarespezialisten des Lieferanten öfter vorbeikommen, da nicht alles sofort so funktionierte wie es sollte. Der Scanner steht nicht für die öffentliche Benutzung bereit, sondern wird intern vom Fotoarchiv genutzt. Damitsollen vor allem Drucke und Handschriften, Lankarten (bis DIN A2), beschädigte Bücher und Schriften gescannt werden. Sie sollen dann in bester Qualität, in mehreren Formaten und besten Farbeinstellungen gespeichert und gesichert werden. Dabei kam es beim Abspeichern großer Datenmengen zu Softwareproblemen und auch der Laser streikte zeitweilig.

Jutta Fabritius, die Betreuerin des Bildarchivs und „Herrin“ des Geräts, hat mit viel Geduld alle Macken registriert und mit den Fachleuten über optimale und schnelle Lösungen kommuni­ziert.

Erste eingescannte Ergebnisse können auf der Website frei unter “E-Transylvanica” bewundert werden. Zu finden sind die “E-Transylvanica” über dem roten Balken in der dort abgebildeten Navigationskette:

Startseite :: Neuerscheinungen :: Bilder aus Siebenbürgen :: Spenden :: Bibliotheksrecherche :: Suche :: E-Transylvanica :: Sitemap

Gut wäre es, wenn die Rubrik zukünftig auch unter dem besser sichtbaren Punkt “Bibliothek und Archiv” zu finden wäre. In Zukunft sollen die “E-Transylvanica” verstärkt mit Leben gefüllt werden.

Zu den ersten Digitalisaten gehören die Bände des Urkundenbuchs zur Geschichte der Deutschen in Siebenbürgen oder eine Gesellenordnung, begonnen 1566. Die Digitalisate werden als PDF in guter Qualität angeboten und haben ein Texterkennungsprogramm durchlaufen, so dass die Texte im Volltext durchsuchbar sind.

Die Siebenbürgische Bibliothek freut sich auch, die Kirchenmatrikel von Birthälm, Girelsau, Leschkirch, Martinsdorf und Schellenberg auf CD-ROM anbieten zu können. Dabei wurden Mikrofilme nachträglich im Auftrag verschiedener HOGs digitalisiert. Es folgt als nächstes eine digitale Bearbeitung der Mikrofilme der Gemeinden Baierdorf, Zuckmantel, Martinsberg und Tekendorf. Andere HOGs, die Interesse an der Digitalisierung ihrer Mikrofilme mit den Matrikeln ihrer Heimatkirche haben, wenden sich bitte direkt an Jutta Tontsch, die bereits die anderen Digitalisierungsvorhaben umgesetzt hat. Die Kontaktdaten finden sie im Beitrag der Siebenbürgischen Zeitung.

Bereits im Januar 2010 bat Frau Tontsch in einem Aufruf in der Siebenbürgischen Zeitung darum, dass alle Landsleute, ihre Ahnenpässe und andere genealogischen Unterlagen, die sie besitzen, dem Siebenbürgen-Institut zur Verfügung stellen. Viele kamen diesem Aufruf bereits nach.

So verzeichnet das genealogische Archiv seither über dreißig Neuzugänge, das bedeutet, dass die mehr oder weniger berechtigte Scheu, mit diesen Papieren an die Öffentlichkeit zu gehen, weitgehend überwunden wurde und diese einmaligen und verlässlichen Unterlagen zentral gesammelt werden können.

Die Daten zu diesen Unterlagen werden schrittweise in den Katalog des Genealogischen Archivs integriert, der ebenfalls ber die Website des Siebenbürgischen Instituts aufgerufen werden kann.

Die Angebote und Forschungsbeiträge des Instituts kosten Geld. Daher werden auch weiterhin Spenden benötigt. Mit gutem Beispiel vorangegangen ist die Heimatortgesellschaft (HOG) Mühlbach.

Gerhard Wagner von der HOG Mühlbach überreicht auf Schloss Horneck am 10. März 2010 Frau Annemarie Weber von der Stiftung Siebenbürgische Bibliothek einen Scheck über 1200,00 Euro. Sie folgen damit dem Beispiel der HOG Schönberg und der Bitte um weitere Spenden für das Stiftungskapital. Sie selber wollen damit beispielhaft vorangehen und weitere HOGs zum Spenden für den den Erhalt der Bibliothek in Gundelsheim animieren.

Möchten Sie diese Unternehmung unterstützen, wenden Sie sich bitte an: Christian Reinerth, Siebenbürgen-Institut an der Universität Heidelberg, Archiv, Schloss Horneck, 74831 Gundelsheim/Neckar.

Weber, Annemarie, Reinerth, Christian: Neues aus dem Siebenbürgen-Institut, Siebenbürgische Zeitung


Das Siebenbürgische Institut ist seit 2003 ein An-Institut des Seminars für Osteuropäische Geschichte der Ruprecht-Karls-Universität Heidelberg. Damit wurden die schon seit langem bestehenden intensiven Kooperationen mit mehreren Heidelberger Fakultäten und mit der Universitätsbibliothek institutionalisiert.

WuE-Books – führen wir den §52b UrhG ad absurdum

Würzburger Universitätsbibliothek startete ebenfalls auf Basis des §52b UrhG ein Angebot für digitale Lehrbücher “WuE-Books”. Referent Dr. Karl Südekum, Direktor der Universitätsbibliothek Würzburg, berichtete über seine Erfahrungen. Hier kam es zwar nicht zu einem Verfahren, aber auch bei Würzburg blieb die Reaktion eines namhaften Verlages nicht aus.
Südekum wies ebenfalls wie Herr Nolte-Fischer darauf hin, dass es viel Halbwissen gibt. Er machte deutlich, dass es beim Angebot von digitalisierten Büchern nach §52b UrhG nicht um eine Enteignung der Verlage oder rücksichtsloses Handeln von Bibliotheken geht, sondern um die praktische Umsetzung eines schlecht gemachten Gesetzes und um die Gewährleistung von Wissenschaftsinformation.

Bibliotheken reagieren damit u.a. auch auf das veränderte Nachfrageverhalten durch Bachelorstudenten, die auf einen bestimmten Bücherkanon festgelegt sind.Bibliotheken haben auch mit einem weiteren Problem gerade in Bayern zu kämpfen. Dort kommt durch das Gymnasium in acht Jahren ein doppelter Abiturjahrgang auf die Hochschulen und damit auf ihre Bibliotheken zu.

Zur Zeit befindet man sich in einer Phase der Neustrukturierung des Marktes auf beiden Seiten. Auf der einen Seite heißt dies einen notwendigen Verzicht auf bestimmte verwertungsmodelle und die Schaffung neuer Bewertungsmodelle.

In Würzburg hatte man den elektronischen Lesesaal der “WuE-books” trotz der zu erwartenden Konflikte gewollt und die Reaktionen abgewartet. Die Reaktionen waren dann doch überraschend.
Würzburg ist eine mittelgroße Volluni ohne eine große technische Fakultät mit 22.000 Studenten. Die dazugehörige Bibliothek ist sehr dezentral und als zweischichtige Bibliothek mit starker Zentral- und 78 Teilbibliotheken organisiert. Das bringt für die Bibliothek aber auch Probleme mit. Neben der starken räumlichen Zersplitterung gibt es ein strukturelles Haushaltsdefizit mit bis zu 900.000 Euro im Jahr. Lücken im Bestand und gerade der Bedarf bei Lehrbuchsammlungen können in Bayern häufig durch Studiengebühren gedeckt werden, aber das Stellplatzproblem gerade bei Mehrfachexemplaren kann man damit nicht lösen. Daher besteht eine dringende Nachfrage nach E-Books. Die UB Würzburg zahl über 1 Million Euro für elektronische Medien im Jahr. Leider gibt es dort bei vielen populären Büchern häufig kein adäquates Angebot – entweder gar keines oder eine mit vielen Ladenhütern im Gesamtpaket oder nur Altauflagen.

Was die Digitalisierung von Büchern nach §52b UrhG angeht: Bibliotheken haben kein Interesse am Reverseengeneering! Wenn ein annehmbares Verlagsangebot vorhanden ist, dann bevorzugen Bibliotheken dieses. §52b macht für Bibliotheken nur Sinn, wenn kein Angebot seitens der Verlage vorhanden ist, da auch hier für die Bibliotheken erhebliche Kosten entstehen, Personal gebunden und Technik benötigt wird. Außerdem ist das so entstehende Angebot nicht konkurrenzfähig zum Angebot der Verlage, da eine Volltexterschließung nicht durch den §52b UrhG gedeckt wird.

Weiterlesen

Mit- oder Gegeneinander – Die Bedeutung des §52b UrhG für Bibliotheken

In seinem Bericht sprach Herr Nolte-Fischer von der Universitätsbibliothek der TU Darmstadt über eine Sache, die er nur halb versteht. Einen entgültigen Bericht konnte er noch nicht geben, da der Prozess ist noch mitten im Gange ist. Fischer selbst ist kein Jurist, sondern wurde in eine juristische Auseinandersetzung hineingezogen. Es scheinen aber auch die Juristen die Sache nur halb zu verstehen und sind verunsichert, weil noch unklar ist, was gilt. Hier hilft nur reden und dieser Bericht ist ein Teil dieser Aufarbeitung. Es geht um die Schranke des Urheberrechts, welche im § 52b UrhG geregelt ist, die zum 1.1.2008 mit dem Korb2 gültig wurde.

Tatbestand
Die TU-Darmstadt hat probeweise ca. 100 (Lehrbuch.)Titel Dezember 2008 digitalisiert (tudigilehrbuch) und online gestellt. Ausgegangen war man von einer geringen Nutzung dieses Angebotes. Augerufen werden konnten diese Dateien an 15 PCs im Katalogsaalals rein graphische Datei. Damals war der Druck und der Download kapitelweise möglich. Die Nutzung selbst war gering. Diese digitalisierten Bücher wurden nur durchschnittlich 1,7fach genutzt. Bei normalen E-Books ist die Nutzung 20 – 30 Mal höher. Als Antwort auf das erste Urteil vom 13.05. wurde der Download unterbunden und nach dem zweiten Urteil wurde das Angebot komplett eingestellt, da man aufgrund der gerichtlichen Einschränkungen das Angebot für die wissenschaftliche Arbeit als unnutzbar einstuft (“weil nicht zuverlässig daraus zitiert werden kann”).

Weiterlesen

Jahrhundertealtes Wissen auf Knopfdruck

Wir alle hätten gern auf Knopfdruck das Wissen der letzten Jahrhunderte auf unserem Bildschirm, während wir es uns mit einer Tasse Kaffee/einem Bier auf dem Sofa bequem machen. Die Österreichische Nationalbibliothek (ÖNB) schafft ein Archiv der Zeitgeschichte und digitalisiert dafür 400.000 Seiten von 15 verschiedenen Zeitungstiteln der ehemaligen Kronländer der Österreichisch-Ungarischen Monarchie. Zu den Titeln zählen die Zeitungen “Pester Lloyd”, das “Pester Lloyd”, das “Prager Tagblatt”, die “Cernowitzer Allgemeine Zeitung” oder die “Bukowinaer Nachrichten”. Bis Ende des Jahres will man etwa 25 Laufmeter an Zeitungen digitalisiert und online gestellt haben. Dann können neben historischen Ereignissen auch Feuilletons, Theater-Rezensionen und sogar Inserate von damals im Netz gelesen werden.

Es werden aber nicht nur Zeitungen für das Projekt “AustriaN Newspapers Online” digitalisiert. Unter dem Namen “ANNO” werden auch Fotos, Ton- und Filmaufnahmen zugänglich gemacht. Finanziert wird es aus dem ÖNB-Haushalt und durch EU-Gelder. Möglichst lückenlos sollen am Ende die österreichischen Medien bis 1939 abrufbar sein. Bei jüngeren Ausgaben wird man warten müssen, da gedruckte Medien erst 70 Jahre nach Tod des Autors gemeinfrei werden.

Im digitalen Archiv können die Zeitschriften über Jahresregister gefunden werden. Der erste digitale Eintrag stammt aus dem Jahr 1716. Außerdem steht ein Zeitungsregister und eine Liste mit den letzten hinzugefügten Titeln zur Verfügung. Wer gerne etwas Gedrucktes in der Hand haben möchte, kann einzelne Seiten oder die ganze Ausgabe ausdrucken. Man sollte sich jedoch vorher die Anleitung dazu durchlesen, da diese Funktion nicht ganz so intuitiv zu bedienen ist. Was fehlt momentan ist eine Volltextsuche oder eine inhaltlich, thematische Erschließung. Doch daran wird nach eigener Auskunft gearbeitet.

Bettina Kann, Leiterin der ÖNB-Hauptabteilung “Digitale Bibliothek”, macht deutlich, dass durch die Digitalisierung nur die Information bewahrt wird, nicht jedoch die Medien selbst. So kann die Information auch einer größeren Öffentlichkeit zugänglich gemacht werden. Vorrang haben die Zeitungen auch daher, weil sie sich langfristig wohl als erste zu Staub zersetzen.

Um einen dauerhaften Zugang zu ermöglichen, wird das digitale Archiv auf einem speziellen System von Festplatten gespeichert und auf einem zweiten, identischen System gespiegelt. Dabei werden beide Festplattensysteme fortlaufend aktualisiert. Hinzu kommen Sicherungskopien auf Magnetbändern, die in einem Hochsicherheitsbunker bei Sankt Johann im Pongau gelagert werden. So sollte auch im Falle einer Katastrophe Österreichs Kulturgut nicht verloren gehen.

Übrigens beginnen die meisten Zeitungen in der digitalen Bibliothek erst mit dem 19. Jahrhundert. Davor gab es nämlich nicht viel zu lesen. Zeitungen erschienen generell unregelmäßig und sahen ein bisschen wie Flugblätter aus.

Warum konnte ich mich eigentlich bei diesem Satz von Eva Stanzl nicht des Eindrucks erwehren, sie steht mit erhobenen Zeigefinger und freudestrahlenden Gesicht da, ganz in der Manier “Ich weiß was. Ich weiß was!” …

Die älteste noch laufend erscheinende Tageszeitung des Projektes ist die “Wiener Zeitung”, aus der Artikel stammt, durch den ich auf das “ANNO” aufmerksam wurde. Sie wurde 1703 von Kaiser Leopold I gegründet. Viele andere Zeitungen der digitalen Bibliothek begannen erst im 19. Jahrhundert. Der Verleger der Zeitung erhielten das Privileg, über die Neuigkeiten bei Hof zu berichte und alle amtlichen Mitteilungen bekannt machen zu dürfen. Aufgrund ihres Engagement für die Pressefreiheit wurde sie 1857 verstaatlicht. Heute sind bereits eine Million Seiten dieser Tageszeitung online.

Quelle:
Stanzl, Eva: Auf Knopfdruck zum Wissen der letzten Jahrhunderte, Wiener Zeitung, 11.03.2010 // gedruckt: 12.03.2010

Ein Veranstaltungshinweis: "Gottes Werk und Googles Beitrag – Zeitungsverlage und die Herausforderungen der Link-Ökonomie" am 20.01.2010 in Berlin

Der folgende Hinweis auf eine von der Heinrich-Böll-Stiftung organisierten Veranstaltung am 20.01.10 von 19-22 Uhr in Berlin dürfte auch für BibliothekarInnen, InformationswissenschaftlerInnen und LeserInnen von Blogs und Nachrichten im Internet interessant sein. Der provokante Titel, gewählt  in Anspielung auf John Irvings’ “Gottes Werk und Teufels Beitrag”, macht auf eine hoffentlich interessante Podiumsdiskussion neuigierig:

“Gottes Werk und Googles Beitrag – Zeitungsverlage und die Herausforderungen der Link-Ökonomie” in der Heinrich-Böll-Stiftung, Berlin

Die Medienwelt befindet sich durch die Folgewirkungen der Digitalisierung in einem epochalen Umbruch. Die Zeitungen, einstmals stolze Träger der “vierten Gewalt”, fürchten um ihr klassisches Geschäftsmodell einer anzeigen- und abofinanzierten Bündelung journalistischer Inhalte. Denn der Wegfall der Distributionskosten und die Verweisstrukturen im Internet haben machtvolle Konkurrenz erwachsen lassen. Aggregationstechnologien, soziale Netzwerke und Blogs bieten LeserInnen vielfältige Möglichkeiten, viel gezielter nach Themen zu suchen und Beiträge im Netz mit eigenen Kommentaren und Faktenchecks anzureichern. Die Zeitungsverlage müssen auf dieses veränderte Konsumverhalten reagieren, doch bislang hat sich kein funktionierendes Modell für bezahlten Online-Journalismus herausgebildet.
Im Gegenteil: Aktuelle Nachrichten sind heute in der Regel kostenlos über das Internet oder mobile Applikationen zu beziehen. Von den damit verbundenen Werbeerlösen profitiert vor allem ein Unternehmen wie Google, das mit 85 Prozent den Markt der Suchmaschinen dominiert. Nun möchten auch deutsche Zeitungsverlage an dessen Erlösquellen beteiligt werden. Die geistige Wertschöpfung von Urhebern und Werkmittlern müsse auch im digitalen Raum ihren Preis haben, fordert die Zeitungsbranche. Ein eigenes “Leistungsschutzrecht”, fest im schwarz-gelben Koalitionsvertrag verankert, soll ihnen dafür eine gesetzliche Grundlage geben. Wie begründen sich die Ansprüche der Verlage? Welchen Wert messen wir professionellem Journalismus heute zu?
Mit:
Dr. Till Jaeger,
Fachanwalt für Urheber- und Medienrecht, Berlin
Christoph Keese (Head of Public Affairs, Axel Springer AG, Berlin)
Dr. Eva-Maria Schnurr
(Freie Journalistin, Hamburg)
Malte Spitz (Bundesvorstand Bündnis 90/Die Grünen, Berlin)

Moderation:
Matthias Spielkamp (Freier Journalist, Berlin)

Hierfür ist eine Anmeldung bei Frau Monika Steins (=> Telefonnr. 030-28534-244, E-mail =>  steins@boell.de) erwünscht. Der Veranstaltungsort ist der Sitz der Heinrich-Böll-Stiftung unweit des Deutschen Theaters und der Mensa-Nord in der Schumannstraße 8. Genauers unter dem folgenden Lageplan und der Adresse:

Heinrich-Böll-Stiftung, Berlin
Raum: Kleiner Saal 1/2
10117 Berlin, Schumannstr. 8
Mit der S-Bahn oder mit der U-Bahn bis Bahnhof Friedrichstraße. Ausgang über die Spree, dann Albrechtstraße, Reinhardtstraße überqueren und nach links in die Schumannstraße.

Quelle:
Gottes Werk und Googles Beitrag
Zeitungsverlage und die Herausforderungen der Link-Ökonomie
Boell.de

Die Deutsche Bibliothek und deutsches Kulturgut

Die Deutsche Digitale Bibliothek (DDB) ist als eine ‘angemessene Antwort’ auf Google Books geplant. Google hat mit seinem Digitalisierungsprojekt “Google Books” den Anstoß gegeben, jeden noch so kleinen Aspekt zu digitalisieren. Man will dem US-Konzern mit der Gründung der DDB entgegenarbeiten. Einen ersten Versuch startete man ja bereits mit der “Europeana”, die bereits Ende 2008 online ging. Der Versuch, die Kulturgüter des eurpäischen Kontinents, das schon in verschiedensten digitalen Sammlungen vorliegt, zugänglich zu machen, entwickelte sich leider damals zu einem technischen Fiasko und über fehlende Volltextzugänge spürt man noch heute die Verärgerung.

Zur Zeit befindet man sich in der Planungs- und Konzipierungsphase der DDB, aber bereits Mitte 2011 soll dieses Internetarchiv fertig sein. In dieser Digitalen Bibliothek sollen die Bestände aus über 30.000 Kultur-, Bildungs- und Forschungseinrichtungen in digitalisierter Form und vernetzt auffindbar gemacht werden.

Frei nach dem Werbespruch einer großen Tageszeitung ‘Schenken Sie Ihren Kindern schlaue Eltern’ müsste der Spruch, auf das riesige Digitalisierungsvorhaben von Bund und Ländern umgemünzt, ‘Schenken Sie Ihrem Staat schlaue Bürger’ heißen.

Kulturstaatsminister Bernd Neumann nannte das Projekt DDB ‘einen Quantensprung in der Welt der digitalen Information’. Um im Wettlauf mit anderen Nationen in der Wissens- und Informationstechnik nicht zurückzubleiben, wurden Planung und Konzipierung der Bibliothek in die Hände des renommierten Fraunhofer-Instituts gelegt. Die Abteilung ‘Intelligente Analyse- und Informationssysteme’ soll für eine kluge Umsetzung der Grundidee sorgen. Von Wichtigkeit ist dabei, wie genau Wissen abgespeichert werden und abrufbar sein soll.

Für die Vernetzung der Inhalte sollen auch sogenannte ‘semantische Technologien’ entwickelt werden. Als Vorbild dient das ‘Theseus-Programm’ des Bundeswirtschaftsministeriums. Computer erkennen bei Suchanfragen die Bedeutung der eingegebenen Worte und suchen nicht mehr nur die Buchstabenkombination. Zudem sollen so die Begriffe in einen größeren Kontext gesetzt werden, d.h. bisher kognitive Fähigkeiten sollen von der Suchmaschine der DDB auch nachvollzogen werden, sprich Dinge in einen Bezug zueinander setzen zu können.

Bis das jedoch möglich sein wird, müssen die nationalen Kulturgüter, ob aus der Musik, der Wissenschaft, der Literatur usw. digitalisiert werden. Dazu zählen Schriften, Musik, Noten, Gegenstände der bildenden Kunst, Filme usw. Die Daten sollen multilingual und multimedial aufbereitet werden. Die Digitalisate sollen unter www.deutsche-digitale-bibliothek.de zugänglich gemacht werden. Dort wird momentan das Projekt vorgestellt werden. Später sollen dort auch virtuelle Rundgänge durch Museen und dreidimensionale Skulpuren zu besichtigen sein.

Man wirbt um Vertrauen mit dem Versprechen, dass bei der Sammlung und Digitalisierung alle Urheber- und Leistungsschutzrechte uneingeschränkt gewahrt werden sollen.

‘Im Unterschied zu Google werden bei der DDB die Rechte-Inhaber zuerst gefragt und dann wird gehandelt – dokumentiert und jederzeit nachvollziehbar’, erklärte Bernd Neumann. Seine Kritik bezieht sich wohl vor allem auf Google Books. Wegen der unautorisierten Verbreitung digitalisierten Schriftguts hat das US-Unternehmen eine noch laufende Sammelklage amerikanischer Verlage am Hals.

Wenn man im Ergebnis dann mit den geweckten Erwartungen und den vorgestellten Möglichkeiten von Google nicht mithalten kann, wird es wohl eng für staatlich organisierte Digitalisierungsprojekte. Hier kann sehr viel Vertrauen auf Seiten der Wirtschaft (Rechteinhaber) und verspielt und die Erwartungen von Forschern, Bibliotheken usw. sehr enttäuscht werden. Das Urhberrecht ist wohl der problematischste Stolperstein, weil von der Lösung dieses Problems auch die technische Umsetzung (z.B. Rechtemanagement) abhängt und die finanzielle Ausstattung (Vergütung von Rechteinhabern, Lizenzierung usw.) der DDB abhängt.

Quelle:
Kreissl, Julia: Deutsches Kulturgut im Internet bei M&C

Das Dilemma des Autor-Google-Verhältnisses

Die FAZ schießt gegen Google. Malerisch beschreibt man das Aufbegehren gegen Google als “Rückzugsgefecht versprengter Truppen gegen eine Übermacht”. Es fehlt bei der Einleitung nur das Wort “Größenwahn” in Bezug auf Googles Politik des Auslotens normativer Grenzen, wenn es darum geht, das Weltwissen verfügbar zu machen.

Dabei geht es nicht nur ums große Geld, sondern auch selten mit ganz legalen Mitteln zu – wie bei großen Eroberungszügen nicht anders zu erwarten.

Alles begann damit, dass Google sich vor erst fünf Jahren an das Riesenprojekt wagte, die Bestände amerikanischer Bibliotheken zu scannen. Neben Public-Domain-Werken, nicht mehr lieferbaren Büchern sind dort aber auch noch urheberrechtlich geschützte und lieferbare Bücher zu finden. Einen Großteil der Masse der Google-Scans betreffen die Books-out-of-Print. Europäische Bibliothekspartner lassen nur gemeinfreie Bücher digitalisieren.

Das dreijährige Mammutverfahren kostete 45 Mio Dollar und häufte eine Million Akten- und Gutachtenseiten an. Oktober letzten Jahres dann wurde der Vergleich “Google Book Settlement” eingereicht und wird seit dem auch durch eine große Anzeigenkampagne und im Internet in 36 Sprachen bekannt gemacht. Damit sollen die Autoren über die Modalitäten des Settlements aufgeklärt werden.

Der Ton wurde leider nicht sachlicher, nachdem der erste Frust niedergeschrieben war. Sicherlich muss man bemängeln, dass die Übersetzung wohl mit Hilfe von Googles hauseigener Übersetzungsmaschine durchgeführt worden war und keine deutschen Urheberrechtler herangezogen worden.

So wird schon auf der ersten Seite aus einem „Verleger“ ein „Herausgeber“ und aus einem „Autor“ ein „Unterklasse-Autor“.

Damit wird dieser Vertrag rechtlich praktisch unlesbar.

Ein zweites Leider mag vielleicht auch gelten. Um herauszufinden, ob die eigenen Werke digitalisiert wurden, hat auch Schwierigkeiten. Metadatenquelle war der Worldcat, der mit 270 Millionen Büchern aus allen Ländern doch recht unübersichtlich ist.

Der FAZ-Autor macht sich auch hier unreflektiert zum Sprachrohr eines (zumindest vom Sprachstil so wirkenden) aufgebrachten Christian Sprang,seines Zeichens Justitiar des Börsenvereins des Deutschen Buchhandels.

Hinzu kommt: Wer das Settlement-Formular ausfülle, gebe schon wieder jede Menge Metadaten von sich preis.

Die Opt-out-Klausel, die es Autoren und Verlagen ermöglicht, Google mitzuteilen, dass sie aus dem Vergleich aussteigen wollen. Dies ist für den Riesen nicht verpflichtend, dass er die Bücher tatsächlich aus dem Netz nehmen muss. Erst mit einer Privatklage in den Vereinigten Staaten kann der Autor/Verlag nachweisen, dass Google amerikanisches Copyright gebrochen hat. Kleine Verlagee und einzelne Autoren können sich dies finanziell nicht leisten. Bis zum Ende der „notification period“ am 5. Mai 2009 müssen sich Autoren bzw. Verlage gemeldet haben.

Die Frage, die sich stellt, ist natürlich, welche Vorteile Autoren davon hätten, dass sie sich dieser größeren Sichtbarkeit entziehen. Muss man auf seinem Recht bestehen, nur um Recht zu behalten? Fast trotzig wirkt hier die Reaktion des deutschen Jusitziars. Welche Nachteile befürchtet man, dass man allen Autoren und Verlagen pauschal dazu rät, Google zu verlassen? Wo gibt es offizielle, sachliche Entscheidungshilfen, die ein Pro & Contra einer solchen Entscheidung klar darstellen oder abwägen?

Am 11. Juni wird das Gerichtin New York dem Vergleich mit hoher Wahrscheinlichkeit zustimmen, da sich hier in den Augen der Richter die Prozessparteien selbständig geeinigt haben.

Sollte trotz von mehreren Seiten angekündigter Einsprüche der Vergleich am 11. Juni bestätigt werden, wird der Tag als Wende in die Geschichte des Urheberrechts eingehen.

Formal gilt dieser Vergeleich nur in den USA, dennoch befürchtet der Börsenverein, dass jetzt das Urheberrecht leichter umgehbar wird. Der Autor sieht dadurch die bisherige Rechtsstaatlichkeit für Verleger und Autoren bedroht.

Google erhält durch diesen Vergleich eine andere Rolle. Die Regelungen des Settlement mit der Authors Guild sehen eine Garantiesumme von 60 Dollar pro unauthorisiert digitalisierten Buch vor. Diese Autoren können mit entscheiden, ob und in welchem Umfang Google das Werk im Zusammenhang mit Werbung nutzen darf. An die Autoren wird außerdem pauschalisiert dreiundsechzig Prozent der Werbeeinnahmen Googles ausgeschüttet.

So wird Google zum Händler und nach 2011 zum Verleger. Denn das gar nicht unrealistische Kalkül der Firma sieht vor, dass höchstens einer von zehn Copyright-Inhabern seine Ansprüche geltend machen wird. Damit fallen die Rechte im Lauf der nächsten Jahre an Google.

Mir ist Unklar, in welcher Form Google hier zum Verleger wird. Wikipedia definiert Verleger:

Früher bezeichnete man mit Verleger den Auftraggeber im Verlagssystem. Heute bezeichnet der Begriff einen Unternehmer, der einen Verlag für Bücher, Noten, Zeitschriften oder Zeitungen betreibt oder leitet. Die Branchenbezeichnung leitet sich von Vorlage ab. Der Verleger geht mit Druck- und Werbungskosten in Vorlage.

In diesem Fall wird Google nicht erst 2011 zum verleger, sondern ist es bereits seit der Verlag Scans erster Bücher der Public Domain angeboten hat.

Die Regelung des Vergleichs sichert Google, dass sollten alle sieben Millionen Rechteinhaber die 60 Dollar pro Buch verlangen, maximal 420 Millionen zahlen muss. Auch diese Rechnung kann ich nicht ganz nachvollziehen. Es sind etwa 7 Millionen Bücher, die digitalisiert worden, aber etwa 500.000 fallen davon unter die Public Domain. Die muss man wohl abziehen. Google scheint nicht mit einer großen Anzahl von Anträgen zu rechnen, denn man stellt 45 Millionen Dollar, d.h. knapp 11 % der Summe für die Auszahlung bereit.

Schon jetzt darf, die Zustimmung des Gerichts voraussetzend, Google alle Bücher einscannen, die bis zum 5. Januar 2009 erschienen sind. „Das ist das eigentlich Teuflische an diesem Plan“, erklärt Sprang.

Kolidieren hier die Wünsche des größten Menschheitsprojekts mit den Vorstellungen des geistigen Eigentums? Sehr schön, jetzt kommen wir zu den tapferen Männlein, die sich gegen die Übermacht stämmen. Auf dieses Bild habe ich direkt seit Beginn des Feuilletons gewartet.

Der Börsenverein hat sich mit der Verwertungsgesellschaft Wort und mit dem Schriftstellerverband verbündet, die sich normalerweise um das Eintreiben von Kopier- und anderen Vervielfältigungserlösen für Autoren kümmert. Die VG Wort soll nun ihren Wahrnehmungsvertrag gegenüber 380.000 Vertragsnehmern um die elektronischen Rechte erweitern. Per Rechtsgutachten ist diese Vorgehensweise abgesichert, es wäre ein Pfund, mit dem sich wenigstens ein wenig wuchern ließe.

Und jetzt passiert was, wo ich stutzte. Bis eben war Google der Buh-Mann und auf einmal träumen nicht alle Autoren davon, Google zu enteignen? Das ist eine sehr unerwartete Wendung am Ende des Beitrages.

Sicherlich muss man Googles Tätigkeiten besser kanalisieren und den Kopf gottergeben in den Sand zu stecken oder einfach das, was Google macht, unreflektiert zu verteufeln.

So gelähmt wirkt die Branche angesichts der Chuzpe, dass viele klagen, der Kampf sei schon verloren – bevor sie ihn aufgenommen haben. Mit den Urheberrechten gäbe man, so der Schriftsteller Thomas Hettche, auf, wofür man Jahrhunderte gekämpft habe.

Etwas ungläubig las ich dann, dass der Digitalisierungskritikier und Schriftsteller Thomas Hettche sich mit einer für seine Arbeit doch so wichtigen Vereinbarung, die seit Monaten durch die Presse geistert, noch nicht auseinander gesetzt hat. Damit reiht er sich wohl in die Mehrheit der Autoren ein.

Das zeigt einmal mehr das man “dagegen” ist, ohne das Problem oder die Möglichkeiten zu beleuchten. Autoren, die sich nämlich auch mit den Chancen auseinander setzen, erkennen, dass sie als passive Nutzer nämlich sogar selbst von Google Books profitieren. Das zeigt aber auch das Dilemma in denen Autoren stecken. Einerseits haben sie nicht wirklich Einfluss auf Google, andererseits gewinnen Sie auch durch die bessere Sichtbarkeit ihrer Bücher. Ich persönlich habe schon mehrfach Fachbücher erworben, die ich in der Bibliothek nicht schnell beschaffen konnte und deren Relevanz ich über Google evaluieren konnte. Also, das ist dann wohl Google Books als die perfekte Werbeplattform.

Glücklich ist die Lösung für beide Seiten nicht, da man mit mehr Einigungsbereitschaft von beiden Seiten im vorfeld eine einvernehmlichere Lösung hätte erzielen können.

Unter den Büchern, die Google digitalisieren will, befinden sich nach Angaben es Börsenvereins allein 50.000 deutschsprachige Titel von Random House Deutschland, dem größten deutschen Publikumsverlag. Random House Vorstandsvorsitzender Joerg Pfuhl ist nicht ganz so ablehnend:

„Grundsätzlich ist der Google-Vergleich eine gute Sache. Er könnte Basis für neue Geschäftsideen sein. Und immerhin hat Google die Urheberrechte nun anerkannt.“ Aber auch er räumt ein, Google habe „viel Misstrauen gesät. Die Vorgehensweise ist bekannt: Fakten schaffen, um dann unter Druck Lösungen zu erzwingen.“

Google muss zeigen, dass es auf der finanziellen Seite wenigstens ein verlässlicher Partner ist und das Vertrauen rechtfertigt, dass Autoren in das Unternehmen einbringen.

Eine letzte Schwarzmalerei kann sich der Autor am Ende des Beitrages nicht verkneifen. Er sieht ein Grundsatzproblem, dass dieser Prozess akut werden lässt.

Werden künftig Werke der Wissenschaft, der Literatur geschrieben, wenn sie sogleich Gemeingut im Internet sind? Was, wenn die neuen Geschäftsmodelle es Urhebern nicht mehr ermöglichen, von dieser Arbeit zu leben: Verschwinden dann ganze Berufszweige und machen den Selbstausstellern Platz?

Da will ich mal ein paar genauso grundsätzliche Gegenfragen stellen. Schaffen wir den Zugang zu Wissen für eine Elite, wenn der Zugang zu Informationen immer kostenpflichtig ist? Geht nicht zu viel Wissen verloren, weil es nicht zur rechten Zeit auffindbar ist? Ist der Schaden für die Allgemeinheit nicht höher, wenn wegen fehlendem Wissenszugang die Forschung erlahmt oder es zu Doppel- und Dreifachentwicklungen kommt (mal abgesehen, dass wir damit zur Zeit sowieso schon zu kämpfen haben)?
Natürlich muss man Google im Auge behalten und verhindern, dass aus Google ein neues Elsevir wird. Google darf kein Monopolist bleiben. Und man mag meinen, die Industrie und damit auch die Content-Industrie, wüßte, dass Konkurrenz das Geschäft belebt Ich weiß, das ist ein abgedroschener Allgemeinplatz, doch die Bestrebungen mit Libreka wirken einfach nur ungeschickt. Da klingt es richtiggehend getroffen, was der Autor zum Schluss schreibt:

Früher hätte man nach der Politik gerufen und ihr erklärt, dass Wissen systemwichtig sei. Doch die Politik scheint sich für all das nicht zu interessieren.

Quelle:
Hintermeier, Hannes: Das Teuflische an diesem Plan via FAZ.Net

FAZ, Google, VG Wort und irgendwo auch Bibliotheken

Wieviel Selbstbetrug ist dabei, wenn man dem “liebenswerten” Riesen Google traut? Bunt und lässig wirkt die schnelle Suchmaschine und ihr Motto “Don’t be evil” ist geradezu sympatisch. Das Versprechen, nicht mehr in Büchern blättern zu müssen, ist eine Verheißung, die Google mit “Google Books” glaubhaft werde lässt.

Aus ehemaligen Gegnern dieses Projektes, den Autoren und Verlegerverbänden, wurden in den letzten drei Monaten nach der bahnbrechenden Einigung am 28. Oktober 2008:engl: „Branchenpartner“. Damit ist man bei der Sache also schon beim “Wir” angekommen.

Eng wollen die Suchmaschinisten mit ihnen zusammenarbeiten, „um noch mehr Bücher dieser Welt online verfügbar zu machen“. Das utopisch Vermessene steckt in der Wendung „dieser Welt“, welche Google erneut zu erobern ausgezogen ist – und wie wohl niemand zuvor in der Geschichte über alle Kulturen, Sprachen und Religionen hinweg tatsächlich in den Griff zu bekommen scheint.
Anzeige

Anders ist da der Auftritt deutscher Streiter wie der VG Wort, die nun gegen das Projekt Google Books vorgehen möchten, für das Google in den USA “trotz bisheriger Rechtsunsicherheit schon sieben Millionen Bücher digitalisiert” hat.

Weiterlesen

Ein Trend zum E-Book

Archivalia und das IBI-Weblog berichten bereits darüber. Auch der Deutschlandfunk hat es schon von den Dächern gepfiffen: In Würzburg an der Universitätsbibliothek gibt es demnächst – finanziert aus Studienmitteln – mehr E-Books für die Studenten.

Heutzutage zu studieren, geht ins Geld. […] Rechtzeitig zum Weihnachtsfest macht die Universität Würzburg ihren Studenten daher ein “Geschenk”: 500 Lehrbücher, die statistisch am häufigsten ausgeliehen werden, gibt es bis zu den Feiertagen in elektronischer Form.

Die Universitätsbibliothek scannt die statistisch am häufigsten entliehenen Bücher ein und stellt sie den Studierenden elektronisch zur Verfügung. 💡
Dazu nutzt man den § 52b UrhG.

Dieser Paragraph erlaubt es zum ersten Mal innerhalb einer wissenschaftlichen Einrichtung elektronisch Gedrucktes bereitzustellen. Die Universitätsbibliothek sieht darin einen Freibrief fürs Digitalisieren. Wer allerdings hofft, jetzt aus dem Internet darauf zugreifen zu dürfen, muss sich enttäuschen lassen. Diese nachträglich zu E-Books umgewandelten Werke dürfen laut der Regelung des Paragraphen nur in den engen Räumlichkeiten an PCs vor Ort genutzt werden. Und mit rund 70.000 € aus Studienmitteln ist das auch kein billiges Weihnachtsgeschenk, dass hier den Studenten gemacht wird.

Ach ja, apropos Urheberrecht. Sich das Werk einfach herunterladen oder komplett ausdrucken – zweite Variante beim Palandt eine zeitaufwendige, teure und unnütze Lösung – funktioniert nicht.

Der Leiter des Projekts, Hans-Günther Schmidt dazu:

“Sie können ausdrucken, sie können Teile davon herunterladen. Der ganze Text – das wird wohl nicht gelingen. Wir haben verschiedene technische Sicherungen drin, so dass das ganze Buch, wie es das Urheberrecht auch vorsieht, nicht heruntergeladen werden kann…”

Ach ja, da war ja was. Das hört sich doch glatt nach DRM an. Wo bleiben die entrüsteten Schreie derjenigen, die Digital Rights Managment verteufeln? Es ist okay, denn das Projekt an sich bietet noch einige Risiken und auch den Wünschen der Verlage muss man Rechnung tragen.

Ich finde es auf den ersten Blick jedoch eine gute Sache, ein guter Anfang, wenn auch einige Einschränkungen, die durch §52 b UrhG gegeben sind und diesen Fortschritt erheblich eindämmen. Hoffen wir mal, dass die so angefertigten Scans die Bibliothek in den Köpfen oder auf Papier verlassen und nicht hinein in die bunte digitale Welt des Internets gelangen, damit sich Aufwand, Mut und dieser kleine Fortschritt auch lohnen.

1 3 4 5 6