Erste Informationen zum Urteil Ulmer vs. TU Darmstadt [Update, 16.03.2011, 15:20 Uhr]

Ein Gerichtssprecher des Landgerichts Frankfurt am Main erklärte buchreport.de zu dem heute zu erwartenden Urteil im Urheberrechtsstreit zwischen dem Eugen Ulmer Verlag und der Universitäts- und Landesbibliothek Darmstadt, dass laut Urteil eine Vervielfältigung der eingescannten Werke durch die Bibliotheksnutzer nicht zulässig sei. Danach dürfen die von den Bibliotheken digitalisierten, urheberrechtlich geschützten Bücher, welche auf elektronischen Leseplätzen vorgehalten werden, weder ausgedruckt noch auf USB-Sticks gespeichert werden.

Keine Informationen gab es bisher zu der zweiten strittigen Frage, ob es Bibliotheken weiterhin erlaubt ist, Bücher ohne erworbene Lizenz zu digitalisieren. Abzuwarten ist hier das Vorliegen der schriftlichen Ausfertigung des Urteils.

Er gehe davon aus, dass beide Parteien nun auch den nächsten Schritt zum Bundesgerichtshof gehen werden, erklärt Verleger Matthias Ulmer auf Anfrage von buchreport.de. Schließlich sei es ihnen wichtig, alle Fragen in diesem Urheberrechtsstreit grundsätzlich zu klären.

In der jetzigen Form ist jedoch der § 52b UrhG für Bibliotheken wenig sinnvoll – viel Aufwand, um Bücher zu digitalisieren, wenig Nutzen für ihre Leser. Da kann man die Bücher auch nochmal kaufen.

Zur Vorgeschichte – Infos hier im Blog

Quelle:
Urteil des Landgerichts Frankfurt im Ulmer-Urheberrechtsstreit : Kopieren verboten, buchreport.de

Auch dazu (update):
ULB Darmstadt vs. Ulmer Verlag: Richter untersagen Kopieren, Börsenblatt
Uni-Bibliotheken: Leseplatz ja, Herunterladen nein, Newsticker Süddeutsche Zeitung
Studieren ohne kopieren, hr-online.de
Kein Ausdrucken und Herunterladen in Bibliotheken, SWR.de

Aus aktuellem Anlass: Die Freiluftbibliothek in Madeburg ist Gewinner des “Brit Insurance Award” 2011

“The success of this experience counters the scepticism that often hovers over the trade-off between participative processes and the practice of good architecture. Far from being gentrified, the urban setting of Salbke takes on added value with the presence of this building, which sagely takes over an interstitial run-down space to give it order and also signal its presence. […] The citizen participation that is revitalising the social fabric does not end with conceiving a building since, now the professionals who acted as advisers have gone, the residents have taken over its management. The result points to the possibilities of a civil society that is able to emancipate itself from the upside-down State protection when the public administration does not satisfactorily meet its needs.”David Bravo Bordas

2009 und 2010 berichtete Dörte bereits von der Freiluftbibliothek im Madeburger Stadtteil Salbke. Das Projekt „Lesezeichen für Salbke” gewann nun diesen Jahr den prestigeträchtigen “Brit Insurance Award”. Herzlichen Glückwunsch! Über das franko-kanadische Bibliotheksweblog “Bibliomancienne” (von Marie D. Martel) erfuhr ich am 11.03. davon. Natürlich berichtete auch das Weblog des Lesezeichens Salbke bereits am 04.03. darüber. Das Konzept und die Idee in Städten, die in der Sprache der Soziologen als “Shrinking Cities” bezeichnet werden, solche Open-Air-Bibliotheken zu errichten, hätte doch durchaus Zukunft. Andere Städte, die mir in Sachsen-Anhalt bekannt sind (u.a. Halberstadt) verlieren zunehmend an Plattenbauten, da diese abgerissen wurden. An deren Stelle treten Grünflächen auf deren Böden solche Freiluftbibliotheken gut “gedeihen” würden. Mit der zweiten internationalen Auszeichung nach dem “European Prize for Urban Public Space” hat die Freiluftbibliothek aus Magdeburg mit dem “Brit Insurance Award” 2011 über die europäischen Landesgrenzen Schlagzeilen gesorgt. Die am 16. Januar diesen Jahres von mir gestellte Frage ob Bibliothekslandschaften in “Schrumpfenden Städten” per se ein Bibliothekssterben bedeuten müssen, kann ich nun selbt mit nein beantworten. Wenn Bibliotheken in der Lage sind sich an die demographische Entwicklung  welche neue  “Landschaften”  schafft und die soziale Segregation eher verstärkt, anpasst, dann wird es auch dort ein “Revival” von Bibliotheken geben. Bisher gibt es wohl aufgrund sozialer Verwerfungen und Bildungsarmut bisher noch wenig BibliothekarInnen, die  angemessen niedrigschwelligere Angebote bereitsstellen und selbst vor Ort mit den potentiellen NeunutzerInnen in Kontakt treten.  Es ist wohl auch der Ort und die Architektur, welche die Attraktivität  steigert und die Hemmschwellen sinken lässt. Dadurch, dass es sich bei den MitarbeiterInnen dieser Freiluftbibliotheken um Menschen aus dem Viertel handelt, in dem die Freiluftbibliothek steht, wird es sicherlich leichter Kinder und Erwachsene diesen neuen Ort “schmackhaft” zu machen. Wenn zukünftig BibliothekarInnen aus anderen Ländern auf Bibliothekenexkursion in Deutschland sind, könnten diese auch die Freiluftbibliothek in Madeburg besuchen. Warum denn nicht? Sie ist ein Best Practice Beispiel dafür, wie die Bibliothek der Zukunft in bestimmten Regionen und Stadtteilen aussehen sollte und muss.

In dem nun folgenden Video kommt einer der Architekten, David Bravo Bordas zu Wort.

Weiterlesen

BibCamp 4: von Linked Open Data, ViFas und Fachkommunikation

Jetzt hab ich es also auch endlich mal zum BibCamp geschafft und muss sagen: ich bin nachhaltig beeindruckt und begeistert! Die perfekte Organisation wurde an anderer Stelle schon ausreichend gelobt, weshalb ich mich an dieser Stelle einfach nur anschließe.
Aber nun zum wirklich spannenden Teil: den Sessions (wobei natürlich die “Zwischen-Sessions” auf dem Flur mindestens genauso spannend waren 😉 )

Tag eins

Am ersten Tag war ich in zwei Sessions (“Libraries in their own cloud” und “Normdaten Semantic Web Thesauri”) , die sich im wesentlichen in einem Begriff zusammenfassen lassen: (Linked) Open Data. Die Verfügbarkeit der Daten und die Orientierung an etablierten Standards wurden als unbedingte Voraussetzungen für alle weiteren Überlegungen festgehalten und es wurde mit Blick auf die (mitunter zögerlichen) Bibliotheken angeregt, aus dem Teufelskreis “ohne offene Daten keine Anwendungen, aber ohne Anwendungen keine offenen Daten” auszubrechen.

Tag zwei

Der zweite Tag startete für mich mit der Session “Virtuelle Fachbibliotheken / Bibliotheksportale”. Die Diskutanten beschäftigten sich mit der oft geringen Nutzung der ViFas und dem Problem der “Featuritis”: der Überfrachtung mit vermeintlichen (Mehrwert)Diensten. Doch längst findet auch bei den ViFas ein Paradigmenwechsel statt: weg von zentralisierten Portallösungen, zu denen die Nutzer kommen müssen und hin zu “ViFa-Widgets”, die problemlos in andere Umgebungen integriert werden können. Auch eine stärkere Modularisierung der ViFas wäre hier hilfreich. Die Idee der ViFa als App wurde eher kritisch gesehen: besser ist eine gute mobile Webseite, die plattformunabhängig genutzt werden kann. Nicht zum ersten Mal während des BibCamps wurde auch die Nachhaltigkeit der (oft projektbasierten) bibliothekarischen Online-Dienstleistungen betont. Mehr dazu u.a. auch hier.

Nachmittags ging es dann mit der Session “Fachkommunikation im Bibl.-und Infobereich” weiter. Den Hintergrund bildeten dabei die kritische Nabelschau der bibliotheks- und informationswissenschaftlichen Fachkommunikation in Infobib und beyondthejournal.net auf der Grundlage verschiedener Studien zur Wahrnehmung von informationswissenschaftlichen Fachzeitschriften. Schließlich waren dort acht Kriterien aufgestellt worden, die eine zukünftige informationswissenschaftliche Fachzeitschrift erfüllen soll. Unter anderem war an dieser Stelle auch auf die Parallelwelten der Offliner einerseits und der Onliner andererseits hingewiesen worden. Diese These wurde jedoch von den Teilnehmern der Session teilweise angezweifelt und stattdessen auf unterschiedliche Ansätze der bibliothekarischen Zeitschriften und ihre Ausrichtung (Bibliothekspraktiker vs. wissenschaftliche Fachjournals) verwiesen. Gefordert wurden vor allem Open Acces und damit verbunden die Nachnutzbarkeit von Ergebnissen. Interessant war auch, dass die Forderung nach einem peer-reviewed Journal von einigen Teilnehmern als Rückschritt begriffen wurde. Einig waren sie sich aber darin, dass eine bessere Aggregation, quasi eine “Lesewolke in groß” ein zukunftsfähiges Modell sein könnte und dass dem Problem der Nicht-Anerkennung von Blogs als wissenschaftliche Informationsressourcen entschieden im Stil des “Tue Gutes und sprich darüber” entgegengewirkt werden sollte.

Die letzte Session, an der ich teilgenommen habe, behandelte das “leidige” Thema “Softwareentwicklung in Bibliotheken”, von daher fand ich es auch nicht verwunderlich, dass die Teilnehmer sich gleich zu Beginn als Selbsthilfegruppe definiert haben. Bei Softwareprojekten kollidieren besonders häufig (unpräzise) Anforderungen und technische Realität, was auf allen Seiten (Projektleitung, Entwicklung, Anwender) zu Frustration führen kann. Als möglicher Ausweg wurde u.a. eine eindeutigere Rollendefinition innerhalb der Projekte diskutiert, z.B. in Form eines Produktmanagers, der eine vermittelnde (puffernde) Position einnehmen kann. Die Diskussion war derart angeregt, dass wir glatt zu spät zur Abschlussveranstaltung kamen und dort als “Busladung” entsprechend für Erheiterung sorgten.

Ich habe sehr viel von diesen 1 1/2 Tagen mitgenommen und freue mich schon jetzt auf das nächste BibCamp (wo auch immer es stattfinden wird 😉 )

Buchpiraterie in dramatischen Ausmaßen

Die Musikindustrie hat stark über illegales Kopieren geklagt, aber seit es passende, bezahlbare und nicht mehr zu restriktives DRM-geschützte Angebote gibt, ist es irgendwie ruhiger. Verlagen hingegen drohen derzeit auch unruhige Zeiten. Einer neuen Studie zufolge sind immer mehr Kopien von Büchern und Zeitschriften im Netz zu finden, wobei es sich vor allem um teure wissenschaftliche Literatur und Belletristik-Bestseller handelt. Laut einer Untersuchung zur “Ebook-Piraterie in Deutschland” gibt es immer mehr illegale Ebook-Seiten, die Interessierten gratis hunderttausende raubkopierte Büchern anbieten und die Seiten wachsen rasant. Erhältlich in “Piratenforen” sind neben teurer wissenschaftlichen Literatur und Belletristik-Bestsellern auch Hörbücher und eingescannte Zeitschriften und Zeitungen.

Hinter dem Nickname “2nicegirl” steht ein eifriger Internetfreak, der Medizinfachbücher und auch Lehrbücher, die bis zu 30 Euro kosten, einscannt und sie zum Gratisdownload ins Netz stellt. 1440 Buchtitel verschiedener Verlage hat er so bisher veröffentlicht. Hier kann man deutlich von krimineller Energie sprechen und zeigt, dass das Problem der illegalen Kopien in digitaler Form jetzt die Verlage erreicht. Allerdings wage ich zu bezweifeln, dass dieses Problem ein sehr Neues ist. Es wird jetzt als Rechtfertigung für die heftigen Reaktionen einer verunsicherten Branche genutzt.

Aussagekräftig ist doch schon diese Aussage:

Schon heute seien die wirtschaftlichen Schäden für Thieme zwar schwer zu beziffern, aber auf alle Fälle „sehr gravierend“.

Es ist nicht zu beziffern? Man kann also nur vermuten, wie hoch der Schaden ist und die Inidizien müssen ungefähr abschätzen lassen, wie hoch der Schaden ist, wenn man von “sehr gravierend” spricht. Doch dann könnte man dies sicherlich anders belegen, als zu sagen, “aber auf alle Fälle”.

Dass Deutschland erst am Anfang einer “Piraterie-Entwicklung” steht, leigt einerseits daran, dass technische Geräte erst seit kurzem auf dem deutschen markt zu finden sind bzw. die Tablet-PCs sich erst so langsam durchsetzen. Erst seit letztem Jahr sind diese Geräte in nennenswerter Menge im Handel und befeuern damit einen Markt, der Interesse an bezahlbaren oder kostenlosen E-Books. Wo es Nachfrage gibt, gibt es auch jemanden, der für deren Befriedigung sorgt. Studienautor Manue Bonik warnt vor einem “wirklich” dramatischen Wachstum von Internetpiraterie und fürchtet, dass viele Veralge noch gar nicht ahnen, was da auf sie zukommt.

Angebote, die digital vorliegen, wie die E-Paper-Version des Nachrichtenmagazins “Spiegel”, sind häufig schon kürzeste Zeit später auf etlichen illegalen Portalen im Internet zu finden. Interessant ist die Sprachwahl, dass dann gleich mehrere Hundertausende sich den Spiegel herunterladen.

Verlage können die Raubkopien nur eindämmen, nicht jedoch ganz erhindern. Die Methode der Urheberrechtsverletzer ist es, die Printprodukte mit recht hoher Qualität einzuscannen. Schwierig ist es jedoch, diese notorischen Rechtsbrecher aufzuspüren und haftbar zu machen. Meist kennen sich diese Menschen recht gut aus im Internet und wissen daher, wie sie sich tarnen können, d.h. ihre IP-Adressen verschleiern können.

Ein Empfehlung des Börsenvereins des Deutschen Buchhandels ist unter anderem auf die Sensibilisierung von Jugendlichen für die Bedeutung des geistigen Eigentums. Zudem sollten Verlage ihre Produkte durch digitale Wasserzeichen „psychologisch“ schützen. Die Verlage werden aber aktiv bei der Verteidigung ihrer Medien:

Die am meisten verwandte Waffe besteht darin, Experten wie Bonik und seinen Kollegen Andreas Schaale zu beauftragen, das Internet mit Suchalgorithmen nach den illegalen Dateien zu durchsuchen – eine Sisyphusarbeit, denn die Plagiatoren arbeiten wie emsige Bienchen, in hoher Geschwindigkeit laden sie bisweilen die Titel, die an der einen Stelle vernichtet wurden, an anderer Stelle wieder hoch.

Kleine Anmerkung, wenn diese Studie von Experten für die Verfolgung von Raubkopierern geschrieben wurde, so muss man ihnen ein wirtschaftliches Eigeninteresse unterstellen, die Bedrohung durch Raubkopierer als sehr hoch einzuschätzen.

Wenn eine Raubkopie gefunden wurde, fordern die “die Spürhunde” die Betreiber der dazu gehörenden Website zur umgehenden Entfernung der Raubkopie auf und können sich in den meisten Fällen auf die Kooperation der Filehoster verlassen. Ihnen droht keine Strafe, da sie nur die Plattformen zum hoch- und herunterladen von Daten zur Verfügung stellen. Für die Inhalte sind die Nutzer selbst verantwortlich.

Von den Erfahrungen der Musikindustrie weiß man, dass nicht jeder, der ein E-Book illegal herunterlädt, dieses auch tatsächlich sonst gekauft hat. Dennoch geht es für die Verlage um sehr viel Geld, wie die Kallkulation des Hörverlages zeigt.

Mehr als 165.000 illegale Download-Angebote einer Harry-Potter-CD verzeichnete das Münchner Unternehmen innerhalb von nur einem Jahr. „Hätten nur ein Prozent der mutmaßlichen Downloader die CD rechtmäßig erworben, hätte der Handel mindestens 750.000 Euro mehr Umsatz gemacht“, rechnet Stephanie Häger aus der Lizenzabteilung des Hörverlags vor.

Die Kopierer selbst, die eine illegale Kopie erstellen, bieten diese meist kostelos an. Auch die Prämien, mit denen Websitebetrieber Raubkopierer locken, sind nicht so hoch, dass sie als Lebensgrundlage ausreichen würden. Von einem finanziellen Reibach kann also für die Kopierer keine Rede sein.

Internetspürhund Schaale vermutet,

dass es sich um gelangweilte Bibliothekare in Uni-Bibliotheken handele, sagt er. Im besten Fall verfolgten diese das Ziel, der Welt freien Zugang zu Wissen zu vermitteln.

Die möchte ich persönlich kennenlernen, wenn es sie denn gibt. Das zeigt mal wieder, welches Bild Verlage auf BibliothekarInnen haben. Kein Wunder, dass ich immer wieder das Gefühl habe, dass Verlage kein Interesse an sachlichen Gesprächen mit den Bibliotheken haben und die E-Book-Angebote für Bibliotheken mehr als nur dürftig sind. Es scheint ein großes Interesse zu bestehen, Bibliotheken als Wissensvermittler komplett auszuschließen oder sie mit E-Book-Angeboten wie von UTB zu Vertriebsplattformen umzuwandeln. Hier ist auch eine Frage nach den Verlagsmitarbeitern wohl erlaubt, die schließlich an der digitalen Quelle sitzen.

Die größte Gruppe der Kopierer ist bei internetaffinen Youngstern zu suchen, die aus Gründen der “Ehre und Anerkennung in der digitalen Welt” eine sportive Veranstaltung daraus machen, in kurzer Zeit möglichst viele Downloads ins Netz hochzuladen.

Zur Studie:
Gutenberg 3.0 – Ebook-Piraterie in Deutschland

Quellen:
Download-Piraten entern nun die Buchverlage, Welt online
Studie: Dramatische Ausmaße bei Kopien von Büchern im Internet, Standard.at

Beiträge zum Bibcamp 4 #bib4 (12.04.2011, 10:38Uhr)

Auch ich schließe mich der Bitte der Organisatoren des Bibcamps 4 an alle Teilnehmer an, die Sessions zu dokumentieren und den Evaluationsfragebogen auszufüllen.

Lambert wies auf die Tweetverteilung zum Bibcamp 3 #bib3 und Bibcamp 4 #bib4 hin. Interessante Daten.

Hier zu finden sind auch erste Bilder von Thomas Hapke. Danke dafür. [Update]

12.04.2011
Christensen, Anne: #bib4: Ergebnisse der Evaluation, Bibcamp + Ergebnisse der Evaluation [Update]

18.03.2011
Trapp, Markus: BibCamp 4 in Hamburg – Meine besuchten Sessions, Text & Blog [Update]

17.03.2011
Hapke, Thomas: Informationskompetenz neu gedacht – Informationskompetenz leicht gemacht?!, Hapke-Blog [Update]

16.03.2010
Plieninger, Jürgen: Der Ertrag einer Tagung kann ganz unterschiedlich sein. Ein best practice-Beispiel, Fobikom-Weblog [Update]

15.03.2010
Thiede, Doreen: BibCamp 4: von Linked Open Data, ViFas und Fachkommunikation, Bibliothekarisch.de [Update]

Weiterlesen

[Kurz] Eindrücke vom Bibcamp 4 in HH #bib4

So, das Bibcamp 4 ist schon komplett gestartet. Die ersten beiden Sessions sind durch. Ich habe über E-Books sprechen können und dann Lamberts Session über Tools für Zusammenarbeit besucht. Dafür wird es natürlich mehr geben in den nächsten Tagen. Ich werde auch wieder die Beiträge in den Blogs hier im Blog verlinken.

Dies zunächst als kurze Statusmeldung für das Bibcamp. Neben dem Wetter war auch die Laune der Teilnehmer gut und die Gespräche bisher waren sehr produktiv.

P.S. Und gerade ein netten Button von der Zukunftswerkstatt erhalten. Danke dafür 🙂

De Gruyter testet Patron Driven Acquisitions-Modell mit dem Forschungszentrum Jülich

Der Wissenschaftsverlag De Gruyter und das Forschungszentrum Jülich haben sich zusammengefunden, um ein neues Erwerbungsmodell zu testen. Dafür erhält das Forschungszentrum Jülich für ein Jahr einen Testzugang zur Fachliteratur des Verlages, um über das „Patron Driven Acquisitions-Modell“ den Bedarf an “hochwertiger Forschungsliteratur ermitteln und helfen die Finanzmittel begründet einzusetzen”.
Während der Testphase stehen den ForscherInnen des Forschungszentrums sämtliche relevanten elektronischen Inhalte des Verlages, d.h. E-Books, Zeitschriften und Datenbanken zur Verfügung. Anhand der Nutzung wird dann die Bibliothek des Forschungszentrums darüber entscheiden, welche Inhalte dauerhaft erworben werden.

Für den Verlag stellt sich natürlich auch die Frage, ob man mit der Patron Driven Acquistion (PDA) nicht den Buchhandel verärgern würde.

PDA ist eine alternative Erwerbungsform, die den Patron, also den Bibliotheksnutzer, in den Vordergrund stellt. Die Bibliothek stellt eine Vielzahl von Inhalten über ihren Bibliothekskatalog zur Verfügung, es werden jedoch nur solche gekauft oder kurzfristig gemietet, bei denen der Nutzer ein akutes Nutzungsinteresse hat.

In den USA testet man schon recht aktiv dieses Modell. Hier in Deutschland können Bibliotheken mit E-Books der E-Book Library (EBL) dieses Verfahren anwenden. Die EBL und damit das Modell der PDA für Bibliotheken wird beispielsweise über EBSCO oder Schweitzer angeboten.

Die PDA ist eine Erwerbsform, die sich besonders für elektronische Medien eignet und die hilft, das Bibliotheksangebot auf die Bedürfnisse der Nutzer auszurichten, die schließlich am besten wissen, was sie benötigen. Für den Handel heißt das nicht automatisch, dass er aus der Kundenbeziehung ausgeschlossen werden, denn EBL und ebrary werden über entsprechende Aggregatoren zur Verfügung gestellt und ermöglichen es den Bibliotheken so, elektronische Inhalte gezielt und verlagsübergreifend zu erwerben.

De Gruyter hat sich für die direkte Zusammenarbeit mit einer Institution entschieden, die bisher noch kein elektronischen De Gruyter-Inhalte erworben hat, um eine innovative Angebotsform zu testen, die sich für die Angebote von De Gruyter besonders zu eignen scheint und die auch in Bezug auf die Wirtschaftlichkeit von Bibliotheken eine deutliche Steigerung bedeuten kann.

Wenn Händler dieses Modellprojekt, das wir übrigens wissenschaftlich begleiten lassen, in Zukunft in ihr Angebotsportfolio aufnehmen, freuen wir uns und arbeiten mit dem Handel gern zusammen.

Neu bei dem PDA-Ansatz von De Gruyter ist, dass sich der Verlag nicht nur damit begnügt, E-Books darüber anzubieten, sondern auch Datenbanken und E-Journals. Ob eine Erhöhung der Wirtschaftlichkeit damit erreicht werden kann, muss sich zeigen. Als Schwierigkeit beim PDA-Ansatz sehe ich den Anspruch auf einen ausgewogenen Bestandsaufbau auch mit elektronischen Medien. Sicherlich können aktuelle Bedürfnisse rasch erkannt und befriedigt werden, jedoch kann es passieren, dass Werke zu “Randthemen”, die erst später benötigt werden, so aus der Erwerbungspolitik herausfallen.

Quellen:
Forschungszentrum Jülich und De Gruyter testen „Patron Driven Acquisition“ – und wird dem Buchhandel damit das Geschäft vermiest?, Buchmarkt.de
Katrin Siems zum neuen Erwerbsmodell-Test von deGruyter, Buchmarkt.de

1 2 3 4 5