Bibliotheken in der Verantwortung: "Literatur im Netz" authentisch archivieren und langfristig verfügbar machen [275]
Karin Schmidgall, Deutsches Literaturarchiv Marbach, Marbach
Jochen Walter, Deutsches Literaturarchiv Marbach, Marbach
Vortrag auf dem 100. DBT 2011 in Berlin im Rahmen des Kurzvortragsprogramms der Zukunftswerkstatt Kultur- und Wissensvermittlung e.V. im Raum Paris
Medienübergreifende Repositorien - mehr als nur DokumentenserverRalf Claußnitzer
Um den weltweiten, freien und schnellen Zugriff auf Preprint-Artikel zu ermöglichen, entstand 1991 das heute weltweit bekannte Repository-System der Physik: ArXiv.org. Mit der Zeit griffen viele Einrichtungen diese Idee auf und entwickelten sie zum praktischen Konzept des Open Access Publikationsservers mit standardisierten und zertifizierten Schnittstellen weiter.
Zunächst nur für die Sammlung von ausgewählten Hochschulschriften vorgesehen, entwickelten sich diese Dienste zu Publikationsplattformen für Volltexte, zunehmend aber auch zu Sammlungen von multimedialen Dateiformaten. Dies ermöglichte für bestimmte Materialien zunächst die Abkehr von den klassischen Druckausgaben. Aber auch das Konzept des Dokumentenservers bleibt nicht vom Medienwandel verschont, der den Fokus vom Volltext auf zusammenhängend publizierte digitale Objekte verschiebt und heute auch nachträglich digitalisierte Werke sowie Forschungsdaten umfasst. Dieser Paradigmenwechsel bedeutet für Repositorien die Notwendigkeit zur Erneuerung ihrer Infrastruktur und bibliothekarischen Workflows. Die moderne Bibliothek muss hier ansetzen und das Dienstkonzept Dokumentenserver mit dem der Digitalen Sammlungen und Mediatheken vereinen, moderne Schnittstellen schaffen und den Zielkonflikt zwischen umfassender Sammlung und Langzeitarchivierung weitestgehend auflösen.
Das an der SLUB gestartete Projekt "Medienübergreifendes Repository“ hat zum Ziel, die sächsische Publikationsplattform Qucosa in diesem Sinne technologisch neu auszurichten. Im Zuge der Entwicklung soll eine Gesamtlösung für alle digitalen Objekte gefunden werden, die es ermöglicht, die vorhandenen Workflows miteinander zu vernetzen und unterschiedliche Präsentationsformate zu unterstützen. Der Vortrag gibt einen Überblick über die Anforderungen an eine solche Technologie sowie über die sich ergebenden Möglichkeiten und berichtet vom Stand der Systementwicklung sowie den Möglichkeiten der Nachnutzung der quelloffenen Gesamtlösung.
Vortrag "Das DFG-Pilotprojekt Virtuelles deutsches Urkundennetzwerk Von exemplarischer Urkundendigitalisierung in Archiven zu einem umfassenden Digitalisierungskonzept?", Tag der Landesgeschichte, Bremen, 24.9. 2011
Schlanke Discovery-Lösung auf Basis von TYPO3. Der neue Bibliothekskatalog de...Felix Lohmeier
Im Juli 2015 wurde der neue Bibliothekskatalog der SLUB Dresden freigeschaltet. Nach nur drei Monaten Entwicklungszeit konnte auf Basis von einer an der SUB Göttingen entwickelten und von der SLUB Dresden angepassten TYPO3-Erweiterung „Find“ eine moderne, vollständig quelloffene Rechercheoberfläche unter http://katalogbeta.slub-dresden.de veröffentlicht werden. Das Hauptargument für die Eigenentwicklung war die Unzufriedenheit mit der Rückschrittlichkeit kommerzieller Discovery-Lösungen sowie die fehlende Modularität von bestehenden Open-Source-Alternativen wie VuFind. Mit der jetzt geschaffenen Lösung erhält die SLUB Dresden die Möglichkeit schnell auf Wünsche der NutzerInnen zu reagieren. Die ersten Rückmeldungen bestätigen diesen Ansatz. Bis September 2015 sind mehr als 100 konstruktive Entwicklungswünsche eingegangen, von denen bereits mehr als die Hälfte umgesetzt werden konnte. Die Entwicklung steht zur Nachnutzung an anderen Bibliotheken zur Verfügung und ist auch für andere Rechercheoberflächen (wie z.B. digitale Sammlungen) universell einsetzbar. Voraussetzung für die Nutzung der Rechercheoberfläche ist ein Werkzeug für die Datenintegration. Das an der SLUB eingesetzte Discovery-System besteht aus drei quelloffenen Komponenten:
Die an der UB Leipzig im Rahmen eines EFRE-Projektes geschaffene Datenmanagement-Infrastruktur finc
Die an der SLUB Dresden im Rahmen von EFRE-Projekten entwickelten Datenmanagement-Werkzeuge D:SWARM und Tiefenerschließung
Die oben beschriebene Lösung auf Basis von TYPO3 Find
Zusammen entsprechen diese drei Komponenten dem Funktionsumfang von gängigen Discovery-Systemen, wie beispielsweise PRIMO von Ex Libris oder Summon von ProQuest. Die Systemarchitektur ist modular aufgebaut, so dass die Komponenten auch unabhängig voneinander eingesetzt werden können. Im Vortrag wird die dritte Komponente, sowie die zugrunde liegende Discovery-Strategie ausführlicher vorgestellt.
Medienübergreifende Repositorien - mehr als nur DokumentenserverRalf Claußnitzer
Um den weltweiten, freien und schnellen Zugriff auf Preprint-Artikel zu ermöglichen, entstand 1991 das heute weltweit bekannte Repository-System der Physik: ArXiv.org. Mit der Zeit griffen viele Einrichtungen diese Idee auf und entwickelten sie zum praktischen Konzept des Open Access Publikationsservers mit standardisierten und zertifizierten Schnittstellen weiter.
Zunächst nur für die Sammlung von ausgewählten Hochschulschriften vorgesehen, entwickelten sich diese Dienste zu Publikationsplattformen für Volltexte, zunehmend aber auch zu Sammlungen von multimedialen Dateiformaten. Dies ermöglichte für bestimmte Materialien zunächst die Abkehr von den klassischen Druckausgaben. Aber auch das Konzept des Dokumentenservers bleibt nicht vom Medienwandel verschont, der den Fokus vom Volltext auf zusammenhängend publizierte digitale Objekte verschiebt und heute auch nachträglich digitalisierte Werke sowie Forschungsdaten umfasst. Dieser Paradigmenwechsel bedeutet für Repositorien die Notwendigkeit zur Erneuerung ihrer Infrastruktur und bibliothekarischen Workflows. Die moderne Bibliothek muss hier ansetzen und das Dienstkonzept Dokumentenserver mit dem der Digitalen Sammlungen und Mediatheken vereinen, moderne Schnittstellen schaffen und den Zielkonflikt zwischen umfassender Sammlung und Langzeitarchivierung weitestgehend auflösen.
Das an der SLUB gestartete Projekt "Medienübergreifendes Repository“ hat zum Ziel, die sächsische Publikationsplattform Qucosa in diesem Sinne technologisch neu auszurichten. Im Zuge der Entwicklung soll eine Gesamtlösung für alle digitalen Objekte gefunden werden, die es ermöglicht, die vorhandenen Workflows miteinander zu vernetzen und unterschiedliche Präsentationsformate zu unterstützen. Der Vortrag gibt einen Überblick über die Anforderungen an eine solche Technologie sowie über die sich ergebenden Möglichkeiten und berichtet vom Stand der Systementwicklung sowie den Möglichkeiten der Nachnutzung der quelloffenen Gesamtlösung.
Vortrag "Das DFG-Pilotprojekt Virtuelles deutsches Urkundennetzwerk Von exemplarischer Urkundendigitalisierung in Archiven zu einem umfassenden Digitalisierungskonzept?", Tag der Landesgeschichte, Bremen, 24.9. 2011
Schlanke Discovery-Lösung auf Basis von TYPO3. Der neue Bibliothekskatalog de...Felix Lohmeier
Im Juli 2015 wurde der neue Bibliothekskatalog der SLUB Dresden freigeschaltet. Nach nur drei Monaten Entwicklungszeit konnte auf Basis von einer an der SUB Göttingen entwickelten und von der SLUB Dresden angepassten TYPO3-Erweiterung „Find“ eine moderne, vollständig quelloffene Rechercheoberfläche unter http://katalogbeta.slub-dresden.de veröffentlicht werden. Das Hauptargument für die Eigenentwicklung war die Unzufriedenheit mit der Rückschrittlichkeit kommerzieller Discovery-Lösungen sowie die fehlende Modularität von bestehenden Open-Source-Alternativen wie VuFind. Mit der jetzt geschaffenen Lösung erhält die SLUB Dresden die Möglichkeit schnell auf Wünsche der NutzerInnen zu reagieren. Die ersten Rückmeldungen bestätigen diesen Ansatz. Bis September 2015 sind mehr als 100 konstruktive Entwicklungswünsche eingegangen, von denen bereits mehr als die Hälfte umgesetzt werden konnte. Die Entwicklung steht zur Nachnutzung an anderen Bibliotheken zur Verfügung und ist auch für andere Rechercheoberflächen (wie z.B. digitale Sammlungen) universell einsetzbar. Voraussetzung für die Nutzung der Rechercheoberfläche ist ein Werkzeug für die Datenintegration. Das an der SLUB eingesetzte Discovery-System besteht aus drei quelloffenen Komponenten:
Die an der UB Leipzig im Rahmen eines EFRE-Projektes geschaffene Datenmanagement-Infrastruktur finc
Die an der SLUB Dresden im Rahmen von EFRE-Projekten entwickelten Datenmanagement-Werkzeuge D:SWARM und Tiefenerschließung
Die oben beschriebene Lösung auf Basis von TYPO3 Find
Zusammen entsprechen diese drei Komponenten dem Funktionsumfang von gängigen Discovery-Systemen, wie beispielsweise PRIMO von Ex Libris oder Summon von ProQuest. Die Systemarchitektur ist modular aufgebaut, so dass die Komponenten auch unabhängig voneinander eingesetzt werden können. Im Vortrag wird die dritte Komponente, sowie die zugrunde liegende Discovery-Strategie ausführlicher vorgestellt.
Dix technologies du web 2.0 qui permettent de bâtir l'ADN numérique de votre ...Philippe Martin
A l'ère de l'économie de la conversation, l’entreprise est confrontée au choix des outils et technologies qui supporteront sa stratégie de communication et de conversation (que ce soit à l'interne ou à l' externe). Depuis l'avènement du web 2.0 en 2005, la panoplie des applications est multiple et diffuse. Des blogs au microblogging en passant par les sites de partage photos- audios- vidéos, les outils de veille et d'alerte, les réseaux sociaux, quels sont les incontournables et pourquoi.
Philippe Martin
La Fabrique de Blogs
http://lafabriquedeblogs.com
http://nayezpaspeur.ca
http://twitter.com/philippemartin
Memento 2008
Les bilans annuels de l'économie touristique vous proposent une sélection de chiffres clés permettant de dresser un portrait aussi fidèle que précis de l'évolution de la fréquentation touristique auprès de l'ensemble des hébergements marchands, des sites et musées ainsi que le poids économique du secteur.Pour les années antérieures, veuillez contacter l’Observatoire.
Dix technologies du web 2.0 qui permettent de bâtir l'ADN numérique de votre ...Philippe Martin
A l'ère de l'économie de la conversation, l’entreprise est confrontée au choix des outils et technologies qui supporteront sa stratégie de communication et de conversation (que ce soit à l'interne ou à l' externe). Depuis l'avènement du web 2.0 en 2005, la panoplie des applications est multiple et diffuse. Des blogs au microblogging en passant par les sites de partage photos- audios- vidéos, les outils de veille et d'alerte, les réseaux sociaux, quels sont les incontournables et pourquoi.
Philippe Martin
La Fabrique de Blogs
http://lafabriquedeblogs.com
http://nayezpaspeur.ca
http://twitter.com/philippemartin
Memento 2008
Les bilans annuels de l'économie touristique vous proposent une sélection de chiffres clés permettant de dresser un portrait aussi fidèle que précis de l'évolution de la fréquentation touristique auprès de l'ensemble des hébergements marchands, des sites et musées ainsi que le poids économique du secteur.Pour les années antérieures, veuillez contacter l’Observatoire.
"Literaturverwaltungssysteme im Überblick" 2010er VersionPeter Mayr
Folien zum Brainpool Kurs 19/2010
--------------
Die TeilnehmerInnen lernen verschiedene Klassen („stand-alone“-Anwendungen“, Browser-Plugins, webbasierte Anwendungen) von Literaturverwaltungssystemen kennen und nutzen.
Ein Schwerpunkt liegt auf der Übernahme bibliografischer Daten aus Bibliothekskatalogen und anderen Quellen (Mikroformate).
Derart erstellte Literaturlisten werden mit Textverarbeitungen wie Word verknüpft, um in eigenen Texten automatische Bibliografien in unterschiedlichen Zitierstilen zu erstellen.
---------
http://www.onb.ac.at/brainpool/sem/kurs19.htm
Literaturverwaltungssysteme im ÜberblickPeter Mayr
Folien zum Brainpool Kurs 19/2010
----
Tag 1: Literaturverwaltungssoftware
Die TeilnehmerInnen lernen verschiedene Klassen („stand-alone“-Anwendungen“, Browser-Plugins, webbasierte Anwendungen) von Literaturverwaltungssystemen kennen und nutzen.
Ein Schwerpunkt liegt auf der Übernahme bibliografischer Daten aus Bibliothekskatalogen und anderen Quellen (Mikroformate).
Derart erstellte Literaturlisten werden mit Textverarbeitungen wie Word verknüpft, um in eigenen Texten automatische Bibliografien in unterschiedlichen Zitierstilen zu erstellen.
---
http://www.onb.ac.at/brainpool/sem/kurs19.htm
Repositorien bieten ihre Inhalte hauptsächlich über Weboberflächen an, die auf die menschliche Wahrnehmung ausgerichtet sind. Die gespeicherten Daten stellen sie allenfalls über eine OAI-PMH-Schnittstelle bereit, die zwar im Umfeld von Repositorien ein „de-facto-Standard“, darüber hinaus jedoch kaum bekannt ist. Inzwischen bietet Linked Data die erforderlichen Grundlagen für einen generischen Export von quasi beliebigen Daten an. Für Daten, die als Linked Data publiziert werden sollen, werden Metadaten oft erst aufwändig manuell erfasst oder automatisch generiert. Die in Repositorien gespeicherten Daten verfügen bereits über Metadaten, werden bislang jedoch nicht als Linked Data angeboten. Repositorien sind Systeme zur sicheren Speicherung - und in der Regel Weitergabe - von Daten und sie beschreibenden Metadaten. Im Laufe der Zeit haben sich Charakteristika von Repositorien herausgeprägt, die sie von anderer Software zur Speicherung von Daten abgrenzen. Diese Charakteristika müssen bei der Anbindung von Repositorien an das Semantic Web berücksichtigt werden. Der Vortrag gliedert sich in zwei Teile: Zunächst wird ein softwareunabhängiges Konzept zur Wandlung der in Repositorien gespeicherten Inhalte in Linked Data vorgestellt. Dabei wird zum Beispiel der Umgang mit Persistent Identifiern im Kontext von Linked Data diskutiert oder Ansätze um vorhandene Metadaten in URIs umzuwandeln, die zur Verlinkung genutzt werden können. Im zweiten Teil wird eine konkrete Umsetzung des Konzepts an DSpace vorgestellt, der Software, die zur Realisierung von Repositorien weltweit am häufigsten genutzt wird.
Vortrag vom Bibliothekartag 2015 in Nürnberg.
Die aus Internetsuchmaschinen bekannte Technologie der indexgestützten Recherche findet im bibliothekarischen Bereich und auch darüber hinaus immer mehr Anhänger. Discovery Systeme profitieren von dieser Technik und bringen zusätzlich zur hohen Performanz und Skalierbarkeit viele der in Bibliotheken nachgefragten Funktionalitäten im Paket mit.
Eine Bibliothek erhält mit einem Discovery System eine nutzerfreundliche Möglichkeit zur Präsentation ihrer sämtlichen elektronischen Bestände und angeschlossenen Dienstleistungen. So sind Verfügbarkeitsrecherchen in OPACs, Fernleihen, das Anreichern von Suchergebnissen mit Covern, Inhaltsverzeichnissen oder Buchhandelsinformationen, der Export von Metadaten in Literaturverwaltungssoftware etc., über offene Standardschnittstellen einfach als zentrale Services einzubinden. Eine Google-ähnliche Suche mit Facettierung der Rechercheergebnisse gibt es selbstverständlich inklusiv.
Die Herausforderung besteht darin, die Flexibilität des Systems zu nutzen um eine noch konsequentere Ausrichtung auf den Nutzer umzusetzen. Dies wirkt sich naturgemäß auf die grundlegende Konzeption und damit auf den Aufbau und die Konfiguration eines Discovery Systems aus. Basierend auf Erkenntnissen durch Studien aus Umfragen und Statistiken lassen sich die Bedürfnisse der eigenen Nutzer identifizieren und Handlungsanweisungen zum Aufbau eines solchen zielgruppenspezifischen Services ableiten.
Der Weg eines ‚out-of-the-box' Discovery Systems (VuFind) hin zu einer Anwendung als disziplinär ausgerichtete, nutzerorientierte Informationsplattform wird hier am Beispiel SOWIPORT dargestellt.
Planungs- und Bewertungskriterien fuer BibliotheksbautenTina Hohmann
Die vorliegende Arbeit setzt sich mit Planungs- und Bewertungskriterien für Bibliotheksbauten auseinander. Es wird untersucht, welche Auswirkungen die Veränderungen im Medienangebot auf das Nutzerverhalten und auf die Rolle der Bibliothek haben und welche Funktionen die Bibliothek als Ort bieten kann.
Beispiele aktueller Bibliotheksbauten werden näher vorgestellt: Die Sächsische Landesbibliothek – Staats- und Universitätsbibliothek Dresden, die Niedersächsische Staats- und Universitätsbibliothek Göttingen und die Seattle Public Library.
Der anerkannte Kriterienkatalog zur Planung von Bibliotheksbauten von Harry Faulkner-Brown wird vorgestellt, aus heutiger Sicht bewertet und neu interpretiert. Dies wird anhand der vorangegangenen Beispiele exemplarisch verdeutlicht.
Anschließend werden neue Schwerpunkte von aktueller Relevanz entwickelt, die den Kriterienkatalog für den heutigen Bibliotheksbau ergänzen.
Literaturverwaltungssysteme im ÜberblickPeter Mayr
Einführung in Literaturverwaltunggsysteme, Vorstellen verschiedener Kriterienkatalog zur Evaluation derartiger Systeme sowie Relevanz und Einsatzszenarien für Bibliotheken
Die Bibliothek 2.0 und Sacherschließung in sozialen NetzwerkenPatrick Danowski
Präsentation von Lambert Heller und Patrick Danowski auf der Tagung der Arbeitsgemeinschaft Fachreferat Naturwissenschaften unter dem Motto "Fachreferat 2007 Zwischen Alltag und Web 2.0 am 25.10.2007 in Berlin
Ein Vortrag über Kataloganreicherung und Digitalisierung im hbz und über die Möglichkeiten Kataloge mit Tags, Rezensionen und Annotationen zu Büchern und anderen Medien anzureichern.
Der Bibliothekskatalog 3.0 oder: Bibliografische Daten als Linked Open DataAnne Christensen
Einführung in das Thema Linked Open Data für Metadaten aus Bibliotheken (Normdaten, bibliografische Informationen, Verfügbarkeitsinformationen) mit einer Anwendung der Designprinzipien für Linked Data von Tim Berners-Lee auf Daten aus Bibliotheken.
Beispiele und typische Dienstleistungen von Digitalen Bibliotheken
Ähnlich wie Schmidgall, Karin et al.: Bibliotheken in der Verantwortung: 'Literatur im Netz' authentisch archivieren und langfristig verfügbar machen (20)
Vortrag Bibliothekartag Hamburg 2012, 24.Mai, 10:00-11:00 Uhr.
In 10 Minuten zu Ihrem eigenen Discovery Service mit “Ihren Bestandsdaten” - Bringen Sie uns Ihre ISIL und GBV-ILN mit, wir schenken Ihnen ihren Katalog im GBV Discovery-Gewand
Schmidgall, Karin et al.: Bibliotheken in der Verantwortung: 'Literatur im Netz' authentisch archivieren und langfristig verfügbar machen
1. Bibliotheken in der Verantwortung: 'Literatur im Netz'
authentisch archivieren und langfristig verfügbar machen
Karin Schmidgall, Jochen Walter, Deutsches Literaturarchiv Marbach
Vortrag gehalten auf dem Bibliothekartag Berlin am 08.06.2011 (Block „Blick auf die
Informationslandschaft“ 09:00-11:00, Raum Paris)
1 Allgemeines
Das Deutsche Literaturarchiv gilt als Zentrum für Literatur und Geistesgeschichte; der
Schwerpunkt liegt auf der deutschsprachigen Literatur seit 1750
Es stellt Quellen für Wissenschaft und Forschung bereit, der Zugang ist für die
wissenschaftliche Nutzung frei und kostenlos
Im Zentrum des Sammelns stehen der Autor und sein Werk
Ziel ist eine möglichst umfassende Quellendokumentation, dazu gehört auch die
konsequente Ausweitung des Sammelprofils auf die im Internet publizierte Literatur
eines Autors
2 Ausgangsthesen
Was heißt es, Quellen für die Wissenschaft authentisch zu archivieren und langfristig
verfügbar zu machen? Thesenhaft beleuchten. Mit Auswahl, Erwerbung, Erschließung,
Aufbewahrung und Ausstellung von Quellen kennen sich Bibliotheken aus, verfügen über
Jahrhunderte lange Erfahrung. Wie sieht es aber mit dem Sammlungsgut „flüchtige Internet-
Quellen“ aus?
2.1 These 1: Man kann nicht jede Quelle sammeln
Für die Auswahl werden literaturgeschichtliche Kenntnisse und eindeutige Sammelkriterien
benötigt. Bei der Auswahl konventioneller Literatur helfen der Nachweis in der Deutschen
Nationalbibliographie oder die Veröffentlichung in einem literarisch einschlägigen Verlag
oder einer Zeitschrift. Diese redaktionellen Filter fehlen jedoch bei der Auswahl von Internet-
Quellen. Wird mit der Aufnahme in das Archiv ein wissenschaftlicher Kanon gebildet?
2.2 These 2: Eine Quelle muss authentisch sein
Eine Handschrift oder Erstausgabe mit handschriftlicher Widmung des Autors wird per se als
echt, „als Original“ befunden - wie sichert man aber die Authentizität eines Weblogs? Wie
weit entspricht eine Spiegelung dem Original? Wie sehr beeinflussen Zeitpunkt und
technische Parametereinstellungen das Ergebnis? Was passiert bei Migrationsprozessen?
2.3 These 3: eine Quelle muss zitierbar sein
Zitate in wissenschaftlichen Arbeiten müssen nachvollziehbar und nachprüfbar sein. Es gibt
zwar Zitierregeln für Internetquellen, aber was ist wenn die zitierte Quelle selbst nicht mehr
existiert? Wie sichert man langfristig die Zitierbarkeit?
2.4 These 4: eine Quelle muss angemessen aufbewahrt werden
Mit dem Sammeln übernimmt eine Institution die Verantwortung für die Aufbewahrung ihres
Sammelguts. Die optimalen Bedingungen für die Aufbewahrung von Handschriften und
Büchern sind seit vielen Jahren erforscht, es gibt dafür eine ganze Reihe von DIN/ISO -
2. Standards und viel Erfahrung. Wie aber sieht die optimale Langzeitarchvierung für Web-
Ressourcen aus, bei der für einige Quellen die gesamte Erstellungsumgebung (Daten,
Software und Lesegeräte) mitarchiviert werden müsste?
Auswahlkriterien und Erschließung sind übertragbar auf das „Digitale
Sammlungsprofil“, neu kommt hinzu, dass die Rechte zur Archivierung und
Verbreitung beim Autor eingeholt werden müssen.
Zugangswege und Aufbewahrung aber stellen eine Bibliothek vor Herausforderungen,
die sie nicht allein bewältigt werden kann und für die sie Partner suchen muss.
3 Abriss Projektverlauf LiN / Eckpunkte
1997: Meldung FAZ zum 2. Internet-Literaturpreis -> Damals war schon klar: Wir
müssen uns um die Archvierung kümmern“, ebenfalls klar war: Wir kommen nur
weiter, wenn wir direkt auf die Autoren zugehen - und diese hatten Interesse an der
Archivierung! Wir hatten aber nicht die technische Ausstattung und das Know How.
1999: wird das Netzwerk der Bestände im Erschließungssystem Kallías sichtbar
gemacht
2004: Aufbau der ViFa Germanistik. DLA übernimmt als Kooperationspartner im
Fachinformationsführer die Redaktion für die Literaturformen „literarische
Zeitschriften, Weblogs und Netzliteratur und erschließt Internetquellen mit
bibliothekarischen Metadaten und kurzer Inhaltsbeschreibung
2004: Beschäftigung mit dem Thema Web-Archivierung, Durchführung einer
Marktsichtung. Unser Anspruch: die Quellen müssen analog zum konventionellen
Sammlungsgut gesichert werden, auch wenn das Konzept der Virtuellen
Fachbibliotheken dies nicht vorsah. Erst seit diesem Jahr nimmt die Bayerische
Staatsbibliothek sich dieser Aufgabe für die dort geführten Virtuellen
Fachbibliotheken an und steigt gemeinsam mit Academic Linkshare in die
Langzeitarchvierung von Webseiten ein! Cooles Gefühl: bei einer aktuellen Thematik
einmal schneller reagiert zu haben als die BSB.
2008: Ausrichtung eines Nestor-Workshops „Langzeitarchivierung von
Netzliteratur“ gemeinsam mit der DNB Frankfurt. Archivare, Bibliothekare, Autoren,
Rechtswissenschaftler, Webarchivbetreiber und ein Vertreter des Börsenvereins
diskutieren. Es bleiben viel offene Fragen: technische, urheberrechtliche,
organisatorische. Eine Nestor-Überlegung war, den Autoren zu vermitteln, dass sie zur
Archivierbarkeit ihrer Publikationen beitragen können, wenn sie bereits bei der
Produktion die Anforderungen einer langfristigen Speicherung bedenken -> („Best-
Practices“). Doch wäre man jemals auf die Idee gekommen, Schriftstellern die Tinte
und das Papier für die ersten Überlegungen zu einem neuen Roman, den Umschlag der
Erstausgabe vorzuschreiben?
2009: Start der Plattform „Literatur im Netz“. Das BSZ Konstanz ist mit dem Betrieb
und dem Hosting beauftragt, zum Einsatz kommt das Workflowtool SWBcontent, das
zur Spiegelung und Archivierung der Quellen eingesetzt wird, für das Webharvesting
wird als Baustein HTTrack verwendet, die URN-Vergabe (persistenter Identifier)
erfolgt über ein vom BSZ zusammen mit der DNB entwickeltes Verfahren. Das BSZ
übernimmt als vertrauenswürdiges Archiv auch die Verantwortung für die
Langzeitarchivierung.
3. 2011: 170 literarische Weblogs und Zeitschriften, die in regelmäßigen Abständen
(4mal im Jahr) gespiegelt werden, 55 GB Speicherplatz, erwartete Zunahme 30% pro
Quartal. Nachweis der Quellen in SWB, ZDB, ViFa Germanistik und lokaler
Datenbank Kallías. Personal: DLA: 50%-Stelle für den gesamten Workflow
(Rechteeinholung, Katalogisierierung, Webharvesting)
„Authentisch, spannend und gesucht: Unsere neuen Weine im Mai“ las ich neulich -
übertragen auf unser Thema: Authentisch, spannend und gesucht: die Netzliteratur im Archiv
Übergabe an Jochn: [Präsentation Fokus: wie im Projekt Literatur im Netz Quellen für die
Wissenschaft authentisch archiviert und langfristig verfügbar gemacht werden.]
4 Archivierungspraxis konkret
4.1 Spiegelungsbedingungen und Folgen
Parameter-Folien
Einige Spiegelstriche zu den Bedingungen, unter denen gespiegelt wird: Die Zahl der
Downloadparameter des Crawlers Httrack (in SWBcontent integriert) geht in die Dutzende.
Die Netzquellen selbst zeichnen sich durch eine starke Veränderbarkeit aus. Wir archivieren
nicht das Netz, nicht einmal größere Teile dessen, sondern Ausschnitte. Das hat mit Kosten,
mit der Besinnung auf den fachlichen Kernbereich und mit dem zu tun, was uns das
Urheberrechtsgesetz gestattet bzw. nicht gestattet. Daraus und aus der oben erwähnten
Vielzahl an Einstellungsmöglichkeiten folgt, dass es keine standardisierten, also
quellenunabhängigen oder institutionsübergreifend anwendbaren Spiegelungsparameter geben
kann. Weiter ist keine Kollationierung möglich. Netzquellen sind im Unterschied zu bsp.
Büchern in ihrem Umfang nicht definiert. Unterschiedliche Interpretationen des Umfangs der
Vorlage sind daher nicht möglich oder wahrscheinlich sondern sicher. Der Umfang der
Vorlage wird erst durch die Archivierung definiert. Daher empfehlen wir auch allen
kontaktierten Rechteinhabern, von der Vorstellung einer hundertprozentigen 1:1-Kopie
Abstand zu nehmen.
4.2 Probleme
Über diese ganz allgemeinen Folgen hinaus gibt es Probleme, auch technischer, auch
rechtlicher Art, aber diese sollen hier und jetzt keine Rolle spielen. Stattdessen seien noch
einmal die beiden bereits angesprochenen Hauptanforderungen an die archivierten Quellen
genannt
als Folie
Authentizität
o Unveränderlichkeit der archivierten Ressource
o Entsprechung von Kopie und Original
Zitierfähigkeit
o Unveränderlichkeit der archivierten Ressource
o Dauerhaftigkeit der archivierten Ressource
Hauptproblem 1 vor dem Hintergrund dieser Anforderungen:
Die Archivierung der Quelle bereits verändert diese und erschafft ein Unikat. Das liegt in den
4. Spiegelungseinstellungen und in der Veränderbarkeit der Quellen begründet, die den
Zeitpunkt der Spiegelung zu einem bestimmenden Datum machen. Eine Lösung dieses
Problems, in dem Sinne, dass Gegebenheiten wie bei klassischen Printmedien geschaffen
würden, gibt es nicht und ist auch nicht vorstellbar. Was man tun kann, ist, die archivierten
Quellen objektiv nachvollziehbar machen, indem man die üblichen Metadaten um die
Archivierungsbedingungen, die Downloadparameter ergänzt. Die Zitierfähigkeit verschiebt
sich so von der Titel- auf die Einzelspiegelungsebene. Damit verschiebt sich auch der Fokus
etwas von der Authentizität des Dokuments auf die Vertrauenswürdigkeit des Archivs.
Hauptproblem 2 vor dem Hintergrund dieser Anforderungen:
Die langfristige Verfügbarkeit. Hier sieht die Arbeitsteilung so aus, dass das DLA für die
Überführung der Quellen ins Archiv (und alle damit zusammenhängenden Arbeiten)
zuständig ist. Bei allen Belangen der Langzeitarchivierung, sowohl konzeptionell wie auch
ganz konkret technisch, sind die Grenzen unserer Tätigkeit erreicht. Hier sind der SWB, die
Verbünde allgemein, aber auch Nestor und die DNB gefragt. Was aber schon jetzt dauerhaft
den Archivalien zugewiesen ist und deren Zitierfähigkeit befördert, sind URNs. Diese werden
den Quellen in Zusammenarbeit mit dem BSZ und der DNB zugeordnet.
Fazit für unsere Archivierungspraxis (Was geht denn dann noch?) Wir schreiben 1
Rechteinhaber an und spiegeln nach Erteilung der Rechte mit folgenden Parametern
als Folie
Ausgangsadresse
o http://quantenleser.de/mam/
Zeitbegrenzung
o 2 Tage
Volumenbegrenzung
o 2 GB
ggf. Filter
o weitere ein- bzw. auszuschließende Adressen bzw. Adressbereiche
Verhalten gegenüber robots.txt
o abhängig von den jeweiligen Gegebenheiten
interne Spiegelungstiefe
o 997
externe Spiegelungstiefe
o null
4.3 Netzressourcen vergleichen mit "monographischer" Netzliteratur
LiN umfasst die drei Bereiche elektronische Zeitschriften, Weblogs und Netzliteratur. Bei den
Zeitschriften (in der Regel Websites) und den Weblogs ist von einer periodischen, in den
meisten Fällen integrierenden Erscheinungsweise zu sprechen. Daraus ergibt sich auch eine
wiederholte, regelmäßige Archivierung jeweils der kompletten Quelle. Diese bestehen häufig
5. aus vorfabrizierten verteilten, vernetzten Bestandteilen, Stichwort: Web 2.0. Die im
Zusammenhang mit diesen Medien auftretenden Probleme können meist bewältigt werden.
Folien zu Maulle au Mer
Das vom DLA betriebene punktuelle Harvesting erlaubt eine derart genaue Qualitätskontrolle,
die beispielsweise bei großflächigen Vorgehensweisen gar nicht möglich ist. Da sich das
Harvesting nicht bzw. noch nicht vollständig automatisieren lässt, kann es in solchen
Bereichen auch zu Archivkopien kommen, die unseren Anssprüchen an Authentizität nicht
genügen würden.
Folien Vergleich DLA - IA
Die Netzliteratur-Projekte, die zu einem großen Teil aus den Neunziger Jahren stammen, sind
jedoch in der Regel in sich abgeschlossen. Eine einmalige Archivkopie ist für diese quasi
monographischen Fälle ausreichend. Es handelt sich weitgehend um eigenständig produzierte
Kunstwerke, deren Archivierung ihre eigenen Probleme hat. Diese können damit
zusammenhängen, dass, um Johannes Auer zu zitieren "Stück und Aufführungsbasis
untrennbar miteinander verbunden sind" (Auer, Archivierung von performativer Netzliteratur).
Die Archivierung von Systemumgebungen, also Betriebsystemen, Software bzw. bestimmten
Versionen von Programmen, kann so zum notwendigen Bestandteil einer authentischen
Archivkopie werden. Hinzu kommt die rasante technische Entwicklung im Netzbereich. Zum
Schluss noch einen recht typischen Netzliteratur-Titel:
Link-Folie zu Kill the poem
5 Ausblick
Die Titel aus dem Bereich der Netzliteratur bzw. der frühen Netzliteratur sind zum Teil noch
online verfügbar. Zum Teil befinden sie sich in Form von Speichermedien wie CD-ROMs in
Marbach, und zum Teil sind sie einfach bereits verschwunden. Daraus und aus den oben
erwähnten technischen Schwierigkeiten leiten wir für die Archivierung dieses Segments
folgenden Arbeitsplan für die Zukunft, eine teils webarchäologische Vorgehensweise, ab:
Webharvesting (wenn das scheitert, was wir im stärkerem Maße vermuten als
bislang:)
Direktlieferung (wenn das scheitert:)
Unterstützung durch Programmierer (wenn das scheitert:)
Archivierung nicht durchführbar, es bleibt bei der Dokumentation der Arbeit im
Projekt-Wiki zu Zwecken späterer Arbeit und Forschung (Vorbild: Web harvesting
survey der LoC)
6. Literatur im Netz
Bibliotheken in der Verantwortung: „Literatur im Netz“
authentisch archivieren und langfristig verfügbar machen,
100. Bibliothekartag, Berlin, 8. Juni 2011
Karin Schmidgall
Jochen Walter
7. Bibliothek Archiv
800.000 Bücher, Zeitschriften 1.200 Nachlässe und Sammlungen
144 Autoren, Gelehrten- Sammlerbibliotheken Verlagsarchive
353.000 andere Materialien 100.000 Bildnisse
51.000 literarische Autoren
Friedrich Schiller, Eduard Mörike, Rainer Maria Rilke, Gottfried Benn, Franz Kafka, Alfred
Döblin, Kurt Tuchholsky, Ricarda Huch, Carl Zuckmayer, Paul Celan, Sudabeh Mohafez, Ernst
Jünger, W.G. Sebald, Hannah Arendt, Martin Heidegger, Alban Nikolai Herbst, Erich Kästner,
Joachim Ringelnatz, Gertrud Kolmar, Elisabeth Langgässer, Justinus Kerner, Else Lasker-
Schüler, Thomas Mann, Georg Trakl, Uwe Timm, Hans Magnus Enzensberger, Thomas
Bernhard, Hilde Domin, Christa Wolf, Julian Heun, Martin Klein, Sascha Lobo, Anna Seghers,
Isolde Kurz, Reinhold Schneider, Oskar Loerke, Nikolaus Lenau, Günter Kunert, Wilhelm
Raabe, Martin Walser, Stefan Zweig, Stefan George, Karl Wolfskehl, Gabriele Wohmann, Ken
Yamamoto − haben Sie die Blogger entdeckt?
13. - Authentizität
– Entsprechung von Original und Kopie
- Zitierfähigkeit
– Unveränderlichkeit der archivierten Ressource
– Dauerhaftigkeit der archivierten Ressource
14. Ausgangsadresse
– http://quantenleser.de/mam/
Zeitbegrenzung
– 2 Tage
Volumenbegrenzung
– 2 GB
ggf. Filter
– weitere ein- bzw. auszuschließende Adressen bzw. Adressbereiche
Verhalten gegenüber robots.txt
– abhängig von den jeweiligen Gegebenheiten
interne Spiegelungstiefe
– 997
externe Spiegelungstiefe
– null