Diese Vorlesung behandelt das Thema RDFS und damit die Möglichkeit zur Definition von terminologischem Wissen mit RDF. Durch RDFS werden erste einfache Schlussfolgerungen möglich.
Vorlesung Semantic Web Technologien, HTWG Konstanz WS 2009/2010.
Veranstaltung #3
Mit dem Resource Description Framework (RDF) steigen wir nun richtig in die Sprachen des Semantic Web ein.
Es wird der Graph als Datenmodell des RDF und dessen Zerlegung in Triple aus Subjekt, Prädikat und Objekt behandelt.
Mit RDF/XML, Turtle und RDFa werden die wichtigsten Serialisierungsformate für RDF-Graphen besprochen. Anschließend beschäftigen wir uns mit den Details von RDF wie der Behandlung von Literalen (inkl. Datatypes und Sprachangaben), Blind Nodes, Listen und Collections.
This document provides an overview and disclaimer about Notes and Domino documentation. It discusses that the documentation is provided for reference purposes only without warranty. It also covers copyright information, listing of trademarks, and a table of contents for the documentation.
Diese Vorlesung behandelt das Thema RDFS und damit die Möglichkeit zur Definition von terminologischem Wissen mit RDF. Durch RDFS werden erste einfache Schlussfolgerungen möglich.
Vorlesung Semantic Web Technologien, HTWG Konstanz WS 2009/2010.
Veranstaltung #3
Mit dem Resource Description Framework (RDF) steigen wir nun richtig in die Sprachen des Semantic Web ein.
Es wird der Graph als Datenmodell des RDF und dessen Zerlegung in Triple aus Subjekt, Prädikat und Objekt behandelt.
Mit RDF/XML, Turtle und RDFa werden die wichtigsten Serialisierungsformate für RDF-Graphen besprochen. Anschließend beschäftigen wir uns mit den Details von RDF wie der Behandlung von Literalen (inkl. Datatypes und Sprachangaben), Blind Nodes, Listen und Collections.
This document provides an overview and disclaimer about Notes and Domino documentation. It discusses that the documentation is provided for reference purposes only without warranty. It also covers copyright information, listing of trademarks, and a table of contents for the documentation.
Repositorien bieten ihre Inhalte hauptsächlich über Weboberflächen an, die auf die menschliche Wahrnehmung ausgerichtet sind. Die gespeicherten Daten stellen sie allenfalls über eine OAI-PMH-Schnittstelle bereit, die zwar im Umfeld von Repositorien ein „de-facto-Standard“, darüber hinaus jedoch kaum bekannt ist. Inzwischen bietet Linked Data die erforderlichen Grundlagen für einen generischen Export von quasi beliebigen Daten an. Für Daten, die als Linked Data publiziert werden sollen, werden Metadaten oft erst aufwändig manuell erfasst oder automatisch generiert. Die in Repositorien gespeicherten Daten verfügen bereits über Metadaten, werden bislang jedoch nicht als Linked Data angeboten. Repositorien sind Systeme zur sicheren Speicherung - und in der Regel Weitergabe - von Daten und sie beschreibenden Metadaten. Im Laufe der Zeit haben sich Charakteristika von Repositorien herausgeprägt, die sie von anderer Software zur Speicherung von Daten abgrenzen. Diese Charakteristika müssen bei der Anbindung von Repositorien an das Semantic Web berücksichtigt werden. Der Vortrag gliedert sich in zwei Teile: Zunächst wird ein softwareunabhängiges Konzept zur Wandlung der in Repositorien gespeicherten Inhalte in Linked Data vorgestellt. Dabei wird zum Beispiel der Umgang mit Persistent Identifiern im Kontext von Linked Data diskutiert oder Ansätze um vorhandene Metadaten in URIs umzuwandeln, die zur Verlinkung genutzt werden können. Im zweiten Teil wird eine konkrete Umsetzung des Konzepts an DSpace vorgestellt, der Software, die zur Realisierung von Repositorien weltweit am häufigsten genutzt wird.
Vortrag vom Bibliothekartag 2015 in Nürnberg.
Durch den neuen Erschließungsstandard „Resource Description and Access“ (RDA) lassen sich bibliografische Daten sowie Normdaten Semantic-Web-konform repräsentieren. Der Vortrag soll aufzeigen, welche Auswirkungen RDA auf die Katalogisierung in Bibliotheken und den Zugang zu den erschlossenen Ressourcen im Semantic Web hat. Anhand erster Erfahrungen aus praktischen Umsetzungen wird erläutert, wie bibliografische Daten durch RDA und Linked-Data-Technologien besser zugänglich gemacht und vor allem nachgenutzt werden können.
Linked Open Data in der Praxis, Kerstin ArnoldKerstin Arnold
Presentation on Linked Open Data with a focus on the Records in Contexts Ontology (RiC-O) held at the 25th Archivwissenschaftliches Kolloquium, Archivschule Marburg (Germany).
Presentation in German
LinkedGeoData is an effort to add a spatial dimension to the Web of Data / Semantic Web. LinkedGeoData uses the information collected by the OpenStreetMap project and makes it available as an RDF knowledge base according to the Linked Data principles http://linkedgeodata.org
amsl - Ergebnispräsentation der EFRE-FörderphaseBjörn Muschall
Am 26.09.2014 fand in der SLUB Dresden ein 2. amsl Workshop statt. Neben der Ergebnispräsentation der EFRE-Förderphase hatten die Teilnehmer Gelegenheit, die Anwendung zu nutzen.
Projekt AMSL: Entwicklung eines Electronic Resource Management Systems für Bi...Björn Muschall
Die Publikation von wissenschaftlichen Ergebnissen in elektronischer Form ist heute gängige Praxis. Die Entwicklungen der letzten Jahre führten dabei zu einer Vielfalt an elektronischen Ressourcen und zusammen mit neuen Geschäfts- und Lizenzierungsmodellen zu immer komplexeren Geschäftsprozessen. Das Angebot an kommerzieller Bibliothekssoftware zur Abbildung dieser Prozesse (Electronic Resource Management, ERM) ist jedoch überschaubar. Auch eine tragfähige Open-Source-Lösung existiert nicht, obwohl für die Verwaltung von E-Medien ein offenes, flexibles System erforderlich ist, um auf die stetigen Veränderungen schnell reagieren zu können.
Basis einer solchen ERM-Anwendung ist ein entsprechender Datenbestand, wobei die Nutzung hochwertiger Wissensdatenbanken (Knowledge bases), vorhandener Lokalsysteme und anderer Quellen eine Homogenisierung der Daten notwendig macht. Die Linked Data-Technologie bietet durch die Flexibilität der Datenmodelle, die Verlinkung zu externen Datenbeständen und die derzeitigen Bestrebungen zum Aufbau bibliothekarischer Vokabulare eine optimale Grundlage für die Integration dieser Daten.
Die Universitätsbibliothek Leipzig stellt sich mit Unterstützung der Forschungsgruppe Agile Knowledge Engineering and Semantic Web (AKSW) den genannten Herausforderungen. Das Projekt ERM ist Teil des EFRE-geförderten Projekts Wissenschaftskommunikation im Semantischen Web und hat zum Ziel, ein offenes ERM-System auf Basis von Linked Data-Technologien zu entwickeln. Projektpartner ist die SLUB Dresden, die eine Datenmanagement-Plattform zur automatischen Verknüpfung von Bibliotheksdaten entwickeln wird. Im Rahmen des Vortrags sollen Anforderungen an ein ERM-System unter Berücksichtigung des Reports der ERM Initiative der Digital Library Federation sowie Lösungskonzepte dargestellt werden.
The Linked Open Citation Database (LOC-DB) aims to create a fully linked and curated list of references as part of the cataloging process in libraries. It would include monographs, conference papers, and journal articles. The architecture involves OCR processing, linking to existing LOC-DB instances and linked open data. It reuses the Open Citations Data Model and collaborates to extend and maintain the model, with the goal of making existing citation databases obsolete by encouraging publishers to openly provide citation data.
Repositorien bieten ihre Inhalte hauptsächlich über Weboberflächen an, die auf die menschliche Wahrnehmung ausgerichtet sind. Die gespeicherten Daten stellen sie allenfalls über eine OAI-PMH-Schnittstelle bereit, die zwar im Umfeld von Repositorien ein „de-facto-Standard“, darüber hinaus jedoch kaum bekannt ist. Inzwischen bietet Linked Data die erforderlichen Grundlagen für einen generischen Export von quasi beliebigen Daten an. Für Daten, die als Linked Data publiziert werden sollen, werden Metadaten oft erst aufwändig manuell erfasst oder automatisch generiert. Die in Repositorien gespeicherten Daten verfügen bereits über Metadaten, werden bislang jedoch nicht als Linked Data angeboten. Repositorien sind Systeme zur sicheren Speicherung - und in der Regel Weitergabe - von Daten und sie beschreibenden Metadaten. Im Laufe der Zeit haben sich Charakteristika von Repositorien herausgeprägt, die sie von anderer Software zur Speicherung von Daten abgrenzen. Diese Charakteristika müssen bei der Anbindung von Repositorien an das Semantic Web berücksichtigt werden. Der Vortrag gliedert sich in zwei Teile: Zunächst wird ein softwareunabhängiges Konzept zur Wandlung der in Repositorien gespeicherten Inhalte in Linked Data vorgestellt. Dabei wird zum Beispiel der Umgang mit Persistent Identifiern im Kontext von Linked Data diskutiert oder Ansätze um vorhandene Metadaten in URIs umzuwandeln, die zur Verlinkung genutzt werden können. Im zweiten Teil wird eine konkrete Umsetzung des Konzepts an DSpace vorgestellt, der Software, die zur Realisierung von Repositorien weltweit am häufigsten genutzt wird.
Vortrag vom Bibliothekartag 2015 in Nürnberg.
Durch den neuen Erschließungsstandard „Resource Description and Access“ (RDA) lassen sich bibliografische Daten sowie Normdaten Semantic-Web-konform repräsentieren. Der Vortrag soll aufzeigen, welche Auswirkungen RDA auf die Katalogisierung in Bibliotheken und den Zugang zu den erschlossenen Ressourcen im Semantic Web hat. Anhand erster Erfahrungen aus praktischen Umsetzungen wird erläutert, wie bibliografische Daten durch RDA und Linked-Data-Technologien besser zugänglich gemacht und vor allem nachgenutzt werden können.
Linked Open Data in der Praxis, Kerstin ArnoldKerstin Arnold
Presentation on Linked Open Data with a focus on the Records in Contexts Ontology (RiC-O) held at the 25th Archivwissenschaftliches Kolloquium, Archivschule Marburg (Germany).
Presentation in German
LinkedGeoData is an effort to add a spatial dimension to the Web of Data / Semantic Web. LinkedGeoData uses the information collected by the OpenStreetMap project and makes it available as an RDF knowledge base according to the Linked Data principles http://linkedgeodata.org
amsl - Ergebnispräsentation der EFRE-FörderphaseBjörn Muschall
Am 26.09.2014 fand in der SLUB Dresden ein 2. amsl Workshop statt. Neben der Ergebnispräsentation der EFRE-Förderphase hatten die Teilnehmer Gelegenheit, die Anwendung zu nutzen.
Projekt AMSL: Entwicklung eines Electronic Resource Management Systems für Bi...Björn Muschall
Die Publikation von wissenschaftlichen Ergebnissen in elektronischer Form ist heute gängige Praxis. Die Entwicklungen der letzten Jahre führten dabei zu einer Vielfalt an elektronischen Ressourcen und zusammen mit neuen Geschäfts- und Lizenzierungsmodellen zu immer komplexeren Geschäftsprozessen. Das Angebot an kommerzieller Bibliothekssoftware zur Abbildung dieser Prozesse (Electronic Resource Management, ERM) ist jedoch überschaubar. Auch eine tragfähige Open-Source-Lösung existiert nicht, obwohl für die Verwaltung von E-Medien ein offenes, flexibles System erforderlich ist, um auf die stetigen Veränderungen schnell reagieren zu können.
Basis einer solchen ERM-Anwendung ist ein entsprechender Datenbestand, wobei die Nutzung hochwertiger Wissensdatenbanken (Knowledge bases), vorhandener Lokalsysteme und anderer Quellen eine Homogenisierung der Daten notwendig macht. Die Linked Data-Technologie bietet durch die Flexibilität der Datenmodelle, die Verlinkung zu externen Datenbeständen und die derzeitigen Bestrebungen zum Aufbau bibliothekarischer Vokabulare eine optimale Grundlage für die Integration dieser Daten.
Die Universitätsbibliothek Leipzig stellt sich mit Unterstützung der Forschungsgruppe Agile Knowledge Engineering and Semantic Web (AKSW) den genannten Herausforderungen. Das Projekt ERM ist Teil des EFRE-geförderten Projekts Wissenschaftskommunikation im Semantischen Web und hat zum Ziel, ein offenes ERM-System auf Basis von Linked Data-Technologien zu entwickeln. Projektpartner ist die SLUB Dresden, die eine Datenmanagement-Plattform zur automatischen Verknüpfung von Bibliotheksdaten entwickeln wird. Im Rahmen des Vortrags sollen Anforderungen an ein ERM-System unter Berücksichtigung des Reports der ERM Initiative der Digital Library Federation sowie Lösungskonzepte dargestellt werden.
The Linked Open Citation Database (LOC-DB) aims to create a fully linked and curated list of references as part of the cataloging process in libraries. It would include monographs, conference papers, and journal articles. The architecture involves OCR processing, linking to existing LOC-DB instances and linked open data. It reuses the Open Citations Data Model and collaborates to extend and maintain the model, with the goal of making existing citation databases obsolete by encouraging publishers to openly provide citation data.
JudaicaLink: Linked Data in the Jewish Studies FIDKai Eckert
This document discusses the JudaicaLink project, which aims to create a central portal for accessing digital Judaica collections and linking different data sources as linked open data. It describes ongoing work to contextualize collections, enrich metadata, re-transliterate text from Romanized to Hebrew script, and extract and link relevant information from sources like the YIVO Encyclopedia and Biographisches Handbuch der Rabbiner. The system uses a triple store, SPARQL endpoint, and static site generator to manage and deploy the linked data.
Guidance, Please! Towards a Framework for RDF-based Constraint Languages.Kai Eckert
Presentation held at the DCMI Conference 2015 in Sao Paulo.
http://dcevents.dublincore.org/IntConf/dc-2015/paper/view/386
In the context of the DCMI RDF Application Profile task group and the W3C Data Shapes Working Group solutions for the proper formulation of constraints and validation of RDF data on these constraints are being developed. Several approaches and constraint languages exist but there is no clear favorite and none of the languages is able to meet all requirements raised by data practitioners. To support the work, a comprehensive, community-driven database has been created where case studies, use cases, requirements and solutions are collected. Based on this database, we have hitherto published 81 types of constraints that are required by various stakeholders for data applications. We are using this collection of constraint types to gain a better understanding of the expressiveness of existing solutions and gaps that still need to be filled. Regarding the implementation of constraint languages, we have already proposed to use high-level languages to describe the constraints, but map them to SPARQL queries in order to execute the actual validation; we have demonstrated this approach for the Web Ontology Language in its current version 2 and Description Set Profiles. In this paper, we generalize from the experience of implementing OWL 2 and DSP by introducing an abstraction layer that is able to describe constraints of any constraint type in a way that mappings from high-level constraint languages to this intermediate representation can be created more or less straight-forwardly. We demonstrate that using another layer on top of SPARQL helps to implement validation consistently accross constraint languages, simplifies the actual implementation of new languages, and supports the transformation of semantically equivalent constraints across constraint languages.
Specialising the EDM for Digitised Manuscript (SWIB13)Kai Eckert
The DM2E project developed a data model to standardize metadata for digitized manuscripts. It specialized the Europeana Data Model (EDM) by adding over 50 new properties and 23 classes to better represent physical and conceptual aspects of manuscripts. The DM2E model was documented in PDF and OWL formats and made available online for humans and machines. Future work includes addressing uncertain statements about timespans and creators.
Metadata Provenance Tutorial at SWIB 13, Part 1Kai Eckert
The slides of part one of the Metadata Provenance Tutorial (Linked Data Provenance). Part 2 is here: http://de.slideshare.net/MagnusPfeffer/metadata-provenance-tutorial-part-2-modelling-provenance-in-rdf
LOHAI: Providing a baseline for KOS based automatic indexingKai Eckert
Automatic KOS based indexing – i.e. indexing based on a
restricted, controlled vocabulary, a thesaurus or a classification – can play
an important role to close the gap between the intellectually, high quality
indexed publications and the mass of unindexed publications. Especially
for unknown, heterogeneous publications, like web publications, simple
processes that do not rely on manually created training data are needed.
With this contribution, we propose a straight-forward linguistic indexer,
that can be used as a basis for own developments and for experiments
and analyses to explore own documents and KOSs; it uses state-of-the-
art information retrieval techniques and hence forms a suitable baseline
for evaluations. Finally, it is free and open source.
The Metadata Provenance Task Group aims to define a data model that allows for making
assertions about description sets. Creating a shared model of the data elements required to
describe an aggregation of metadata statements allows to collectively import, access, use and
publish facts about the quality, rights, timeliness, data source type, trust situation, etc. of the
described statements. In this paper we describe the preliminary model created by the task group,
together with first examples that demonstrate how the model is to be used.
Towards Interoperable Metadata ProvenanceKai Eckert
The document discusses metadata provenance and proposes a model for tracking the provenance of metadata using named graphs and semantic web technologies. Key elements of the proposed model include using named graphs to represent different metadata sources, tracking the source and confidence value of metadata using semantic triples, and executing SPARQL queries to retrieve metadata based on provenance information like source or confidence value.
Linked Open Projects (DCMI Library Community)Kai Eckert
This document discusses making data from research projects more reusable by publishing it as linked open data. It describes several existing research projects that have generated datasets and outlines how publishing their data as linked open data using standards like RDF and SPARQL could make the data more accessible and reusable. This would allow the datasets to be more easily combined and integrated. The document then presents the Linked Data Service developed by Mannheim University Library as a way to publish this project data as linked open data and provides examples of how the data could be queried and reused through this service.
This document discusses the need for and use of metametadata, or metadata about metadata, in two scenarios: crosswalks between metadata schemas and integrating metadata from different sources. It proposes using metametadata to record additional provenance information like the rule or source that generated a metadata statement to help with tasks like debugging crosswalks, updating rules, and improving search by weighting statements. Examples are given of how this could be implemented using RDF reification or named graphs.
Slides (in German) for a talk of Magnus Pfeffer and Kai Eckert. We propose the linked data/semantic web technology as an infrastructure to publish the results of research projects for easy reuse.
1. Semantic Web, SKOS und Linked Data
Kai Eckert
4. Leipziger Kongress für Information und Bibliothek, 16. März 2010
Workshop in Kooperation mit dem Kompetenzzentrum Interoperable Metadaten (KIM)
Universitätsbibliothek Mannheim
2. Was brauchen wir?
● Eine standardisierte Syntax
● Damit Metadaten überhaupt als solche erkannt werden!
● W3C: XML, RDF, RDF Schema, OWL
● Ein oder mehrere standardisierte Vokabularien
● Damit Suchmaschinen, Produzenten und Verbraucher die gleiche
Sprache sprechen
● Jede Menge Resourcen, die durch Metadaten beschrieben
sind.
Universitätsbibliothek Mannheim
3. RDF: Resource Description Framework
map www.fourseasons.com/de/tokyo/ type
Hotel
location
http://www.daml.org/2001/12
/ name
factbook/factbook- “Tokyo”
ont#A53037
Universitätsbibliothek Mannheim
4. Vokabularien
● Dublin Core
● FRBR
● FOAF
● SKOS
● SIOC
Das Vokabular für die RDF-Daten.
Beschreibung in RDF Schema und OWL
Nicht zu verwechseln mit den bibliothekarischen
Vokabularien: Wertevokabularien
Universitätsbibliothek Mannheim
5. Was sind RDF-Daten?
● Tripel, die Aussagen (Statements) darstellen:
● Subjekt, Prädikat, Objekt
● Beispiel: Deutschland hat als Hauptstadt Berlin.
● Das Subjekt und das Prädikat einer Aussage müssen innerhalb
von RDF als URI eindeutig bezeichnet werden.
● Als Objekt können URIs oder Datenwerte (Literale) verwendet
werden.
● Beispiel in RDF:
● ex:locations/germany ex:vocab/capital ex:locations/berlin
● ex:locations/germany ex:vocab/name „Deutschland“
● ex:locations/berlin ex:vocab/name „Berlin“
Universitätsbibliothek Mannheim
6. Die Schönheit von URIs
● Aussagen über Ressourcen können unabhängig von den
Ressourcen selbst getätigt werden:
http://doi.acm.org/10.1145/1298406.1298426
http://purl.org/dc/elements/1.1/creator
Verschiedene Orte!
Verschiedene Besitzer!
http://dblp.uni-trier.de/rec/pers/e/Eckert:Kai/
doi:10.1145/1298406.1298426 dc:creator dblp:pers/e/Eckert:Kai/
Universitätsbibliothek Mannheim
7. Die Eindeutigkeit von URIs
● Eine URI beschreibt eindeutig und (hoffentlich) dauerhaft eine
ganz bestimmte Ressource.
● http://dblp.uni-trier.de/rec/pers/e/Eckert:Kai/
● Aber: Eine Ressource kann durch verschiedene URIs
beschrieben werden
● http://dblp.uni-trier.de/rec/pers/e/Eckert:Kai/
● http://ki.informatik.uni-mannheim.de/people/kai_eckert.html
● http://de.linkedin.com/in/kaieckert
● …
● Keine Eineindeutigkeit!
Universitätsbibliothek Mannheim
8. Ist das ein Problem?
● Die Äquivalenz von URIs lässt sich jederzeit und von jedem als
RDF Statement ausdrücken:
●
http://de.linkedin.com/in/kaieckert owl:sameAs ↵
http://dblp.uni-trier.de/rec/pers/e/Eckert:Kai/
● Dadurch lassen sich insbesondere auch Prädikate (Vokabular)
gleichsetzen.
● So lassen sich transparent Datenbestände mit anderen
Datenbeständen verknüpfen.
● → Linked Data
Universitätsbibliothek Mannheim
10. Exkurs: Verschiedene Schemata
● http://...
● Lediglich eine registrierte Domain notwendig, um Eindeutigkeit zu
sichern.
● Möglichkeit, URIs mit beliebigen Inhalten zu dereferenzieren (RDF!)
● PURL
● Dienst von OCLC mit dem Vorteil, dass URIs dereferenzierbar bleiben,
selbst wenn man die eigene Domain wieder aufgibt.
● URN
● Eingeschränkt dereferenzierbar über Resolver-Dienste
● Aufwändige Registrierung über IANA
● info:
● Nicht referenzierbar, aber leichter zu registrieren als URN Namespaces.
Universitätsbibliothek Mannheim
11. Exkurs: Referenzen zu URIs
● URI Schemes
● http://www.iana.org/assignments/uri-schemes.html
● Info URIs (info:<NID>/<NSS>)
● http://info-uri.info/registry/OAIHandler?verb=ListRecords&metadataPrefix=oai_dc
● info:lc
– http://info-uri.info/registry/OAIHandler?verb=GetRecord&metadataPrefix=reg&identifier=info:lc/
● Uniform Resource Names (urn:<NID>:<NSS>)
● http://www.iana.org/assignments/urn-namespaces/
●
Universitätsbibliothek Mannheim
12. SKOS: Ein Vokabular für (Werte-)
Vokabulare
● SKOS = Simple Knowledge Organization System
● Knowledge Organisation Systems (KOS) bezeichnen Systeme
zur Wissensorganisation, wie
● Normdateien, Glossare, Wörterbücher, Ortsverzeichnisse,
Schlagwortkataloge, Klassifikationen. Thesauri, Semantische
Netzwerke, Ontologien, ...
● „Simple“ drückt aus, dass auf einige Merkmale zur
Repräsentation von KOS verzichtet wird.
● Ein „gemeinsamer Nenner“ zur Repräsentation von Thesauri,
Klassifikationen und Schlagwortkatalogen.
Universitätsbibliothek Mannheim
13. SKOS auf einer Folie
● Zentrale Begriff: Das Konzept (concept)
● Konzepte werden zusammengefasst zu einem concept-
scheme
● Konzepte können mit Bezeichnern in verschiedenen Sprachen
versehen werden: label
● Identifikation und Dokumentation: notation, note,
changeNote, definition, editorialNote, example,
historyNote, scopeNote
● Konzepte können verlinkt werden: broader, narrower,
related
● Schließlich: Mapping und Gruppierung
Universitätsbibliothek Mannheim
15. SKOS XL
● SKOS Extension for Labels (XL)
● Hauptpunkte:
● Lexikalisch identische Labels müssen nicht identisch sein
● Erlaubt semantische Relationen zwischen Labels
● Insbesondere zur Implementierung von Relationen wie
acronym, use, used for, ...
Universitätsbibliothek Mannheim
16. Beispiel TheSoz
● Thesaurus der Sozialwissenschaften
● 11.600 Terme, davon 7.750 Deskriptoren (Schlagwörter)
● Komplexe Relationen wie „Use for combination“ oder „Used for
combination“.
● Besonderheit: 200 Nicht-Deskriptoren zur Disambiguierung:
● Beispiel: Der alternative Nicht-Deskriptor „Erhebung“ enthält die
Relationen „Use Datengewinnung“, „Use Revolution“ sowie „Use
Widerstand“, die alle gleichwertig zu behandeln sind, und behandelt
dadurch die Mehrdeutigkeit des Begriffes „Erhebung“.
● Zusätzlich existiert eine parallele Klassifikationshierarchie, der
die Deskriptoren zugeordnet werden.
Universitätsbibliothek Mannheim
17. Beispielimplementierung: TheSoz in SKOS (benutzt SKOS-XL)
Element Beschreibung / Funktion SKOS Klasse / Property
DD Deskriptor skosxl:prefLabel
ND Nicht-Deskriptor skosxl:altLabel
AD Alternativer Nicht-Deskriptor skosxl:altLabel
NT Unterbegriff (Narrower Term) skos:narrower
BT Oberbegriff (Broader Term) skos:broader
RT Verwandter Term (Related Term) skos:related
USE Benutze Y statt X (Use) ext:USE als Property der Klasse
ext:equivalenceRelationship
UF Gegenteil von USE: Y benutzt statt X (Used For) ext:UF als Property der Klasse
ext:equivalenceRelationship
USK Benutze Kombination X UND Y (Use Combination) ext:preferredTermComponent als Property
der Klasse ext:CompoundEquivalence
UFK Gegenteil von USK: Benutzt für X mit Y (Used For ext:compoundNonPreferredTerm und
Combination) ext:preferredTermComponent als Properties
der Klasse ext:CompoundEquivalence
translation Engl. Übersetzung des Terms ext:hasTranslation
scope Scope Notes skos:scopeNote
Notation Numerischer Code der systematischen Klassifikation, der skos:notation
code der Term zuzuordnen ist
Universitätsbibliothek Mannheim
18. Beispiel STW
● Standard Thesaurus Wirtschaft, http://zbw.eu/stw/
● 5.800 Schlagwörter
● 17.000 Terme
● Spezialität: Übergeordnete hierarchische Klassifikation zur
Untergliederung der Schlagwörter mit 500 Klassen
● Ziel: Einheitliche Hierarchie, aber weiterhin Unterscheidung
zwischen der Klassifikation und den eigentlichen, zur
Verschlagwortung verwendeten, Schlagwörtern.
● Möglich durch Einführung neuer RDF-Klassen, die als
Unterklassen von skos:concept definiert sind.
Universitätsbibliothek Mannheim
19. Implementierung STW in SKOS
● Neue Unterklassen von skos:Concept:
● zbwext:Descriptor: „Normale“ Konzepte
● zbwext:Thsys: Klassen aus der übergeordneten Hierarchie zur
Klassifikation der Konzepte, werden nicht zur Beschreibung von
Dokumenten genutzt.
● Neue Unterklasse von skos:note:
● zbwext:useInsteadNote: Enthält Hinweise über „Use Instead“-
Relationen zwischen Termen, die nicht verloren gehen sollen.
Universitätsbibliothek Mannheim
20. Weitere SKOS Projekte
● Standard Thesaurus Wirtschaft (ZBW)
● Thesaurus für die Sozialwissenschaften (Gesis)
● General Multilingual Environmental Thesaurus
● UK Archival Thesaurus
● UK Government Category List
● AGROVOC FAO Agricultural Thesaurus
● WordNet
● LCSH
●
Universitätsbibliothek Mannheim
23. Linked Open Data der Bibliotheken
● Katalog der Universitäts- und Stadtbibliothek Köln (USB)
● Katalog der Hochschulbibliothek der Fachhochschule Köln
● Katalog der Bibliothek/Mediathek der Kunsthochschule für
Medien Köln
● Katalog des Landesbibliothekszentrums Rheinland-Pfalz (LBZ),
PLB Speyer
● Katalog des Landesbibliothekszentrums Rheinland-Pfalz (LBZ),
RLB Koblenz
● Katalog des Landesbibliothekszentrums Rheinland-Pfalz (LBZ),
BB Zweibrücken
● → 5,4 Millionen Datensätze
Universitätsbibliothek Mannheim
24. Beispiel: New York Times
● Veröffentlicht seit 2009 den New York Times Index als Linked
Open Data (Stand: März 2010):
● 4.978 Personen
● 3.081 Organisationen
● 1.910 Orte
● http://data.nytimes.com/
● Linked Data:
● Eigene Daten, Verknüpfungen zu Artikeln, Provenienz-Informationen
● Verknüpft mit geonames.org, dbpedia, freebase, ...
Universitätsbibliothek Mannheim
25. Beispiel: DBLP
● DBLP Projekt: http://www.informatik.uni-trier.de/~ley/db/
● Veröffentlichung als RDF: http://www4.wiwiss.fu-berlin.de/dblp/
● Hauptsächlich Dublin Core und FOAF Vokabular
Universitätsbibliothek Mannheim
26. Referenzen
● Adolphus (2010): The Semantic Web – a new tool for libraries?
● http://info.emeraldinsight.com/librarians/info/viewpoints/semantic_web.htm
● Borst, Neubert (2009): Case Study: Publishing STW Thesaurus
for Economics as Linked Open Data
● http://www.w3.org/2001/sw/sweo/public/UseCases/ZBW/
● Neubert (2009):Bringing the „Thesaurus for Economics“ on to the
Web of Linked Data
● http://events.linkeddata.org/ldow2009/papers/ldow2009_paper7.pdf
● Zapilko, Sure (2009): Converting the TheSoz to SKOS
● http://www.gesis.org/fileadmin/upload/forschung/publikationen/gesis_reihen/gesis_methodenberichte/2009/TechnicalReport_09_07.pdf
● Van Assem et al. (2006): A Method to Convert Thesauri to SKOS
● http://thesauri.cs.vu.nl/eswc06/
Universitätsbibliothek Mannheim
27. Fragen und Diskussion
● Kontakt: Kai Eckert - eckert@bib.uni-mannheim.de
Universitätsbibliothek Mannheim