Am 30.06.2017 fand unter dem Titel „Sisyphus und die Metadaten“ der nunmehr vierte Online-Workshop der Reihe rund um Open (Government) Data statt. Es wurden potenzielle Lösungsansätze und Ideen diskutiert, wie die unbedingt notwendige Beschreibung von offenen Datensätzen mittels Metadaten sowohl für Bereitsteller als auch Nutzer möglichst unkompliziert, verständlich und einheitlich gestaltet werden kann. - Der Foliensatz diente als roter Faden für die Diskussion und wird den Teilnehmern (und Interessierten) auf diesem Weg wie im Workshop besprochen bereitgestellt.
CC-BY-SA 3.0 die Inhalte betreffend
1. 30. Juni 2017
Sisyphus und die Metadaten
Wie könnten Erfassung und Pflege von Metadaten
einfach und effizient gestaltet werden?
4. Online-Workshop Open (Government) Data
Moderation: Dominic Petrak, Sebastian Goerke
2. 30. Juni 2017 2
Agenda
1. Wie erfasst man Metadaten heute?
2. Was macht es oft so schwierig?
3. Wie könnte das einfacher gehen?
3. 30. Juni 2017 3
Wie erfasst man Metadaten heute?
Metadatenerfassung
heute
Über klassische
Softwarelösungen
diverser Anbieter
(z.B. Geo-Bereich)
Häufig nicht
standard-
konform
Hoher
Anpassungs-
aufwand
Nur für größere
Institutionen
machbar
Alternative:
Gemeinsame
Infrastruktur
Standardi-
sierung
Generische Open
Data-Portale
Aufwändige
Pflege
Erfassung
manuell über
Web-Form
Automatisches
Sammeln
Massen-
verarbeitung
Daten müssen
maschinen-
lesbar vorliegen
Aus externen
Katalogen
Verlinkung /
Kontextbildung
Kritisch
4. 30. Juni 2017 4
Was macht es oft so schwierig?
• Umfangreiche Beschreibungsvokabularien
• Sehr langer Lebenszyklus
• Verschiedene Metadaten-Schemata
• Frage nach passender Lizenz
• Metadaten-Pflege (Koordination und Umsetzung)
• Schwankende Datenqualität
5. 30. Juni 2017 5
Wie könnte das einfacher gehen?
• Automatisierung
• Automatisierte Ableitung von Metadateninhalten gem. vorgegebener
Regelwerke und Werkzeuge (ETL Mechanismen)
• Einsatz von Deep Learning Mechanismen
Mittels Deep Learning
Mechanismen werden
Metadaten zu Datensätzen
erhoben
Ableitung verschiedener
Metadatenformate mittels
Deep Learning Mechanik
Überprüfung der Ergebnisse
anhand vorhandener
Metadaten zu Datensätzen
(insbesondere im
Geodatenbereich
umfangreiche
Datengrundlage)