Präsentationsfolien zu einem Beitrag auf dem Arbeitstreffen der DINI-AG-KIM-Titeldatengruppe. Frankfurt/Main, 31.10.2013. Siehe auch https://wiki.dnb.de/x/qYCoB.
Präsentationsfolien zu einem Beitrag auf dem Arbeitstreffen der DINI-AG-KIM-Titeldatengruppe. Frankfurt/Main, 31.10.2013. Siehe auch https://wiki.dnb.de/x/qYCoB.
Hier finden Sie den Geschäftsbericht der Volkswagen Financial Services AG für das Jahr 2009. Weitere Informationen erhalten Sie unter http://www.vwfsag.de/geschaeftsbericht
Motive sind die Wahrnehmungsbrille durch die jeder seine eigene Wahrheit sieht. Motive als situationsübergreifende und intrapersonell stabile Wertedispositionen die den Alltag bestimmen.
Die Präsentation behandelt die Leitmotive Macht, Bindung und Leistung, ihre Entstehung und die Messung.
Bdk fachforum (gpec) big data und intelligente datenanalyseAI4BD GmbH
Big Data udn intelligente Analyse. This motivational talk was given at the GPEC conference hosted and organised by BDK. In the talk I address topics of linked data, information extraction, rdf and sparql and provide a real world example from a Russian customer.
Hier finden Sie den Geschäftsbericht der Volkswagen Financial Services AG für das Jahr 2009. Weitere Informationen erhalten Sie unter http://www.vwfsag.de/geschaeftsbericht
Motive sind die Wahrnehmungsbrille durch die jeder seine eigene Wahrheit sieht. Motive als situationsübergreifende und intrapersonell stabile Wertedispositionen die den Alltag bestimmen.
Die Präsentation behandelt die Leitmotive Macht, Bindung und Leistung, ihre Entstehung und die Messung.
Bdk fachforum (gpec) big data und intelligente datenanalyseAI4BD GmbH
Big Data udn intelligente Analyse. This motivational talk was given at the GPEC conference hosted and organised by BDK. In the talk I address topics of linked data, information extraction, rdf and sparql and provide a real world example from a Russian customer.
PinkDB ist eine Vereinfachung von dem ehemals ThickDB und zwischenzeitlich unter SmartDB bekannten Paradigma für Anwendungen unter Verwendung von Oracle als Middleware.
In der Präsentation werden die Prinzipien vorgestellt und die Anwendungsmöglichkeiten für DataVault Architekturen mit Blick auf aktuelle Fragestellungen wie Zugriffsschicht, Virtualisierung und Datensicherheit evaluiert.
Inhalt:
Angesichts von rasant steigenden und sich stetig verändernden Anforderungen an Daten kommen zentralisierte Organisationsformen in der Datenarchitektur zunehmend an ihre Grenzen. Data Mesh verfolgt einen dezentralen, domänengesteuerten Ansatz im Daten-Management und überträgt die Verantwortung für die Daten und die Datenqualität den Fachbereichen (Domänen). Daten werden als Produkt behandelt, das die Fachbereiche unternehmensweit vermarkten. In unserem Expertengespräch diskutieren Datenspezialisten von IBsolution gemeinsam mit Gordon Witzel, SAP Customer Advisory Platform & Data Management Expert, die grundlegenden Prinzipien und die Vorteile von Data Mesh. Außerdem gehen sie darauf ein, wie Unternehmen Data Mesh umsetzen können und welche Voraussetzungen dafür erfüllt sein müssen.
Zielgruppe:
- IT-Leiter
- IT-Mitarbeiter
- Fachbereichsleiter
- Mitarbeiter aus den Fachbereichen
- CIO, CDO, CFO
Agenda:
- Warum ein dezentraler Ansatz in der Daten-Architektur?
- Auf welchen Prinzipien beruht Data Mesh?
- Daten als Produkt - was bedeutet das?
- Wie lässt sich Data Mesh im Unternehmen realisieren?
Mehr über uns:
Website: https://www.ibsolution.com/
Karriereportal: https://ibsolution.de/karriere/
Webinare: https://www.ibsolution.com/academy/webinare
YouTube: https://www.youtube.com/user/IBSolution
LinkedIn: https://de.linkedin.com/company/ibsolution-gmbh
Xing: https://www.xing.com/companies/ibsolutiongmbh
Facebook: https://de-de.facebook.com/IBsolutionGmbH/
Instagram: https://www.instagram.com/ibsolution/?hl=de
Das könnte Sie auch interessieren:
https://www.ibsolution.com/academy/webinar-aufzeichnungen/business-intelligence-der-weg-in-die-sap-data-warehouse-cloud
Vortrag zu Linked Data und Repositorien von der 16. Jahrestagung der DINI am 27. und 28.10.2015 in der Deutschen Nationalbibliothek in Frankfurt am Main.
Inhalte strukturieren für bessere User Experience und Maschinenlesbarkeit1&1
Du hast gute Inhalte auf deiner Webseite? Mach sie noch besser, indem du sie strukturierst.
Markup (HTML) und Metadaten (JSON-LD) können deine Inhalte anreichern, die Usability für deine Leser verbessern und gleichzeitig die Lesbarkeit der Informationen für Google und andere Suchmaschinen verbessern.
Google belohnt deine Mühe mit Featured Snippets (Answerboxen) und deine User mit bessern Conversion-Rates und niedrigeren Absprungraten.
Einführung aus den Perspektiven Site Builder, Developer, Themer & Community
http://www.drupal-austria.at/veranstaltungen/drupal-roadshow-klagenfurt
Christian Ziegler
Wolfgang Ziegler
Nico Grienauer
Josef Dabernig
SharePoint 2016 das fliegen lernen - SQL Server Performance OptimierungLars Platzdasch
SQL Server ist wirklich das Gehirn und einer der Motoren des SharePoint Servers
Die Standardeinstellungen von SQL Server sind nicht für SharePoint optimiert, in dieser Session gibt Lars Platzdasch MCT (SharePoint MCSE/SQL MCSE) einen Überblick über das was jeder SQL oder/und SharePoint-Berater zum Thema Überwachung und Einrichtung von SQL Server 2014/2016 für SharePoint 2013/2016 wissen muss in Bezug auf die Konfiguration.
LinkedGeoData is an effort to add a spatial dimension to the Web of Data / Semantic Web. LinkedGeoData uses the information collected by the OpenStreetMap project and makes it available as an RDF knowledge base according to the Linked Data principles http://linkedgeodata.org
Metadaten zur Anreicherung von Inhalten ist möglich.
Prototypen Tools für Content Authors existieren.
Externe, offene Linked Data Datenquellen sind wichtiger Bestandteil der Anreicherung.
Angereicherte Inhalte können Basis für neue Anwendungen wie SEO sein.
Angereicherte Inhalte können selbst zur Datenquelle werden und neue Anwendungen wie (mehrsprachige) Q/A Services erlauben.
Transformieren, Manipulieren, Kuratieren: Technologien für die Wissensarbeit ...Georg Rehm
Georg Rehm. Transformieren, Manipulieren, Kuratieren? Technologien für die Wissensarbeit im Netz. KOOP-LITERA International. Konferenz 2017, Berlin, Germany, June 2017. June 20, 2017. Invited talk.
SEMrush Übersicht von allen Tools Stand 03.2019Evgeni Sereda
Diese Präsentation ist Teil des Webinars "SEMrush Übersicht Stand 03.2019", den ich am 06.03.2019 durchgeführt habe. Die Aufzeichnung können Sie hier sehen: https://www.youtube.com/channel/UC5erJqKk46WYhbxAN799asw
Ich bespreche und zeige alle 32 SEMrush Tools.
Ähnlich wie Semantik auf Knopfdruck - Qualität von CMS-generierten semantischen Daten (20)
5. Fahrplan
• Eingebette strukturierte Daten auf
Webseiten
• Daten in Content-Management-
Systemen
• Resultate einer Analyse strukturierter
Daten im Web
2
6. Eine typische
Webseite...
My name is Horst Mustermann, here is my home page:
<a href="http://www.horst.example">
www.horst.example</a>. I live in Berlin, where I
work as a Researcher at Freie Universität Berlin.
3
7. ... mit impliziten
Informationen
Name Webseite
Person
Ort Titel Organisation
4
9. Beispiel: Microdata +
schema.org
<div itemscope itemtype="http://data-
vocabulary.org/Person">
My name is <span itemprop="name">Horst
Mustermann</span>, here is my homepage:
<a href="http://www.horst.example"
itemprop="url">www.horst.example</a>.
I live in
<span itemprop="address" itemscope
itemtype="http://data-vocabulary.org/Address">
<span itemprop="locality">Berlin</span>
</span>
where I work as a <span
itemprop="title">Researcher</span> at <span
itemprop="affiliation">Freie Universität Berlin
</span>.
</div>
6
10. Beispiel: Microdata +
schema.orgStrukturierte
Daten!
Item
Type = http://data-vocabulary.org/person
name = Horst Mustermann
title = Researcher
affiliation = Freie Universität Berlin
url
text = www.horst.example
href = http://www.horst.example/
address = Item
Type = http://data-vocabulary.org/address
locality = Berlin
7
13. Semantik auf
Knopfdruck?
Semantik Typen z.B.
Spezialisierte
Inhalt CMS / Produkte
Manuell Qualität
Metadaten Alle CMS Autor
Seitenstruktu
Alle CMS Navigation
r
10
34. Zusammenfassung
• Spezialisierte CMS bieten ideale
Voraussetzungen für die Publikation
strukturierter Daten (“Knopfdruck”)
• Strukturierte Daten aus CM-Systemen
eingebettet in HTML-Seiten weit
verbreitet
19
35. Zusammenfassung
• Spezialisierte CMS bieten ideale
Voraussetzungen für die Publikation
strukturierter Daten (“Knopfdruck”)
• Strukturierte Daten aus CM-Systemen
eingebettet in HTML-Seiten weit
verbreitet
• Bisher begrenzter Nutzungsbereich
19
36. Vielen Dank für Ihre
Aufmerksamkeit!
Fragen?
Twitter: @hfmuehleisen
Web: http://webdatacommons.org
http://hannes.muehleisen.org
Hinweis der Redaktion
\n
\n
\n
\n
\n
\n
\n
\n
\n
\n
\n
\n
\n
\n
\n
\n
\n
\n
\n
First: Our UseCase is not suitable to Hadoop, so EMR is out, since it was too slow\nInput data split in 100 MB parts, yes\n- EC2 c1.xlarge instances: 8 CPUs, current spot price : ca. 0.17 EUR per hour (most of the time)\n- so, with 100 instances we get 800 CPUs and we could expect to do it in around three days for around 1000 EUR (BIG WIN!) and in 55 hours!\n\n\n
First: Our UseCase is not suitable to Hadoop, so EMR is out, since it was too slow\nInput data split in 100 MB parts, yes\n- EC2 c1.xlarge instances: 8 CPUs, current spot price : ca. 0.17 EUR per hour (most of the time)\n- so, with 100 instances we get 800 CPUs and we could expect to do it in around three days for around 1000 EUR (BIG WIN!) and in 55 hours!\n\n\n
First: Our UseCase is not suitable to Hadoop, so EMR is out, since it was too slow\nInput data split in 100 MB parts, yes\n- EC2 c1.xlarge instances: 8 CPUs, current spot price : ca. 0.17 EUR per hour (most of the time)\n- so, with 100 instances we get 800 CPUs and we could expect to do it in around three days for around 1000 EUR (BIG WIN!) and in 55 hours!\n\n\n
First: Our UseCase is not suitable to Hadoop, so EMR is out, since it was too slow\nInput data split in 100 MB parts, yes\n- EC2 c1.xlarge instances: 8 CPUs, current spot price : ca. 0.17 EUR per hour (most of the time)\n- so, with 100 instances we get 800 CPUs and we could expect to do it in around three days for around 1000 EUR (BIG WIN!) and in 55 hours!\n\n\n