„Patron driven acquisition“ einmal ganz analog - Mit "EVA" nutzerorientiert e...Peter Mayr
Vortrag auf dem 101. Bibliothekartag in Hamburg:
Passive Fernleihen können - von Nutzern wahrgenommene - Mängel im lokalen Bestand einer Bibliothek aufzeigen. Diese Information kann von Fachreferenten für den effizienten Bestandsaufbau an der jeweiligen Institution genutzt werden.
Im Rahmen des Studienganges MALIS an der FH Köln wurde mit dem “ErwerbungsVorschlag-Assistenten” (EVA) ein Verfahren konzipiert, welches den zuständigen Fachreferenten einer Bibliothek ermöglicht, vorab zu entscheiden, ob eine passive Fernleihe als solches ausgeführt oder stattdessen das gewünschte Medium für die eigene Bibliothek angeschafft wird. Dabei werden die Fernleihbestellungen nach bestimmten Kriterien gefiltert und in aufgearbeiteter Form für die jeweils zuständigen Fachreferenten bereitgestellt.
Ergebnis des Projektes ist ein Modul der derzeitigen Online-Fernleihe des hbz zur automatisierten Analyse von Fernleihen, eine Fachreferentenoberfläche zum Bearbeiten der Erwerbungsvorschläge, sowie eine Tracking-Schnittstelle für Endnutzer.
Seit Oktober 2011 wird EVA von mehreren Bibliotheken im hbz-Verbund eingesetzt. Die Umwandlung von Fernleihen in Erwerbungsvorschlägen wirft natürlich Fragen in den beteiligten Institutionen auf: Gibt es eine Konkurrenz zwischen Erwerbung und Fernleihe? Wie sinnvoll ist es, auf diesem Weg Fernleihen zu vermeiden?
Erste Erfahrungsberichte und Ergebnisse aus den teilnehmenden Bibliotheken werden vorgestellt. Auch die mögliche Nachnutzung der Module in anderen Fernleihsystemen wird angesprochen.
„Patron driven acquisition“ einmal ganz analog - Mit "EVA" nutzerorientiert e...Peter Mayr
Vortrag auf dem 101. Bibliothekartag in Hamburg:
Passive Fernleihen können - von Nutzern wahrgenommene - Mängel im lokalen Bestand einer Bibliothek aufzeigen. Diese Information kann von Fachreferenten für den effizienten Bestandsaufbau an der jeweiligen Institution genutzt werden.
Im Rahmen des Studienganges MALIS an der FH Köln wurde mit dem “ErwerbungsVorschlag-Assistenten” (EVA) ein Verfahren konzipiert, welches den zuständigen Fachreferenten einer Bibliothek ermöglicht, vorab zu entscheiden, ob eine passive Fernleihe als solches ausgeführt oder stattdessen das gewünschte Medium für die eigene Bibliothek angeschafft wird. Dabei werden die Fernleihbestellungen nach bestimmten Kriterien gefiltert und in aufgearbeiteter Form für die jeweils zuständigen Fachreferenten bereitgestellt.
Ergebnis des Projektes ist ein Modul der derzeitigen Online-Fernleihe des hbz zur automatisierten Analyse von Fernleihen, eine Fachreferentenoberfläche zum Bearbeiten der Erwerbungsvorschläge, sowie eine Tracking-Schnittstelle für Endnutzer.
Seit Oktober 2011 wird EVA von mehreren Bibliotheken im hbz-Verbund eingesetzt. Die Umwandlung von Fernleihen in Erwerbungsvorschlägen wirft natürlich Fragen in den beteiligten Institutionen auf: Gibt es eine Konkurrenz zwischen Erwerbung und Fernleihe? Wie sinnvoll ist es, auf diesem Weg Fernleihen zu vermeiden?
Erste Erfahrungsberichte und Ergebnisse aus den teilnehmenden Bibliotheken werden vorgestellt. Auch die mögliche Nachnutzung der Module in anderen Fernleihsystemen wird angesprochen.
Newsletter ArtSelect über recycle Möbel und Produkte, die ökologisch nachhaltig und wunderschön sind.
Weitere Infos im Newsletter:
http://artselect-shop.net/wp-content/uploads/2013/04/NL122013-Dezember-2013.pdf
Besuchen Sie die nächste PLM Open Hour! Mehr Informationen und Termine: https://intelliact.ch/events/plm-open-hours
****
In den letzten Jahre haben neue technologische Möglichkeiten in der Digitalisierung neue Themenfelder im Product Lifecycle Management (PLM) hervorgebracht. Dazu gehören unter anderem die Entwicklungen in der Cloud, die breitere Nutzung von 3D-Daten ausserhalb der Entwicklungsabteilungen sowie die Sustainability.
In dieser Open Hour erhielten Sie einen Überblick über die Trends im PLM und einen Einblick in weitere spannende Themen.
Fortbildung: Selbermachen! Praktische Tipps zur Archivierung digitaler Unterlagen, Digitalisierung und Öffentlichkeitsarbeit im Netz - Teil: Digitalisierung und Öffentlichkeitsarbeit im Netz (22. Juni 2012, Südwestdeutscher Archivtag 2012). Unter Benutzung von Folien von Daniel Jeller - ICARUS (Digitization).
Newsletter ArtSelect über recycle Möbel und Produkte, die ökologisch nachhaltig und wunderschön sind.
Weitere Infos im Newsletter:
http://artselect-shop.net/wp-content/uploads/2013/04/NL122013-Dezember-2013.pdf
Besuchen Sie die nächste PLM Open Hour! Mehr Informationen und Termine: https://intelliact.ch/events/plm-open-hours
****
In den letzten Jahre haben neue technologische Möglichkeiten in der Digitalisierung neue Themenfelder im Product Lifecycle Management (PLM) hervorgebracht. Dazu gehören unter anderem die Entwicklungen in der Cloud, die breitere Nutzung von 3D-Daten ausserhalb der Entwicklungsabteilungen sowie die Sustainability.
In dieser Open Hour erhielten Sie einen Überblick über die Trends im PLM und einen Einblick in weitere spannende Themen.
Fortbildung: Selbermachen! Praktische Tipps zur Archivierung digitaler Unterlagen, Digitalisierung und Öffentlichkeitsarbeit im Netz - Teil: Digitalisierung und Öffentlichkeitsarbeit im Netz (22. Juni 2012, Südwestdeutscher Archivtag 2012). Unter Benutzung von Folien von Daniel Jeller - ICARUS (Digitization).
dictaJet's jüngster Projekterfolg im Information Management Office (IMO): Für die Spezifikation von Maschinenkonfigurationen verabschiedete sich unser Kunde von unübersichtlichen Listen... Unser IMO-Team hat alle relevanten Informationen zusammengetragen und in Informations-, Daten- und Logigkmodellen abgebildet. Diese stehen jetzt für die weitere Softwareentwicklung zur Verfügung.
Mehr dazu finden Sie hier: http://www.dictajet.de/de/imo/imo_erfolge/200-geraetekonfiguration
Sprechen Sie uns an!
Präsentation zu einem Vortrag, den ich am 17.03.2011 bei BITKOM Arbeitskreis Knowledge Managmement in Frankfurt halte. Näheres unter http://www.cogneon.de/node/4699
Republikzeitliche chinesische Presse – Crowdsourcing und andere Wege in Richt...Matthias Arnold
Das Project "Early Chinese Periodicals Online (ECPO)" führt mehrere digitale Sammlungen zur frühen chinesischen Presse zusammen und stellt diese auf einer Open Access Plattform frei zur Verfügung. Lag zu Beginn der Fokus auf den kaum beachteten, aber inhaltlich sehr reichhaltigen Materialien Frauen- und Unterhaltungsmagazinen, sind nun auch literarische, Kunst- oder Politik- Zeitungen und Zeitschriften oder westliche, in China herausgegebene Publikationen enthalten und werden weiterhin eingepflegt. In ECPO werden diese Forschungsergebnisse und Ressourcen zusammengeführt. Nach einer initialen Förderung der Kooperation Heidelberg mit der Academia Sinica durch die taiwanesische Chiang Ching-kuo Foundation (2012-2015) wird das Projekt nun vom Institut für Sinologie und dem HCTS (Heidelberger Zentrum für Transkulturelle Studien) gefördert. Die technische Entwicklung liegt dabei weiterhin bei der Heidelberg Research Architecture.
Bisher enthält ECPO vor allem Bildscans und deskriptive Metadaten. Leider ist die bei westlichen Zeitungen angewandte Standard-Lösung einer optischen Zeichenerkennung (OCR – die DFG verlangt das für Digitalisierungsprojekte nach 1850) für diese chinesischen Materialien der ersten Hälfte des letzten Jahrhunderts nicht anwendbar, und das aus mehreren Gründen:
Die Dokumentanalyse scheitert am sehr engen Satz und komplexem Zeitungs-Layout
Die Bildvorlagen sind in der Regel keine Primär-Digitalisate und weisen daher oft Rauschen, Unschärfe oder andere Störungen auf.
Die Zeichenerkennung versagt komplett wegen der (in dieser Zeit typischen) Betonungs-Sonderzeichen neben den eigentlichen Schriftzeichen. Eine Volltexterkennung von ganzen Seiten (beispielsweise mit der Abbyy Cloud OCR SDK) ist aussichtslos.
Der Vortrag zeigt anhand manuell aufbereiteter Segmente, dass eine OCR Verarbeitung möglich ist. Dafür müssten aber die Seiten automatisiert segmentiert werden. Derzeit wird nach Partnern gesucht, um diese Entwicklung zu forcieren.
Danach wird ein crowd-sourcing Projekt vorgestellt, mit dem erfolgreich Segmente erstellt wurden. Die nicht-muttersprachliche crowd konnte Segmente erkennen, jedoch musste eine semantische Gruppierung nachtrglich vorgenommen werden. Die damit erstellten ground-truth Daten sollen zur Unterstützung der automatischen Dokumentanalyse und Segmentierung der Seiten hinzugezogen werden.
Vortrag auf dem Challenge Workshop „Herausforderungen bei der Analyse von alten Schriften im digitalen Zeitalter" (HAASDZ18), Heidelberg, 29./30. Oktober 2018.
Users leave thousands of traces per second on a successful ecommerce site. It’s very pragmatic to analyse and react on this trace event stream in realtime. This is called clickstream analysis. In the talk I’ll present a software architecture based on Apache Spark which is able to process thousands of clickstream events per second. A product based on this architecture is in production since mid 2015 and is still performing well. The building blocks of the architecture beside Spark are Kafka to handle the inbound event stream, Spark Streaming for initial stream processing and Parquet as serialization format. I argue why we’ve chosen these technologies and what experiences we had in developing, launching and operating the product.
Clickstream Analysis with Spark - Understanding Visitors in Real TimeQAware GmbH
Spark Summit East 2016, New York City: Talk by Josef Adersberger (@adersberger, CTO at QAware).
Abstract: Users leave thousands of traces per second on a successful ecommerce site. It’s very pragmatic to analyse and react on this trace event stream in realtime. This is called clickstream analysis. In the talk I’ll present a software architecture based on Apache Spark which is able to process thousands of clickstream events per second. A product based on this architecture is in production since mid 2015 and is still performing well. The building blocks of the architecture beside Spark are Kafka to handle the inbound event stream, Spark Streaming for initial stream processing and Parquet as serialization format. I argue why we’ve chosen these technologies and what experiences we had in developing, launching and operating the product.
Plattformen für das Internet der Dinge, solutions.hamburg, 05.09.16Boris Adryan
Talk in German. Abstract: Prospective end users new to IoT are overwhelmed with the vast number of offerings around IoT data brokerage, storage and analysis. This talk exemplifies some of the challenges that have to be met in real-world deployments, and why there is no one-size-fits-all IoT solution. We conclude that IoT solution providers in many cases need to consider PaaS solutions with customer-specific modifications.
Dotnet Cologne 2015: //Rebuild - Big Data Analysis End-to-EndOlivia Klose
Predictive Analytics oder Data Science sind in einer Zeit, in der die Menge an Daten stetig zunimmt, wertvolle Hilfsmittel. Die Einsatzbereiche sind vielfältig und reichen von der Vorhersage von Fußballergebnissen über persönliche Kaufempfehlungen in Online-Shops bis zum Ergreifen präventiver Wartungsmaßnahmen in der industriellen Produktion.
In diesem Vortrag werden verschiedene Dienste der Azure-Datenplattform vorgestellt, mit denen aus der Datenflut hilfreiche Erkenntnisse gewonnen werden können.
Impulsvortrag zum ÖPWZ Jahreskongress für Einkauf und Supply Management.
"Blockchains in Einkauf und Supply Chain"
Unternehmensübergreifende Optimierung, Anwendungsbeispiele
[ecspw2013] Session Executive 01: ecspand 3.0 - Vorgangsbearbeitung für den S...d.velop international
ecspand bietet in der neuen Version 3.0 umfangreiche Möglichkeiten zum Navigieren, Erstellen und Bearbeiten von Aktenstrukturen. Erfahren Sie mehr über die Möglichkeiten der Vorgangsbearbeitung in SharePoint.
Session im Rahmen der ecspand partnerworld 2013.
Ähnlich wie Das materielle Objekt in der digitalen Welt (20)
Votings, Likes, Abzeichen und der StabiBot: nur Spielerei oder doch ein guter Weg zu einer neuen Unternehmenskultur? Viele Bibliotheken nutzen inzwischen ein Intranet auf Wiki-Basis, um Information an zentraler Stelle aufzubereiten und die Zusammenarbeit in Teams zu befördern. Die Staatsbibliothek zu Berlin (SBB) geht einen Schritt weiter und erprobt mit dem SBB-Forum ein Social Intranet, bei dem Diskussionen und Austausch im Fokus stehen - transparent und (nahezu) hierarchiefrei. Nicht nur, aber gerade auch in Corona- und Post-Coronazeiten ein geeignetes Mittel, um den gegenseitigen Kontakt zu stärken und die vielfältigen Aktivitäten des Hauses für alle Mitarbeitenden sichtbarer zu machen und partizipativer zu Gestalten.
Auf den ersten Blick mag es im Arbeitsalltag befremdlich erscheinen, im Intranet nicht einfach nur zu dokumentieren und kommentieren, sondern auch ein persönliches Profil zu gestalten und Abzeichen für Aktivitäten zu sammeln. Doch genau an so einem Ort, der ungezwungene Bereiche wie Lunchtreffen und Leseecken mit Threads zu Forschungsprojekten und Drittmittelanträge verbindet, entstehen Ideen, bilden sich Projektgruppen, klären sich Fragen und finden sich Lösungen, manchmal ganz nebenbei. Mitarbeitende beteiligen sich an Entscheidungsprozessen, arbeiten gemeinsam an Aufgaben und sorgen durch ihre Beiträge gleichermaßen dafür, dass das Einrichtungswissen gesammelt, strukturiert und geteilt wird.
Die SBB nutzt dafür die Open-Source-Plattform Discourse und berichtet im Beitrag über ihre Erfahrungen mit der Software, über den Konzeptions- und Entstehungsprozess, die rechtzeitige Einbindung des Personalrates, aber auch über Rollout-Kampagnen und Akzeptanzhürden im Kollegium angesichts 'noch eines weiteren Tools'. Die Frage danach, welche Themen und Inhalte für ein solches Forum geeignet erscheinen und welche Prozesse eher untauglich sind, wird ebenso adressiert, wie der Spagat zwischen größtmöglicher Offenheit und doch nötiger geschlossener Bereiche.
Die Revolution vergisst ihre Kinder - Drei Szenarien, wie Bibliotheken in 15 ...Ralf Stockmann
Symposium „Bibliotheken neu denken“ im Rahmen der 650-Jahr-Feier der Österreichischen Nationalbibliothek.
Drei Szenarien, wie Bibliotheken in 15 Jahren ihren Platz in der Informationsgesellschaft finden können.
Dieser Vortrag setzt Ideen und Konzepte aus diesem fort:
https://youtu.be/fZslqmgA5tM
Der Zauberlehrling war nicht als Anleitung gemeintRalf Stockmann
Artificial Intelligence, Deep- und Machine-Learning in den Kultur- und Wissenschaftseinrichtungen. Keynote zur Eröffnung des Barcamps "Data and Demons: Von Bestands- und Forschungsdaten zu Services" im Rahmen des Forschungsverbunds MWW, 27. bis 28. November 2017
Was Bibliotheken von der Zukunft lernen könnenRalf Stockmann
BibliothekarInnen gestalten digitale Wissensräume - ganz ohne die Hilfe von IT-Abteilung oder Dienstleistern.
Die Notwendigkeit eines Strukturwandels unserer Einrichtungen - hin zu digitalen Angeboten, die sich agil den rasant ändernden Nutzererwartungen anpassen - wird kaum noch bestritten. Betrachtet man die hierfür real zur Verfügung stehenden Ressourcen, macht sich jedoch Ernüchterung breit: IT-Abteilungen werden nur zaghaft ausgebaut, Personalentwicklung dauert, Curricula sind geduldig.
Darauf können wir nicht warten.
Die gute Nachricht, um es mit Williams Gibbson zu sagen: die Zukunft ist längst da, sie ist nur ungleich verteilt. Im Jahr 2016 stehen - uns allen - Werkzeuge zur Verfügung, mit denen sich leicht Aufgaben lösen lassen, für die man noch vor wenigen Monaten Informatiker benötigt hätte. Das Referat für Innovationsmanagement der Staatsbibliothek zu Berlin hat daher aus der Not eine Tugend gemacht: Den Aufbau einer Serviceplattform, mit der IT-affine BibliothekarInnen völlig unabhängig von ihrer IT-Abteilung in kürzester Zeit Angebote wie Projekt-Blogs/Homepages, Veranstaltungsseiten, Anmeldesysteme, virtuelle Ausstellungen und vieles andere mehr in responsivem design online bringen können.
Als Grundlage hierfür dient die Open Source Software "Wordpress" - ein System, das seine Ursprünge als Blog-Framework längst hinter sich gelassen hat und zum weltweit meist genutzten Content Management System (CMS) aufgestiegen ist. Im Gegensatz zu Schwergewichten wie TYPO3 ist es jedoch auch von Laien gut wart- und erweiterbar.
Wir stellen ein von uns für Wordpress entwickeltes Open Source Framework vor, dass die Wünsche der BibliothekarInnen und ProjektleiterInnen nach Flexibilität und Agilität mit den berechtigten Anforderungen der IT nach Stabilität, Wartbarkeit und Sicherheit versöhnt.
Zusammen mit vielen Fallbeispielen aus der Staatsbibliothek entsteht so ein auch gerade für kleine Bibliotheken bestens adaptierbares Modell, um unsere Onlinezukunft selbst in die Hand zu nehmen.
DFG Expertenworkshop - Workflow Volltextgenerierung über OCRRalf Stockmann
In den letzten Jahren konnten beachtliche Fortschritte in Bezug auf die Erkennungsqualität von OCR-Verfahren – auch bei schwierigen Vorlagen – erzielt werden. Zugleich fallen die Preise kontinuierlich, sei es bei Dienstleistern oder beim Aufsetzen einer eigenen OCR-Render-Farm. Die flächendeckende Bereitstellung von OCR-Volltexten scheint demnach zum Greifen nahe – der Durchbruch lässt jedoch aus Sicht der NutzerInnen weiter auf sich warten.
Einer der Hauptgründe dafür liegt in der komplizierten Orchestrierung der OCR-Workflows. Wirft man einen Blick auf die Details, so zerfasert der vermeintlich übersichtliche Dreiklang aus Digitalisierung, OCR und Indexierung/Bereitstellung schnell in 10 oder auch 20 Einzelschritte mit komplexen Abhängigkeiten. Selbst wenn diese Herausforderungen gemeistert wurden, stehen die nächsten Aufgaben an: Prozesse für die kontinuierliche Verbesserung der Volltexte (auch durch NutzerInnen/Croudsourcing) sowie Rückkanäle für veredelte Volltexte – etwa durch Normdatenauszeichnung – in die Repositorien sind weitestgehend Neuland.
Der Impulsvortrag wird das Problembewusstsein dafür zu schärfen, dass die OCR-Erkennungsqualität an sich zwar ein hochrelevanter Aspekt ist - im Orchester der Operationalisierung durch die Institutionen und Projekte aber nur als einer von vielen zu begreifen ist. Wenn das Projekt einer nationalen Volltext-Initiative gelingen soll, muss die gesamte Prozesskette Beachtung finden.
Controlled Vocabularies and Text Mining - Use Cases at the Goettingen Ralf Stockmann
The amount of online data that supplies geo-spatial and temporal metadata has grown rapidly in recent years. Social networks like Twitter, Flickr, and YouTube are popular providers of masses of data that are hard to browse.
Our europeana 4D interface – e4D – enables comparative visualisation of multiple queries and supports data annotated with time span data. We implemented our design in a prototype application in the context of the European project EuropeanaConnect. It is based on a client-server architecture that charges the client with the main functionality of the system.
Auf dem Weg zur digitalen Bibliothek wird ein Erfolgsmerkmal häufig
zu wenig beachtet: Bedienfreundlichkeit und professionelle Anmutung. Die
Gestaltung von digitalen Medien wie Projektwebseiten, Repositorien und
Katalogoberflächen ist kritischer Bestandteil und nimmt eine wesentliche
Rolle ein, schließlich bestimmt sie wie unsere Kunden - die Nutzer - unsere
Angebote wahrnehmen und nutzen.
In ihrer "analogen" Vergangenheit haben gerade Bibliotheken sowohl effiziente
als auch ästhetisch überzeugende Lösungen gefunden: man denke etwa an die
kunstvollen Lesesäle und deren elaborierte Nutzungsszenarien für Gebäude. In
der digitalen Welt hingegen präsentieren sich Bibliotheken den Benutzern
oftmals karg, lustlos, sperrig und lieblos. Darüber hinaus werden häufig die
grundsätzlichen Prinzipien z. B. der Farbenlehre, Typographie und Lesbarkeit
missachtet.
Der Kurs bietet eine klare "Checkliste" anhand derer Sie Ihre eigenen
Entwürfe oder aber auch die Arbeit von externen Dienstleistern einschätzen
können und somit ein Fundament für profunde Entscheidungen und Bewertungen.
Folgende Inhalte werden angesprochen:
Typographie in der digitalen Welt / Grundlagen der Farbenlehre / Verfahren
zur Bestimmung der Lesbarkeit / Barrierefreiheit / Performance als
Qualitätsmerkmal / Umgang mit Suchfeldern und Ergebnislisten / Logodesign /
Einsatz von Bildelementen / Iconsets und die Bedeutung von Konsistenz /
Sprache im Internet / Animationen, Flash & AJAX
Referenten: Ralf Stockmann (SUB Göttingen), Nils K. Windisch (SUB Göttingen)
Teaching and Learning Experience Design – der Ruf nach besserer Lehre: aber wie?Isa Jahnke
Der Ruf danach, dass es bessere Lehre geben muss oder das Lehre verbessert werden sollte, ist nicht neu. Es gibt auch schon seit längerer Zeit Rufe danach, dass Lehre der Forschung in Universitäten gleichgestellt werden soll. (Und in den letzten Jahren ist in Deutschland auch einiges an positiven Entwicklungen geschehen, z.B. durch die Aktivitäten des Stifterverbands). Wie kann die Verbesserung der Lehre weitergehen? Fehlt etwas in dieser Entwicklung? Ja, sagt dieser Beitrag, der zum Nachdenken und Diskutieren anregen soll. In diesem Beitrag wird ein forschungsbasierter Ansatz zur Diskussion gestellt. Es wird argumentiert, dass Lehre nur dann besser wird, wenn es mit den Prinzipen der Wissenschaft und Forschung angegangen wird (d.h. gestalten, Daten erheben, auswerten, verbessern). Es benötigt neue Verhaltensregeln oder -prinzipien bei der Gestaltung von Lehrveranstaltungen. Das bedeutet zum Beispiel das Prinzipien der Evidenzbasierung und wissenschaftliche Herangehensweisen im Lehr-Lerndesign als zentrales Fundament etabliert werden sollte. Evidenzbasierung hier meint, folgt man der Logik der Forschung, dass Lehrveranstaltungen als Intervention verstanden werden. Mit dieser Intervention werden Studierende befähigt, bestimmte vorab festgelegte Kompetenzen zu entwickeln. Und die Frage, die sich bei jeder Lehr-Lernveranstaltung dann stellt, ist, ob diese Objectives bzw. Learning Outcomes auch erreicht wurden. Klar ist, dass die subjektive Lehrevaluation der Studierenden oder auch die Notengebnung nicht ausreichen, um diese Frage zu beantworten. Hierfür gibt es eine Reihe von Methoden, die genutzt werden können, z.B. aus dem Bereich des User- / Learning Experience Design. Diese Methoden umfassen unter anderem Usability-Tests, Learner Experience Studies, Pre-/Post-Tests, und Follow-up Interviews. Diese können zur Gestaltung und Erfassung von effektiven, effizienten und ansprechenden digitalen Lerndesigns verwendet (Reigeluth 1983, Honebein & Reigeluth, 2022).
Der Beitrag will die Entwicklung zur Verbesserung von Lehre weiter pushen. Neue Ideen in die Bewegung bringen. Als Gründungsvizepräsidentin der UTN hab ich die Chance, hier ein neues Fundament für eine gesamte Uni zu legen. Wird das Gelingen? Ist dieser Ansatz, den ich hier vorstelle, eine erfolgsversprechende Option dafür? Hier können sich die TeilnehmerInnen an dieser Entwicklung beteiligen.
Teaching and Learning Experience Design – der Ruf nach besserer Lehre: aber wie?
Das materielle Objekt in der digitalen Welt
1. Das materielle Objekt in
der digitalen Welt
Einstein-Zirkel Digital Humanities am 11. Oktober 2013
Digital Humanities Berlin
Ralf Stockmann, Staatsbibliothek zu Berlin
Innovationsmanagement und wissenschaftliche Onlinedienste
36. Quelle: David S.H. Rosenthal, Keeping Bits safe: how hard can it Be?, Doi:10.1145/1839676.1839692, november 2010 | vol. 53 | no. 11 |
communications of the acm
37.
38. DFG 1998
„Primärdaten als Grundlagen für
Veröffentlichungen sollen auf haltbaren und
gesicherten Trägern in der Institution, wo sie
entstanden sind, für zehn Jahre aufbewahrt
werden.“
DFG, Vorschläge zur Sicherung guter wissenschaftlicher Praxis, 1998
39. DFG 2010
„[...] Wenn aus Projektmitteln systematisch
(Mess-)Daten erhoben werden, die für die
Nachnutzung geeignet sind, legen Sie bitte
dar, welche Maßnahmen ergriffen wurden
bzw. während der Laufzeit des Projektes
getroffen werden, um die Daten nachhaltig
zu sichern und ggf. für eine erneute Nutzung
bereit zu stellen [...]“
DFG, Antragsformular, Kapitel 3.7 Umgang mit den im Projekt erzielten
Forschungsdaten, 2010
52. NOW
Selection
Selection
Scanning
Scanning
Image Optimization,
Image Optimization,
Processing
Processing
Quality Control
Quality Control
OCR
OCR
Metadata
Metadata
Selection
Selection
Production
Production
Bibliographic &&
Bibliographic
structural
structural
Metadata
Metadata
Named Entity
Named Entity
Recognition
Recognition
Linked Open Data
Linked Open Data
Upload,
Upload,
CMS / / DMS
CMS DMS
Upload,
Upload,
CMS / / DMS
CMS DMS
THEN
Wir brauchen eine Schwerpunktverschiebung:
Digitalisierung ist Standard, nun Focus aus Erschließung
Verfall der Datenträger, Veralten der Lesegeräte article and picture : David S.H. Rosenthal, Keeping Bits safe: how hard can it Be?, Doi:10.1145/1839676.1839692, november 2010 | vol. 53 | no. 11 | communications of the acm
eigentlich einfaches Rezept... ... viele Kopien Two StorageTek Libraries SL8500 with 18 tape drives (LTO/3) and 3000 tapes (50-400 GB) each are used by WDC-MARE/PANGAEA for buckup and archiving large datasets and binary objects, e.g. from seismic, bathymetry, image material or modelling. The total capacity is up to 1200 TerraByte mirrored with full redundancy in two building at different locations. http://www.wdc-mare.org/service/, http://www.wdc-mare.org/images/silo_highdens.jpg
Förderer schon lange, Missbrauch (neg.) aber wenig beachtet DFG, Vorschläge zur Sicherung guter wissenschaftlicher Praxis, 1998
letzten Jahre prominenter, Nachnutzung (pos.) Teil der Begutachtung DFG, Antragsformular, Kapitel 3.7 Umgang mit den im Projekt erzielten Forschungsdaten, 2010
Ja, man sollte es sich WIRKLICH ansehen.
Da der reine Produktionsprozess mittlerweile standardisiert ist...
Eröffnen sich Räume für anspruchsvollere Erschließungsaufgaben
Eine sinnvolle Rolle zu Partnereinrichtung Zuordnung ist notwendig. Etliche Rollen werden hierbei von mehreren Partnern ausgefüllt – mit unterschiedlichen Schwerpunkten. So mag Softwareentwicklung sowohl an der Informatik, aber auch an der Bibliothek stattfinden. Dies öffnet zum einen neue, spannende Kooperationsräume, birgt aber auch die Gefahr von Kompetenz- und Ressourcenstreitigkeiten
Dem bisher diskutierten, erweiterten Workflow können nun die Rollen/Einrichtungen zugeordnet werden. Eine Sonderrolle kommen den Wissenschaftlern zu – sie sind Initiator, Begleiter (eResearch) als auch „Kunde“ der gesamten Kette. Über die Zuordnung müssen – zusammengehalten von der Gesamtkoordination – die Kompetenzen, Verbindlichkeiten und Ressourcen geregelt sein.