Rétro-escalade sur la notion de cycle de vie. En 2015 nous avions dressé un état des lieux de la notion de cycle de vie avec l’article Cinquante nuances de cycle de vie : quelles évolutions possibles principalement en catégorisant une cinquantaine de schémas conceptuels en fonction des aires culturelles ainsi que l’origine de certaines théories comme celle d’Yves Pérotin pour les « trois âges ».
Depuis, plusieurs champs de recherche ont pu être approfondis en fonction de nos expériences respectives et nous nous proposons de les partager sous deux facettes :
Le cycle de vie dans le champ du records management – gestion des documents d’activité dans une perspective historique au travers de l’expérience du système de « registry » de la Société des Nations et son héritage dans les outils numériques contemporains. Ce système, mis en place de 1919 à nos jours (et encore en service dans certaines organisations internationales), permet l’enregistrement des courriers (et des dossiers associés) afin de centraliser l’information, la rendre homogène et lisible dans un contexte multilingue. Les dossiers du « registry » de la SDN constituent l’essentiel des archives qui sont parvenues jusqu’à nous. Le projet de numérisation du fonds SDN par la Bibliothèque de l’ONU révèle un point de vue original sur l’application du cycle de vie.
Par ailleurs les politiques publiques contemporaines s’intéressent à la modélisation du cycle de vie et nous présenterons deux exemples : de « nouveaux modèles » de cycles de vie provenant de l’expérience fédéraliste suisse (normes eCH) et au Grand-Duché du Luxembourg.
This document provides an overview of data warehousing concepts including:
- Data warehouses store historical data from operational systems for analysis and reporting. The data passes through a staging area and operational data store for cleaning before loading into the data warehouse.
- Common data warehouse architectures include star schemas with fact and dimension tables and snowflake schemas with normalized dimensions. Data marts contain summarized data for specific business questions.
- ETL processes extract, transform, and load the data in three phases. Transformation cleans and prepares the data before loading into dimensional schemas.
- Data warehouses typically contain historical data, derived data generated from existing data, and metadata describing the data and schemas.
Rohit Sharma presented a seminar on a project that discussed data warehousing, data mining, and how to apply data warehousing concepts to project data. The presentation covered terminology, pulling together and correctly using data from multiple sources, software requirements including PHP and MySQL, and screenshots of the admin panel and user interfaces.
Promoting Electronic Thesis and Dissertation through Knowledge repository marykelem
The document discusses promoting electronic thesis and dissertation (ETD) through knowledge repositories. It defines an ETD and knowledge repository, outlining their benefits such as improved accessibility and increased citation. International ETD initiatives are described, along with Botho University's current status in establishing an ETD repository. Botho University's repository allows access to postgraduate theses and dissertations to facilitate research knowledge sharing while addressing copyright and other concerns.
The process of data warehousing is undergoing rapidtransformation, giving rise to various new terminologies, especially due to theshift from the traditional ETL to the new ELT. Forsomeone new to the process, these additional terminologies and abbreviationsmight seem overwhelming, some may even ask, “Why does it matter if the L comesbefore the T?”
The answer lies in the infrastructure and the setup. Here iswhat the fuss is all about, the sequencing of the words and more importantly,why you should be shifting from ETL to ELT.
The document discusses operational data warehousing and the Data Vault model. It begins with an agenda for the presentation and introduction of the speaker. It then provides a short review of the Data Vault model. The remainder of the document discusses operational data warehousing, how the Data Vault model is well-suited for this purpose, and the benefits it provides including flexibility, scalability, and productivity. It also discusses how tools and technologies are advancing to support automation and self-service business intelligence using an operational data warehouse architecture based on the Data Vault model.
Replacing Tape Backup with Cloud-Enabled Solutions by Index EnginesAmazon Web Services
This document provides an overview of Index Engines and their capabilities for indexing and managing unstructured backup data. Index Engines can ingest backup catalogs from various backup software, rebuild catalogs, and provide search and access to backup data without needing the original backup software. They support use cases like catalog consolidation, on-demand access to backup data for restoration, and migrating legacy tape data to the cloud. Index Engines offers bundled software and services to remotely manage legacy data migrations from tapes to cloud storage.
What is Data Warehouse?OLTP vs. OLAP, Conceptual Modeling of Data Warehouses,Data Warehousing Components, Data Warehousing Components, Building a Data Warehouse, Mapping the Data Warehouse to a Multiprocessor Architecture, Database Architectures for Parallel Processing
Archives and recordkeeping: theory into practiceFacet Publishing
This groundbreaking text demystifies archival and recordkeeping theory and its role in modern day practice.
The book's great strength is in articulating some of the core principles and issues that shape the discipline and the impact and relevance they have for the 21st century professional.
Using an accessible approach, it outlines and explores key literature and concepts and the role they can play in practice. Leading international thinkers and practitioners from the archives and records management world, Jeannette Bastian, Alan Bell, Anne Gilliland, Rachel Hardiman, Eric Ketelaar, Jennifer Meehan and Caroline Williams, consider the concepts and ideas behind the practicalities of archives and records management to draw out their importance and relevance.
Key topics covered include:
- Records and archives: concepts, roles and definitions
- Archival appraisal: practising on shifting sand
- Arrangement and description: between theory and practice
- Ethics for archivists and records managers
- Archives, memories and identities
- Under the influence: the impact of philosophy on archives and records management
- Participation vs principle: does technological change marginalize recordkeeping theory?
This is essential reading for students and educators in archives and recordkeeping and invaluable as a guide for practitioners who want to better understand and inform their day-to-day work. It is also a useful guide across related disciplines in the information sciences and humanities.
More information: http://www.facetpublishing.co.uk/title.php?id=8255
This document provides an overview of data warehousing concepts including:
- Data warehouses store historical data from operational systems for analysis and reporting. The data passes through a staging area and operational data store for cleaning before loading into the data warehouse.
- Common data warehouse architectures include star schemas with fact and dimension tables and snowflake schemas with normalized dimensions. Data marts contain summarized data for specific business questions.
- ETL processes extract, transform, and load the data in three phases. Transformation cleans and prepares the data before loading into dimensional schemas.
- Data warehouses typically contain historical data, derived data generated from existing data, and metadata describing the data and schemas.
Rohit Sharma presented a seminar on a project that discussed data warehousing, data mining, and how to apply data warehousing concepts to project data. The presentation covered terminology, pulling together and correctly using data from multiple sources, software requirements including PHP and MySQL, and screenshots of the admin panel and user interfaces.
Promoting Electronic Thesis and Dissertation through Knowledge repository marykelem
The document discusses promoting electronic thesis and dissertation (ETD) through knowledge repositories. It defines an ETD and knowledge repository, outlining their benefits such as improved accessibility and increased citation. International ETD initiatives are described, along with Botho University's current status in establishing an ETD repository. Botho University's repository allows access to postgraduate theses and dissertations to facilitate research knowledge sharing while addressing copyright and other concerns.
The process of data warehousing is undergoing rapidtransformation, giving rise to various new terminologies, especially due to theshift from the traditional ETL to the new ELT. Forsomeone new to the process, these additional terminologies and abbreviationsmight seem overwhelming, some may even ask, “Why does it matter if the L comesbefore the T?”
The answer lies in the infrastructure and the setup. Here iswhat the fuss is all about, the sequencing of the words and more importantly,why you should be shifting from ETL to ELT.
The document discusses operational data warehousing and the Data Vault model. It begins with an agenda for the presentation and introduction of the speaker. It then provides a short review of the Data Vault model. The remainder of the document discusses operational data warehousing, how the Data Vault model is well-suited for this purpose, and the benefits it provides including flexibility, scalability, and productivity. It also discusses how tools and technologies are advancing to support automation and self-service business intelligence using an operational data warehouse architecture based on the Data Vault model.
Replacing Tape Backup with Cloud-Enabled Solutions by Index EnginesAmazon Web Services
This document provides an overview of Index Engines and their capabilities for indexing and managing unstructured backup data. Index Engines can ingest backup catalogs from various backup software, rebuild catalogs, and provide search and access to backup data without needing the original backup software. They support use cases like catalog consolidation, on-demand access to backup data for restoration, and migrating legacy tape data to the cloud. Index Engines offers bundled software and services to remotely manage legacy data migrations from tapes to cloud storage.
What is Data Warehouse?OLTP vs. OLAP, Conceptual Modeling of Data Warehouses,Data Warehousing Components, Data Warehousing Components, Building a Data Warehouse, Mapping the Data Warehouse to a Multiprocessor Architecture, Database Architectures for Parallel Processing
Archives and recordkeeping: theory into practiceFacet Publishing
This groundbreaking text demystifies archival and recordkeeping theory and its role in modern day practice.
The book's great strength is in articulating some of the core principles and issues that shape the discipline and the impact and relevance they have for the 21st century professional.
Using an accessible approach, it outlines and explores key literature and concepts and the role they can play in practice. Leading international thinkers and practitioners from the archives and records management world, Jeannette Bastian, Alan Bell, Anne Gilliland, Rachel Hardiman, Eric Ketelaar, Jennifer Meehan and Caroline Williams, consider the concepts and ideas behind the practicalities of archives and records management to draw out their importance and relevance.
Key topics covered include:
- Records and archives: concepts, roles and definitions
- Archival appraisal: practising on shifting sand
- Arrangement and description: between theory and practice
- Ethics for archivists and records managers
- Archives, memories and identities
- Under the influence: the impact of philosophy on archives and records management
- Participation vs principle: does technological change marginalize recordkeeping theory?
This is essential reading for students and educators in archives and recordkeeping and invaluable as a guide for practitioners who want to better understand and inform their day-to-day work. It is also a useful guide across related disciplines in the information sciences and humanities.
More information: http://www.facetpublishing.co.uk/title.php?id=8255
ETL extracts raw data from sources, transforms it on a separate server, and loads it into a target database. ELT loads raw data directly into a data warehouse, where data cleansing, enrichment, and transformations occur. While ETL has been used longer and has more supporting tools, ELT allows for faster queries, greater flexibility, and takes advantage of cloud data warehouse capabilities by performing transformations within the warehouse. However, ELT can present greater security risks and increased latency compared to ETL.
The document provides an overview of key concepts in data warehousing and business intelligence, including:
1) It defines data warehousing concepts such as the characteristics of a data warehouse (subject-oriented, integrated, time-variant, non-volatile), grain/granularity, and the differences between OLTP and data warehouse systems.
2) It discusses the evolution of business intelligence and key components of a data warehouse such as the source systems, staging area, presentation area, and access tools.
3) It covers dimensional modeling concepts like star schemas, snowflake schemas, and slowly and rapidly changing dimensions.
This topic was presented at a "Workshop On Best Practices in Library: Digital Library" Organised by Rabindra Library, Assam University, Silchar on November 29, 2013
Data Lake or Data Warehouse? Data Cleaning or Data Wrangling? How to Ensure t...Anastasija Nikiforova
This presentation was delivered as part of the Data Science Seminar titled “When, Why and How? The Importance of Business Intelligence“ organized by the Institute of Computer Science (University of Tartu) in cooperation with Swedbank.
In this presentation I talked about:
*“Data warehouse vs. data lake – what are they and what is the difference between them?” (structured vs unstructured, static vs dynamic (real-time data), schema-on-write vs schema on-read, ETL vs ELT) with further elaboration on What are their goals and purposes? What is their target audience? What are their pros and cons?
*“Is the Data warehouse the only data repository suitable for BI?” – no, (today) data lakes can also be suitable. And even more, both are considered the key to “a single version of the truth”. Although, if descriptive BI is the only purpose, it might still be better to stay within data warehouse. But, if you want to either have predictive BI or use your data for ML (or do not have a specific idea on how you want to use the data, but want to be able to explore your data effectively and efficiently), you know that a data warehouse might not be the best option.
*“So, the data lake will save my resources a lot, because I do not have to worry about how to store /allocate the data – just put it in one storage and voila?!” – no, in this case your data lake will turn into a data swamp! And you are forgetting about the data quality you should (must!) be thinking of!
*“But how do you prevent the data lake from becoming a data swamp?” – in short and simple terms – proper data governance & metadata management is the answer (but not as easy as it sounds – do not forget about your data engineer and be friendly with him [always… literally always :D) and also think about the culture in your organization.
*“So, the use of a data warehouse is the key to high quality data?” – no, it is not! Having ETL do not guarantee the quality of your data (transform&load is not data quality management). Think about data quality regardless of the repository!
*“Are data warehouses and data lakes the only options to consider or are we missing something?“– true! Data lakehouse!
*“If a data lakehouse is a combination of benefits of a data warehouse and data lake, is it a silver bullet?“– no, it is not! This is another option (relatively immature) to consider that may be the best bit for you, but not a panacea. Dealing with data is not easy (still)…
In addition, in this talk I also briefly introduced the ongoing research into the integration of the data lake as a data repository and data wrangling seeking for an increased data quality in IS. In short, this is somewhat like an improved data lakehouse, where we emphasize the need of data governance and data wrangling to be integrated to really get the benefits that the data lakehouses promise (although we still call it a data lake, since a data lakehouse is nut sufficiently mature concept with different definitions of it).
The document discusses evolving data warehousing strategies and architecture options for implementing a modern data warehousing environment. It begins by describing traditional data warehouses and their limitations, such as lack of timeliness, flexibility, quality, and findability of data. It then discusses how data warehouses are evolving to be more modern by handling all types and sources of data, providing real-time access and self-service capabilities for users, and utilizing technologies like Hadoop and the cloud. Key aspects of a modern data warehouse architecture include the integration of data lakes, machine learning, streaming data, and offering a variety of deployment options. The document also covers data lake objectives, challenges, and implementation options for storing and analyzing large amounts of diverse data sources.
Denodo as the Core Pillar of your API StrategyDenodo
Watch full webinar here: https://buff.ly/2KTz2IB
Most people associate data virtualization with BI and analytics. However, one of the core ideas behind data virtualization is the decoupling of the consumption method from the data model. Why should the need for data requests in JSON over HTTP require extra development? Denodo provides immediate access to its datasets via REST, OData 4, GeoJSON and other protocols, with no coding involved. Easy to scale, cloud friendly and ready to integrate with API management tools, Denodo can be the perfect tool to fulfill your API strategy!
Attend this session to learn:
- What’s the role of Denodo in an API strategy
- Integration between Denodo and other elements of the API stack, like API management tools
- How easy it is to access Denodo as a RESTful endpoint
- Advanced options of Denodo web services: OAuth, OpenAPI, geographical capabilities, etc.
A Data Lake is a storage repository that can store large amount of structured, semi-structured, and unstructured data. It is a place to store every type of data in its native format with no fixed limits on account size or file. It offers high data quantity to increase analytic performance and native integration.
Data Lake is like a large container which is very similar to real lake and rivers. Just like in a lake you have multiple tributaries coming in, a data lake has structured data, unstructured data, machine to machine, logs flowing through in real-time.
This is the presentation for the talk I gave at JavaDay Kiev 2015. This is about an evolution of data processing systems from simple ones with single DWH to the complex approaches like Data Lake, Lambda Architecture and Pipeline architecture
The document discusses three main records management models:
1) The European Administrative model which does not distinguish between records and documents and is managed by administrative staff with no clear retention schedules.
2) The Lifecycle model conceived in the 1930s which defines the lifecycle of a record from creation to disposal and is based on a linear timeline. It separates records management and archival functions.
3) The Records Continuum model which defines records management as a continuum with four dimensions of time and space. It abolishes differences between archivists and records managers.
ELT vs. ETL - How they’re different and why it mattersMatillion
ELT is a fundamentally better way to load and transform your data. It’s faster. It’s more efficient. And Matillion’s browser-based interface makes it easier than ever to work with your data. You’re using data to improve your world: shouldn’t the tools you use return the favor?
In this webinar:
- Explore the differences between ELT and ETL
- Learn why ELT is a better, more modern process
- Discover the latest trends in ELT and how they apply to your business
- Find out how Matillion ETL makes loading large amounts of data easier
The document discusses the pros and cons of staging data warehouses using Extract, Transform, Load (ETL) versus Extract, Load, Transform (ELT). Some key advantages of ETL include reducing development time by only extracting relevant data, simplifying administration through targeted data loads, and flexibility in tool selection. However, ETL can limit flexibility for future requirements and necessitate additional hardware. ELT enables project management in smaller chunks, flexibility for future needs, and risk minimization through isolated processes, but availability of mature tools is still limited as the technology is emerging.
Open Archives Initiatives For Metadata HarvestingNikesh Narayanan
The Open Archives Initiative Protocol for Metadata Harvesting (OAI-PMH) provides a simple but effective mechanism for metadata harvesting. It allows service providers to aggregate content from data providers to build value-added services. The OAI-PMH uses HTTP and XML to share metadata in any agreed format, with Dublin Core as a baseline. It defines a set of verbs and standards for harvesting metadata from repositories in a consistent way. This interoperability has helped surface resources and build services across independently developed digital libraries.
A data warehouse is a central repository for storing historical and integrated data from multiple sources to be used for analysis and reporting. It contains a single version of the truth and is optimized for read access. In contrast, operational databases are optimized for transaction processing and contain current detailed data. A key aspect of data warehousing is using a dimensional model with fact and dimension tables. This allows for analyzing relationships between measures and dimensions in a multi-dimensional structure known as a data cube.
8 Reasons You Need an Electronic Document Management SystemHelpSystems
Want to go paperless in the office and boost employee productivity? View this slideshow to learn how you can with an electronic document management system.
Library is the heart of any educational institutions. Nowadays there are two basic form of library, one is traditional library and another is digital library. Traditional library is the library to collection the information in print form like books, journals etc. and digital library is the library to collection information with associated services, where the information is stored in digital format like text, video, audio etc. and accessible over a network. According to Bala and Sagar(2014, 369p.) “Library as an institution has played an important role in the progress of civilization. In the modern age the library users need accurate, current and pinpointed information, and there expectation also high”. Due to lack of time no body have time to visit a library and search catalogue cards. Most of the users prefer the digital resources because these can be used anytime and by everyone over the Internet.
ETL extracts raw data from sources, transforms it on a separate server, and loads it into a target database. ELT loads raw data directly into a data warehouse, where data cleansing, enrichment, and transformations occur. While ETL has been used longer and has more supporting tools, ELT allows for faster queries, greater flexibility, and takes advantage of cloud data warehouse capabilities by performing transformations within the warehouse. However, ELT can present greater security risks and increased latency compared to ETL.
The document provides an overview of key concepts in data warehousing and business intelligence, including:
1) It defines data warehousing concepts such as the characteristics of a data warehouse (subject-oriented, integrated, time-variant, non-volatile), grain/granularity, and the differences between OLTP and data warehouse systems.
2) It discusses the evolution of business intelligence and key components of a data warehouse such as the source systems, staging area, presentation area, and access tools.
3) It covers dimensional modeling concepts like star schemas, snowflake schemas, and slowly and rapidly changing dimensions.
This topic was presented at a "Workshop On Best Practices in Library: Digital Library" Organised by Rabindra Library, Assam University, Silchar on November 29, 2013
Data Lake or Data Warehouse? Data Cleaning or Data Wrangling? How to Ensure t...Anastasija Nikiforova
This presentation was delivered as part of the Data Science Seminar titled “When, Why and How? The Importance of Business Intelligence“ organized by the Institute of Computer Science (University of Tartu) in cooperation with Swedbank.
In this presentation I talked about:
*“Data warehouse vs. data lake – what are they and what is the difference between them?” (structured vs unstructured, static vs dynamic (real-time data), schema-on-write vs schema on-read, ETL vs ELT) with further elaboration on What are their goals and purposes? What is their target audience? What are their pros and cons?
*“Is the Data warehouse the only data repository suitable for BI?” – no, (today) data lakes can also be suitable. And even more, both are considered the key to “a single version of the truth”. Although, if descriptive BI is the only purpose, it might still be better to stay within data warehouse. But, if you want to either have predictive BI or use your data for ML (or do not have a specific idea on how you want to use the data, but want to be able to explore your data effectively and efficiently), you know that a data warehouse might not be the best option.
*“So, the data lake will save my resources a lot, because I do not have to worry about how to store /allocate the data – just put it in one storage and voila?!” – no, in this case your data lake will turn into a data swamp! And you are forgetting about the data quality you should (must!) be thinking of!
*“But how do you prevent the data lake from becoming a data swamp?” – in short and simple terms – proper data governance & metadata management is the answer (but not as easy as it sounds – do not forget about your data engineer and be friendly with him [always… literally always :D) and also think about the culture in your organization.
*“So, the use of a data warehouse is the key to high quality data?” – no, it is not! Having ETL do not guarantee the quality of your data (transform&load is not data quality management). Think about data quality regardless of the repository!
*“Are data warehouses and data lakes the only options to consider or are we missing something?“– true! Data lakehouse!
*“If a data lakehouse is a combination of benefits of a data warehouse and data lake, is it a silver bullet?“– no, it is not! This is another option (relatively immature) to consider that may be the best bit for you, but not a panacea. Dealing with data is not easy (still)…
In addition, in this talk I also briefly introduced the ongoing research into the integration of the data lake as a data repository and data wrangling seeking for an increased data quality in IS. In short, this is somewhat like an improved data lakehouse, where we emphasize the need of data governance and data wrangling to be integrated to really get the benefits that the data lakehouses promise (although we still call it a data lake, since a data lakehouse is nut sufficiently mature concept with different definitions of it).
The document discusses evolving data warehousing strategies and architecture options for implementing a modern data warehousing environment. It begins by describing traditional data warehouses and their limitations, such as lack of timeliness, flexibility, quality, and findability of data. It then discusses how data warehouses are evolving to be more modern by handling all types and sources of data, providing real-time access and self-service capabilities for users, and utilizing technologies like Hadoop and the cloud. Key aspects of a modern data warehouse architecture include the integration of data lakes, machine learning, streaming data, and offering a variety of deployment options. The document also covers data lake objectives, challenges, and implementation options for storing and analyzing large amounts of diverse data sources.
Denodo as the Core Pillar of your API StrategyDenodo
Watch full webinar here: https://buff.ly/2KTz2IB
Most people associate data virtualization with BI and analytics. However, one of the core ideas behind data virtualization is the decoupling of the consumption method from the data model. Why should the need for data requests in JSON over HTTP require extra development? Denodo provides immediate access to its datasets via REST, OData 4, GeoJSON and other protocols, with no coding involved. Easy to scale, cloud friendly and ready to integrate with API management tools, Denodo can be the perfect tool to fulfill your API strategy!
Attend this session to learn:
- What’s the role of Denodo in an API strategy
- Integration between Denodo and other elements of the API stack, like API management tools
- How easy it is to access Denodo as a RESTful endpoint
- Advanced options of Denodo web services: OAuth, OpenAPI, geographical capabilities, etc.
A Data Lake is a storage repository that can store large amount of structured, semi-structured, and unstructured data. It is a place to store every type of data in its native format with no fixed limits on account size or file. It offers high data quantity to increase analytic performance and native integration.
Data Lake is like a large container which is very similar to real lake and rivers. Just like in a lake you have multiple tributaries coming in, a data lake has structured data, unstructured data, machine to machine, logs flowing through in real-time.
This is the presentation for the talk I gave at JavaDay Kiev 2015. This is about an evolution of data processing systems from simple ones with single DWH to the complex approaches like Data Lake, Lambda Architecture and Pipeline architecture
The document discusses three main records management models:
1) The European Administrative model which does not distinguish between records and documents and is managed by administrative staff with no clear retention schedules.
2) The Lifecycle model conceived in the 1930s which defines the lifecycle of a record from creation to disposal and is based on a linear timeline. It separates records management and archival functions.
3) The Records Continuum model which defines records management as a continuum with four dimensions of time and space. It abolishes differences between archivists and records managers.
ELT vs. ETL - How they’re different and why it mattersMatillion
ELT is a fundamentally better way to load and transform your data. It’s faster. It’s more efficient. And Matillion’s browser-based interface makes it easier than ever to work with your data. You’re using data to improve your world: shouldn’t the tools you use return the favor?
In this webinar:
- Explore the differences between ELT and ETL
- Learn why ELT is a better, more modern process
- Discover the latest trends in ELT and how they apply to your business
- Find out how Matillion ETL makes loading large amounts of data easier
The document discusses the pros and cons of staging data warehouses using Extract, Transform, Load (ETL) versus Extract, Load, Transform (ELT). Some key advantages of ETL include reducing development time by only extracting relevant data, simplifying administration through targeted data loads, and flexibility in tool selection. However, ETL can limit flexibility for future requirements and necessitate additional hardware. ELT enables project management in smaller chunks, flexibility for future needs, and risk minimization through isolated processes, but availability of mature tools is still limited as the technology is emerging.
Open Archives Initiatives For Metadata HarvestingNikesh Narayanan
The Open Archives Initiative Protocol for Metadata Harvesting (OAI-PMH) provides a simple but effective mechanism for metadata harvesting. It allows service providers to aggregate content from data providers to build value-added services. The OAI-PMH uses HTTP and XML to share metadata in any agreed format, with Dublin Core as a baseline. It defines a set of verbs and standards for harvesting metadata from repositories in a consistent way. This interoperability has helped surface resources and build services across independently developed digital libraries.
A data warehouse is a central repository for storing historical and integrated data from multiple sources to be used for analysis and reporting. It contains a single version of the truth and is optimized for read access. In contrast, operational databases are optimized for transaction processing and contain current detailed data. A key aspect of data warehousing is using a dimensional model with fact and dimension tables. This allows for analyzing relationships between measures and dimensions in a multi-dimensional structure known as a data cube.
8 Reasons You Need an Electronic Document Management SystemHelpSystems
Want to go paperless in the office and boost employee productivity? View this slideshow to learn how you can with an electronic document management system.
Library is the heart of any educational institutions. Nowadays there are two basic form of library, one is traditional library and another is digital library. Traditional library is the library to collection the information in print form like books, journals etc. and digital library is the library to collection information with associated services, where the information is stored in digital format like text, video, audio etc. and accessible over a network. According to Bala and Sagar(2014, 369p.) “Library as an institution has played an important role in the progress of civilization. In the modern age the library users need accurate, current and pinpointed information, and there expectation also high”. Due to lack of time no body have time to visit a library and search catalogue cards. Most of the users prefer the digital resources because these can be used anytime and by everyone over the Internet.
Power point d'un cours d'info-doc dispensé en 2015 à des étudiants de Licence pro Ressources numériques de l'ITIC de Montpellier (Université Montpellier III)
Archivage pour les communes - Comment organiser vos archives papier et numéri...Gilliane Kern
L'information est aujourd’hui hybride : les documents papier côtoient de plus en plus les données numériques. L’archivage dans vos communes doit s’adapter à cette situation.
Notre entreprise, riche de quinze ans d’expérience, a travaillé pour plus de deux cents communes de toute la Suisse. Nous maîtrisons non seulement la gestion de vos archives papier, mais aussi la gestion et la conservation à long terme de vos données numériques. Nous offrons une solution complète, intuitive et abordable d’archivage électronique, docuteam cosmos (http://cosmos.docuteam.ch/).
Support de la présentation faite en ligne le 16 juin 2020 par :
Gilliane Kern, conseillère en gestion documentaire chez docuteam
Nathalie Guillod-Falconet, responsable de l'équipe gestion d’archives chez docuteam
Programme :
- Présentation de l'entreprise docuteam
- La gestion de l'information et des archives aujourd'hui - papier et électronique
- Traitement de l'arriéré et des vracs : le travail de l'archiviste
- Dématérialisation de l'administration : les principes de la gestion documentaire
- Conclusion et discussion
https://www.docuteam.ch/2020/07/13/archivage-pour-les-communes-presentation-en-ligne/
Usages des ressources électroniques en libre accès dans les BU et SCDOpenEdition
Comment les ressources électroniques en libre accès sont-elles traitées dans les bibliothèques universitaires et services communs de documentation ? La question mérite d'être posée dans la mesure où, pouvant être accédées en dehors de l'intermédiation bibliothécaire, ces ressources interrogent à leur tour les fonctions que peuvent assumer les bibliothèques dans la nouvelle économie documentaire du numérique. Si ces institutions ont fortement participé au cours des dernières années au mouvement du libre accès, en soutenant la mise en place d’archives ouvertes par exemple, et en accompagnant les chercheurs dans les pratiques d’auto-archivage de leur production scientifique (Green OA), leur implication au niveau de l’autre voie du libre accès – la production de ressources éditées comme des revues électroniques (Gold OA) est moins naturelle. L’activité de référencement et de valorisation de ces ressources d’accès libre peut en effet être a priori appréhendée comme étant en décalage par rapport à l’activité souveraine des bibliothèques qui consiste à acquérir (l’accès à) des ressources documentaires pour les mettre à disposition de leur public. Il reste à se demander si ce décalage voire cette contradiction théorique entre les deux types d’activités est confirmée dans l’observation concrète que l’on peut faire des pratiques documentaires dans les bibliothèques.
Gestion documentaire d’un grand projet par l’exemple du CHUM, un projet en soi!PMI-Montréal
Julie Leblanc, Danielle Dufour and Jean Martel, CHUM et SNC-Lavalin
On dit souvent que la gestion de projet se résume à 90% de communication…Le PMBOK prévoit un chapitre spécialement pour ce domaine de connaissance : « La gestion des communications d’un projet ».La diffusion de l’information prend toute sa place pour les parties prenantes d’un projet qui désirent disposer rapidement d’une quantité souvent impressionnantes d’informations en temps voulu.
Dans le cadre du méga projet du type du CHUM, nos conférenciers (ères) vous présenteront quels médias ont mis en place pour les processus de collecte, de récupération et de diffusion de l’information.
Diagnostic des infrastructures eau en milieu industriel – 12 mars 2024Cluster H2O
Ce mardi 12 mars, le Cluster H2O et la BEMAS étaient à Nivelles. Ils ont collaboré pour organiser une après-midi dédiée au diagnostic des infrastructures eau en industrie. L’objectif était de sensibiliser les participants à une gestion plus durable de l’eau en industrie en les invitant à se poser les bonnes questions quant à leurs investissements.
Pour ce faire, diverses présentations étaient à l’ordre du jour :
Le Cebedeau a dans un premier temps présenté un outil permettant de réaliser un « audit eau » évaluant ainsi la qualité de l’eau utilisée sur un site industriel. Enfin, le deuxième outil permet le calcul simplifié de l’empreinte hydrique des produits et des sites industriels.
Le Celabor a ensuite parlé de la qualité de l’eau en industrie et des usages permis en fonction de cette qualité.
GlobeZenit a présenté des solutions techniques permettant de repérer, caractériser et de cartographier les réseaux d’eau.
La SWDE a présenté EasyConso, sa solution de gestion intelligente de la consommation d’eau en industrie et qui permet notamment de détecter les fuites.
Les présentation se sont terminées par un exemple inspirant en terme de gestion de l’eau sur un site industriel. En effet, Takeda nous a parlé de son plan pour devenir 100% autonome en termes de consommation et gestion de l’eau, mais aussi d’énergie.
L’après-midi s’est clôturée par un drink où les participants ont eu l’occasion de faire du networking et de discuter des différentes présentations.
Le Cluster H2O et la BEMAS remercient les orateurs pour la qualité et la pertinence de leur présentation.
Une médiathèque numérique ? Exemple de la médiathèque de Berre l'étangCasse2
Présentation de la médiathèque de Berre l'étang dans le cadre de la formation des étudiants en master 1 "Métiers des archives et des bibliothèques. Médiation de l'histoire et humanités numériques". Présentation assurée par les agents de la médiathèque Edmonde Charles-Roux Defferre de Berre l'étang le 07 novembre 2016.
Les archives du département de la Gironde, de la Ville de Bordeaux et de la Métropole de Bordeaux ont mis en place un système d'archivage mutualisé leur permettant de gérer leurs documents tout au long de leur cycle de vie, depuis leur conception initiale jusqu'à leur archivage. Ce système repose sur diverses applications logiciel libre prenant chacune en charge une partie du cycle de vie des documents (Alfresco pour la GED courante, Asalae pour l'archivage, etc.)
Dans le cadre de ce système, lors du passage d'un outil à l'autre, un grand nombre de métadonnées sont perdues et doivent donc être ressaisies. D'où l'idée de mettre en place un référentiel commun qui va constituer un pivot sur lequel s'appuient les autres outils, et qui va conserver et enrichir les métadonnées d'un document tout au long de son cycle de vie, au fil de ses passages d'une application à l'autre. Ces métadonnées sont, par exemple, le rangement dans des
plans de classement, les agents étant intervenus sur le document, les étapes du processus de validation, etc.)
Dans le cadre d'un marché public, Logilab développe le référentiel commun du système d'archivage pour le compte du Conseil Départemental de la Gironde, de la Métropole de Bordeaux et de la Ville de Bordeaux.
La présentation présente l'outil logiciel libre qui a vocation à être partagé avec d'autres institutions rencontrant une problématique similaire, mais également de revenir sur le projet lui-meme qui implique de nombreux acteurs et a été géré avec une méthode agile et divers outils innovants (MVP, UX Design, etc.)
Voir http://saem.e-bordeaux.org/projet-module-r%C3%A9f%C3%A9rentiel pour plus de détails.
Forum des archivistes genevois du 25 septembre 2023:
La carte postale dans tous ses états: histoire et valorisation des archives de l’entreprise Jaeger
Stratégie en matière de libre accès aux données publiques (open data) de l'administration genevoise: présentation de Pascal Oehrli et Patrick Genoud, Office cantonal des systèmes d’information et du numérique, au Forum des archivistes de l'arc lémanique du 19 novembre 2018
La législation genevoise en matière d’Open Data: présentation de Jean-Daniel Zeller, Président de la commission consultative en matière de protection des données, de transparence et d’archives publiques, au Forum des archivistes de l'arc lémanique du 19 novembre 2018
Pourquoi et comment les Archives fédérales suisses ont pris le leadership sur les données publiques ouvertes: présentation d'Andreas Kellerhals, Délégué du DFI pour les données ouvertes de l’administration, au Forum des archivistes de l'arc lémanique du 19 novembre 2018
"Le Matterhorn RDF Data Model: Implémentation des modèles d’information OAIS et RiC dans le cadre des technologies sémantiques"
Présentation donnée au Forum des archivistes de l'arc lémanique, le 11 septembre 2017.
Publiée en ligne avec l'aimable autorisation de Tobias Wildi et Alain Dubois.
"Qu’est-ce que le RiC et qu’apporte–t-il?"
Présentation donnée au Forum des archivistes de l'arc lémanique, le 11 septembre 2017, sur le nouveau standard de description archivistique, Records in Context.
Publiée en ligne avec l'aimable autorisation de Jean-Daniel Zeller.
"Le cycle de vie: quelle évolution, quelles utilités?"
Présentation donnée au Forum des archivistes de l'arc lémanique, le 12 octobre 2015.
Publiée en ligne avec l'aimable autorisation de Gilliane Kern (Docuteam)
Présentation par Elisabeth Bühlmann Herzog (Fontis International) au Forum des archivistes du 1er juin 2015 (Un pour tous, tous pour un. Retour d’expérience sur la révision d’un calendrier de conservation pour une banque multinationale)
Présentation par Joël Aeby (Archives fédérales suisses) au Forum des archivistes du 15 septembre 2014 (Réflexions autour des portails d’archives en ligne: trois exemples d’utilisation par des institutions suisses)
Présentation par Thomas Neukom (Archives d'Etat de Zurich) et Gerold Ritter (manager, Archives Online) au Forum des archivistes du 15 septembre 2014 (Réflexions autour des portails d’archives en ligne: trois exemples d’utilisation par des institutions suisses)
Présentation par Alain Dubois (Archives de l'Etat du Valais) au Forum des archivistes du 15 septembre 2014 (Réflexions autour des portails d’archives en ligne: trois exemples d’utilisation par des institutions suisses)
1) The document discusses 10 principles of access to archives established by the International Council on Archives, including the right of public access, making the existence of archives known even if closed, adopting a proactive approach, having clear and time-limited restrictions, ensuring equal access, and facilitating access for human rights investigations.
2) It provides examples to illustrate each principle, such as access to records on atomic testing, residential schools, and human rights abuses.
3) The principles also address the rights of archivists to work with closed archives and participate in access decisions, and the right of users to appeal access denials.
This document outlines the structure and components of a METS (Metadata Encoding and Transmission Standard) file including sections for descriptive, administrative, and structural metadata as well as file maps. It also includes sections on PREMIS (PREservation Metadata: Implementation Strategies) objects, events, agents, and rights statements. Other components summarized are ISDF (International Standard Description Form), PDI (Preservation Description Information), PRONOM (technical registry for file format identification and characterization), submission agreements, and standards for archival description including ISAD(G) and ISAAR(CPF).
Séance du Forum des archivistes du 5 décembre 2011. Document mis en ligne avec l'aimable autorisation de ses auteurs, Cristina Bianchi et Didier Grange
Mehr von Forum des archivistes de l'arc lémanique (20)
1. Rétro-escalade sur la notion
de cycle de vie
Michel Cottin – Archivist, Digital curator – Archives nationales du Luxembourg
Gilliane Kern – conseillère en gestion documentaire – docuteam
Forum des archivistes genevoises, lundi 31 octobre 2022
2. Nous avions déjà eu rendez-vous
12 octobre 2015 – Le cycle de de vie : quelle évolution, quelles utilités
https://www.cairn.info/revue-les-cahiers-du-numerique-2015-2-page-37.htm
2
3. Article « Cinquante nuances de cycles de vie »
(2015)
Rappel des points essentiels de
l’article :
• Constat sur les publications de
schémas conceptuels
• Classification de 50 cycles
et 4 principaux modèles
• Le terrain du numérique pas ou
peu couvert malgré des
spécificités
3
4. 31 octobre 2022 : quelles nouveautés
• Le cycle en 3 âges est toujours utilisé, mais transgressé
• Représentations circulaires « nouvelles » continuent
• Quid du records continuum ?
• « Case management » ou « gestion électronique des affaires »
(GEVER)
• Des cas de records management « no life cycle »
• La réflexion en cours au Luxembourg
• À suivre ???
4
5. La théorie des 3 âges vit encore
Le cycle en 3 âges est toujours utilisé, mais transgressé.
Université d’Adelaïde : LIFE CYCLE OF RECORDS, https://www.adelaide.edu.au/library/library-
services/records-services/records-and-archives-management-handbook/life-cycle-of-records 5
6. Une norme suisse de 2014 :
3 modèles de cycles de vie d’une affaire
• Association eCH, eCH-0164 :
Modèle de cycle de vie d’une
affaire, 04.09.2014.
https://www.ech.ch/fr/standards/6
0588
• 3 modèles présentés :
1. Modèle traditionnel
2. Modèle du « tri »
3. Modèle d’archivage décentralisé
• À noter l’utilisation de la notion
d’« affaire » (et non « document »
ou « information ») !
6
7. Concept AENeas : un schéma sinusoïdal
7
République et canton de Neuchâtel, « Archivage numérique »,
https://www.ne.ch/autorites/DESC/SCNE/archives-etat/numerique/Pages/70-AENEAS.aspx.
8. Module AAS sur le cycle de vie en juin 2022
• AAS - Cycle Pratique archivistique
suisse 2022
• Module 3: Lifecycle management:
Gestion des données numériques
entre Records Management et
archivage à long terme
• Différents processus ou outils :
conventions de versements depuis
des systèmes de RM ou applications
spécialisées ; élimination de données
sans valeur archivistique ou déjà
versées préalablement ; interfaces de
versement depuis des systèmes de
gestion électronique de documents
vers les archives électroniques.
8
9. Pour rappel : Des cycles dans le cycle
Toebak Peter, Records Management: Ein Handbuch, Baden, hier + jetzt, Verl. für Kultur und Geschichte, 2007. 9
10. Les représentations circulaires
• The Digital
Curation Centre
(DCC) lifecycle
Model utilisé au
Luxembourg dans
le projet de
politique de
préservation.
Méthode SCAPE
• Quelle utilité ?
http://wiki.opf-
labs.org/display/SP/Policy
+element+template
10
11. Quid du records continuum ?
Frings-Hessami Viviane, « La Perspective du Continuum des archives illustré par l’exemple d’un document
personnel », Revue électronique suisse de science de l’information (RESSI) (19), 20.12.2018.
En ligne: <http://www.ressi.ch/num19/article_149>, consulté le 23.01.2019. 11
12. Records continuum et « case management »
• Une innovation datant de près de 30 ans ….
• En fait, ce schéma multidimensionnel ne modélise pas un cycle de vie. Il a été
développé dans les années 1990 pour expliquer les contextes complexes dans
lesquels les documents sont créés et gérés à l'ère numérique et de représenter
les différentes perspectives selon lesquelles les documents peuvent être perçus.
• Dans la pratique, les « case management » sont assez proches et proposés par
certains éditeurs comme des workflows « non séquentiels ».
• Le « case management » se définit par l’ensemble des intentions présentées dans
le but de provoquer ou de soutenir une action ou un ensemble cohérent
d’actions liés à des objectifs définis en fonction de finalités d’intérêt général, et
des résultats précis. (https://fr.wikipedia.org/wiki/Case_management)
• Le travail en « case management » n’est pas séquentiel, mais plutôt fonctionnel.
12
13. Les « cases » du secteur médical
Circuit d’intervention
l’Intake : choix par le Case Manager d’intégrer ou non le
candidat dans le programme ;
l’Assessment : évaluation globale permettant d’identifier
la problématique de la personne, ses faiblesses et les
ressources sur lesquelles elle va pouvoir s’appuyer ;
la Planification : définition des objectifs et des moyens
alloués avec le bénéficiaire ;
le Monitoring : mise en œuvre contrôlée du plan
d’intervention ;
l’Évaluation : comparaison des résultats aux objectifs,
évaluation de la satisfaction du bénéficiaire ;
la sortie ou le reassessment.
Assessment
Planning
Intervention
Monitoring
Evaluation
Intake
Sortie
David P. Moxley, The Practice of Case Management, Sage Human Service Guides, 1989
13
14. Les cases peuvent avoir de multiples
représentations de leur cycle
14
15. Le « case management » à la Suisse
• En Suisse, on parle plutôt de « elektronische Geschäftsverwaltung »,
ou « gestion électronique des affaires » (GEVER), que « case
management ».
• Définition dans la terminologie de la Confédération suisse :
• Système de gestion de l'ensemble des activités et règles de planification, de
conduite et de documentation des affaires de l'administration fédérale.
• EXP: comprend la gestion des documents liés aux dossiers (gestion des
documents liés aux affaires) et la gestion des processus d'affaires, permet de
traiter les affaires de façon efficace et efficiente dans les unités
administratives et comprend les éléments gestion des actes, contrôle des
affaires et contrôle du flux des affaires.
Confédération suisse, Terminologie GEVER (GEV09), 2011.
15
16. Exemple d’un système GEVER communal
• Structuration par affaires :
• Système de classement (avec règles de
conservation)
• Constitution de dossiers
• Clôture des affaires
• Possibilité d’exports ou d’éliminations
documentées des affaires (fichiers et
métadonnées)
Centre de coordination pour l’archivage à
long terme de documents électroniques
(CECO), « Exigences de base pour les
Records Management Systems du point de
vue archivistique », 2011, https://kost-
ceco.ch/cms/requirements_rm_fr.html.
16
17. Changement de paradigme dans les règles de
conservation : vers une évaluation pressentie
Archives d’État de Genève, Calendrier de conservation pour l’archivage
dans les communes genevoises, 01.2021.
17
18. Le système du « registry » de la Société des
nations
• Le système documentaire de gestion centralisée des
courriers et dossiers issu du Registry britannique de
1919 à 1946.
• Ce système est « décrit par lui-même » dans ses
propres dossiers :
https://archives.ungeneva.org/registry-instructions
• Projet LONTAD :
https://fr.wikipedia.org/wiki/Projet_d%27acc%C3%A8s
_num%C3%A9rique_int%C3%A9gral_aux_archives_de
_la_Soci%C3%A9t%C3%A9_des_Nations
• SDN :
https://fr.wikipedia.org/wiki/Soci%C3%A9t%C3%A9
_des_Nations
18
19. Le système du « registry » de la Société des
nations
• Le service du « registry » agissait comme dans
les normes contemporaines du Records
Management (ISO 1549, ISO 30300).
• Les documents sont enregistrés avec un
système de référencement, classés dans des
dossiers avec des métadonnées de gestion et
descriptives et communiqués avec un
enregistrement des circulations.
• En 1966, la fondation Carnegie subventionne
une opération de « classement » qui permet de
recruter Yves Pérotin pour mettre en œuvre
l’opération.
• Les « livrables » hérités de ce projet sont
essentiellement des instruments de recherche
et procédures de communication.
19
20. Le système du « registry » de la Société des
nations
• Or le système du « Registry », tout comme ce qui
est décrit dans les normes RM, n’a pas de cycle de
vie.
• On envisage des « disposals » dès le début des
années 1920, mais sur des thématiques et avec le
problème juridique de l’accord des pays membres.
1923: projet de « transmettre » aux archives après
3 ans … https://archives.ungeneva.org/ultimate-
disposal-of-registry-archives-2
20
21. Le Registry
• Mémorandum de M. LEAK
• https://archives.ungeneva.org/ultimate-
disposal-of-the-registered-archives-of-
the-secretariat-memorandum-and-
proposals
• Refonte du classement en 1928
• https://archives.ungeneva.org/modificati
ons-in-registry-system-as-from-1-january-
1928
• Pas de « lifecycle » défini : le
paradoxe de la Géorgie
• Absence de référence juridique
claire
• Vision « logistique »
• Des points que l’on retrouve
dans les normes et aussi dans
certains outils « anglo-
américains » comme les GED ou
les outils collaboratifs.
Pourquoi ? 21
22. Dans un autre registre, les dossiers par objet
dans les communes
• Les dossiers suspendus « thématiques » ou par objet !
• Ce classement est très pratique pour retrouver l’information au
quotidien (exemples : des dossiers « Animaux nuisibles » ou
« Bâtiment communal » ou « Remorques et matériel »)
22
23. Dans un autre registre, les dossiers par objet
dans les communes
• Mais ce classement est aussi très coûteux en termes de place et quand il
s’agit d’y faire du tri : on y trouve des mélanges de modes d’emplois, de
contrats valables et plus valables, etc.
• Estimation du temps nécessaire pour l’évaluation :
• 10 ml./heure pour des contenants par affaires
• 1 ml./heure pour des dossiers suspendus thématiques ou par objet
• Probablement des chiffres identiques pour faire du tri dans des systèmes de fichiers.
En l’absence de dossiers « d’affaires » et de cycle de vie, il est difficile de
faire du tri dans ces dossiers !
Et il n’est pas efficient de reprendre des dossiers de ce type dans un
système de GED/GEVER (d’autres métadonnées permettent de retrouver
ces thématiques ou objets).
23
24. Absence de cycle ou posture ?
• Ce que l’expérience de la SDN nous apprend :
• Le cycle de vie est davantage fonctionnel que séquentiel
• Avec le papier le « réservoir » est assimilé au « présentoir », avec le numérique cela
disparait
• Le cadre juridique est un appui nécessaire
• Yves Pérotin a-t-il « vu » les 3 âges à la SDN ?
• L’héritage de ces systèmes :
• La présence embryonnaire de la notion de cycle de vie dans les normes RM (y
compris pour la préservation comme OAIS)
• La notion de records management spécifique dans les outils de GED
• Pourrait-on vivre avec un « méta » cycle de vie de systèmes plus que de
documents ?
24
25. À suivre ???
• Les cycles de vie « séquentiels » sont résilients, mais gagnent en
valeur pédagogique à mesure qu’ils perdent leur pertinence
organisationnelle pour le numérique.
• Nous n’avons pas trouvé un modèle « nouveau » depuis 2015. Les
« innovations » ont près de 30 ans dans le domaine.
• Avons-nous besoin de quelque chose de nouveau ?
25
26. La discussion est ouverte
Michel Cottin
michel.cottin@an.etat.lu
@MCottin
Gilliane Kern
g.kern@docuteam.ch
@GillianeKern
26
27. Références
• Kern Gilliane, Holgado Sandra et Cottin Michel, « Cinquante nuances de cycle de vie. Quelles évolutions possibles ? », Les
Cahiers du Numérique 11 (2), 2015, pp. 37-76.
En ligne: https://doi.org/10.3166/lcn.11.2.37-76.
• David P. Moxley, The Practice of Case Management, Sage Human Service Guides, 1989.
• Le Case Management https://fr.wikipedia.org/wiki/Case_management
• Menne Haritz Angelika. La Registratur: un instrument d'organisation et de direction des processus de décision. In: La Gazette
des archives, n°170-171, 1995. Entre la gestion et la documentation historique de la recherche. Le pré-archivage en France et à
l’étranger : hier, aujourd’hui, demain (journée d’études de l’AAF, 27 janvier 1995) pp. 356-363. DOI
: https://doi.org/10.3406/gazar.1995.3364.
• Miller Thea, The German Registratur, Vancouver, University of British Columbia, 1997.
En ligne: https://open.library.ubc.ca/soa/cIRcle/collections/ubctheses/831/items/1.0087986.
• Université d’Adelaïde, LIFE CYCLE OF RECORDS, https://www.adelaide.edu.au/library/library-services/records-
services/records-and-archives-management-handbook/life-cycle-of-records.
• Association eCH, eCH-0164: Modèle de cycle de vie d’une affaire, 04.09.2014.
En ligne: https://www.ech.ch/fr/standards/60588, consulté le 04.08.2022.
• Centre de coordination pour l’archivage à long terme de documents électroniques (CECO), « Exigences de base pour les
Records Management Systems du point de vue archivistique », 2011.
En ligne: https://kost-ceco.ch/cms/requirements_rm_fr.html, consulté le 18.07.2019.
• Viviane Frings-Hessami (Monash University, Australie). La Perspective du Continuum des archives illustré par l’exemple d’un
document personnel. Ressi — 20 décembre 2018.
En ligne: http://www.ressi.ch/num19/article_149.
27
Hinweis der Redaktion
Exemples provenant des systèmes CMI Axioma, Fabasoft eGov-Suite, ECM OpenText présentés par des Archives cantonales (BE, TG, VS)