هو حاتم بن عنوان ابن يوسف، ويقال حاتم بن يوسف، كنيته أبو عبد الرحمن، من أهل بلخ، صحب شقيق بن إبراهيم البلخي وأسند الحديث عنه وعن شداد بن حكيم البلخي. وكان أستاذ أحمد بن خضرويه. وروى عنه أناس مثل حمدان بن ذي النون ومحمد بن فارس البلخيان. توفي سنة 237 للهجرة.
وأما عن سبب تسميته الأصم فقد أورد ابن خلكان في وفيات الأعيان أن امرأة جاءته لتسأله مسألة، فاتفق أن خرج منها في تلك الحالة صوت فاحمر وجهها خجلًا، فصارت كلما سألته جعل يوهمها أنه أصَمُّ ويقول لها: ارفعي صوتك، فقالت في نفسها: لم يسمع الصوت، فسمي لذلك الأصَمَّ.
แนะนำการใช้ Point Of Sales Software บริหารการจัดการในร้านยา
โดย ภก. จักรกริศน์ พิพัฒนปัญญกูล
งานประชุมสมาคมร้านขายยา
อาทิตย์ที่ 27 มค. 2556
โรงแรม The Twin Tower Hotel
Neo4j Use Cases - Graphdatenbanken im EinsatzNeo4j
Wenn es an der Zeit ist eine Datenbank für Ihr Projekt auszuwählen, gibt es inzwischen eine verwirrende Anzahl von Auswahlmöglichkeiten. Woher wissen Sie, wann Ihr Projekt gut für eine relationale Datenbank ist, oder ob einer der vielen NoSQL-Optionen eine bessere Wahl darstellt?
In diesem Webinar betrachten wir wann Neo4j zum Einsatz kommen sollte und wo die Vorzüge darin liegen. Dies wird anhand von Kundenbeispielen mit konkreten Einsatzszenerien erläutert.
هو حاتم بن عنوان ابن يوسف، ويقال حاتم بن يوسف، كنيته أبو عبد الرحمن، من أهل بلخ، صحب شقيق بن إبراهيم البلخي وأسند الحديث عنه وعن شداد بن حكيم البلخي. وكان أستاذ أحمد بن خضرويه. وروى عنه أناس مثل حمدان بن ذي النون ومحمد بن فارس البلخيان. توفي سنة 237 للهجرة.
وأما عن سبب تسميته الأصم فقد أورد ابن خلكان في وفيات الأعيان أن امرأة جاءته لتسأله مسألة، فاتفق أن خرج منها في تلك الحالة صوت فاحمر وجهها خجلًا، فصارت كلما سألته جعل يوهمها أنه أصَمُّ ويقول لها: ارفعي صوتك، فقالت في نفسها: لم يسمع الصوت، فسمي لذلك الأصَمَّ.
แนะนำการใช้ Point Of Sales Software บริหารการจัดการในร้านยา
โดย ภก. จักรกริศน์ พิพัฒนปัญญกูล
งานประชุมสมาคมร้านขายยา
อาทิตย์ที่ 27 มค. 2556
โรงแรม The Twin Tower Hotel
Neo4j Use Cases - Graphdatenbanken im EinsatzNeo4j
Wenn es an der Zeit ist eine Datenbank für Ihr Projekt auszuwählen, gibt es inzwischen eine verwirrende Anzahl von Auswahlmöglichkeiten. Woher wissen Sie, wann Ihr Projekt gut für eine relationale Datenbank ist, oder ob einer der vielen NoSQL-Optionen eine bessere Wahl darstellt?
In diesem Webinar betrachten wir wann Neo4j zum Einsatz kommen sollte und wo die Vorzüge darin liegen. Dies wird anhand von Kundenbeispielen mit konkreten Einsatzszenerien erläutert.
Mit ChatGPT Dinosaurier besiegen - Möglichkeiten und Grenzen von LLM für die ...QAware GmbH
Generative AI for Developers, 27.05.2024, Bonn (Martin Binder, Lead IT Consultant bei QAware)
Die kritische Infrastruktur wird nach wie vor von Dinosauriersystemen aus dem letzten Jahrtausend getragen. Die Ablösung dieser Altsysteme ist ein drängendes Problem der Digitalisierung in Deutschland. In meinem Projekt musste ich in wenigen Wochen ein 30 Jahre altes System auf Basis von IBM iSeries (AS/400) mit RPG-Code analysieren. Überraschenderweise kannte ChatGPT die RGP-Referenz von IBM. Mithilfe von ChatGPT konnte ich mich schnell einarbeiten und so ein brauchbares Arbeitsverständnis des Systems erreichen. Aber wo Licht ist, ist auch Schatten: ChatGPT hat kein Kontextverständnis, ist unvollständig und neigt zu Fehlschlüssen. Als Vorgeschmack hier der Powermove: ChatGPT nach jeder Antwort grundsätzlich danach fragen, was es falsch gemacht hat. Du wirst überrascht sein!
"Hybrid Architectures, Data Lakes + Data Warehouse"
The big data discussion continues and the practice shows that Data Lakes do not replace but complement Data Warehouse. Which new scenarios are possible? What are the strengths of hybrid architectures, ie the combination of Data Lakes and Data Warehouses?
Product Update: Infopark Cloud Express - Thomas WittJustRelate
Thomas Witt, Director Business & Product Development, stellt Neuigkeiten zum Infopark Cloud Express vor:
- Architektur: CMS, WebCRM, Elastic Web-Platform
- Skalierbarkeit, Datensicherheit, Content, Distribution Networks
- Migration zum Infopark Cloud Express
Analytics meets Big Data – R/Python auf der Hadoop/Spark-PlattformRising Media Ltd.
Big Data verändert nicht nur die Unternehmens-IT fundamental, sondern auch die Arbeit des Analysten. Die klassischen Analysten sehen sich im Zuge des Wandels zu einer datengetriebenen Unternehmenskultur mit neuen Anforderungen und ungewohnten technologischen Plattformen konfrontiert. Sie müssen als Data Scientist fachliche Fragestellungen unter dem Aspekt der Big Data-Technologien umsetzen, visualisieren und aus den Daten Werte generieren. Anhand eines konkreten Use Cases, der Programmierung eines Recommender-Systems, zeigen wir Ansätze, wie sich die gewohnten Vorgehensweisen und Werkzeuge eines Analysten (namentlich R und Python) mit einer Big Data-Technologie (Spark) kombinieren lassen. Ziel ist es, dem Analysten den Einstieg in die Big Data-Welt zu erleichtern. Wir demonstrieren die Arbeit mit diesem Toolset an anschaulichen Beispielen in einem interaktiven Workshop-Format und laden zur Diskussion und Nachahmung dieser Vorgehensweise ein. Der Workshop richtet sich an Teilnehmer mit Grundkenntnissen aus den Bereichen analytische Methoden und Machine Learning sowie R oder Python. Der Workshop wird auf der Spark-Plattform durchgeführt. Zu Spark werden keine Kenntnisse vorausgesetzt.
Dataservices - Data Processing mit MicroservicesQAware GmbH
IT-Tage 2018, Frankfurt: Vortrag von Mario-Leander Reimer (@LeanderReimer, Cheftechnologe bei QAware)
=== Dokument bitte herunterladen für bessere Lesbarkeit! ===
Abstract: Data Processing und Microservices sind ein perfektes Gespann. In dieser Kombination können Microservices dazu verwendet werden, ein flexibles, Event-getriebenes und skalierbares System von lose gekoppelten Datenverarbeitungsaufgaben aufzubauen. Diesen Ansatz nennen wir Dataservices.
In diesem Vortrag stellen wir zunächst die wesentlichen Konzepte und einige Schlüsseltechnologien vor, um Dataservice-Architekturen zu realisieren. Anschließend werden wir die einzelnen Bestandteile einer exemplarischen Datenverarbeitungs-Pipeline schrittweise komponieren und die Showcase-Pipeline in der Cloud zur Ausführung bringen und skalieren.
Wie baut man ein privates Amazon AWS mit Open Source? In diesem Vortag wird die Realisierung einer privaten Cloud vom Konzept bis hin zum produktiven System vorgestellt.
Die Abstraktion von einzelnen Servern, Festplatten und Netzwerkverbindungen zu allgemein verfügbaren Rechen- und Speicherressourcen ist die Grundidee des Cloud Computing. Hardware wird dadurch zu einer flexiblen Ressource, die sich agil und kosteneffizient nutzen lässt. Amazon hat mit AWS diese Idee als Public Cloud für die breite Öffentlichkeit zugänglich gemacht.
Es gibt jedoch gute Gründe eine eigene, private Cloud zu bauen. Diese Gründe können Sicherheitsbedenken und rechtliche Kriterien sein. Zudem erleichtert die vollständige Kontrolle des gesamten Protokollstacks die Entwicklung und Wartung von verteilten und hochverfügbaren Systemen.
Dr. Lukas Pustina und Daniel Schneller von der codecentric AG haben für das Startup CenterDevice eine private Cloud vom Konzept bis zum produktiven Einsatz realisiert. Dabei wurde ausschließlich Open Source eingesetzt und ein "privates Amazon” geschaffen. In dieser Cloud laufen eine Produktions- und verschiedene Staging und Testumgebungen.
In diesem Vortrag sollen anhand der Entstehungsgeschichte der CenterDevice Cloud konkret Konzepte, Entscheidungen und Probleme erläutert werden. Dabei wird auch die ein oder andere Anekdote aus dem täglichen Wahnsinn der Cloud Administration nicht fehlen.
Der Vortrag beleuchtet zunächst, warum explizit nur freie Software genutzt wird und welche für das Projekt ausgewählt worden ist. Anhand spezifischer Anforderungen werden die eingesetzten Komponenten Ubuntu Linux, Ansible, Ceph Object Store und OpenStack eingeführt. Die erlebten Stolpersteine und Probleme sowie deren Lösung werden zusammen mit Performance Messungen vorgestellt. Zum Abschluss gibt es einen Blick auf die Produktionsumgebung mit einer Live Demo.
Das Fazit der beiden ist, dass sich die Investition in eine Open Source Cloud gelohnt hat. Jedoch gibt es viele kleine und große Probleme bis zum produktiven System zu überwinden. Die Zuhörer des Vortrags sollen am Ende selbst einschätzen können, in wie fern sich eine solche Lösung für ihre eigene Umgebung eignet.
Links:
Handout: https://public.centerdevice.de/399612bf-ce31-489f-bd58-04e8d030be52
Ansible: https://blog.codecentric.de/en/2014/06/ansible-simple-yet-powerful-automation/
Ceph: https://blog.codecentric.de/en/2014/03/ceph-object-storage-fast-gets-benchmarking-ceph/
Die Aufzeichnung dieses Webinars steht demnächst hier zur Verfügung: http://aws.amazon.com/de/recorded-webinar/
Big Data ist eines der großen Schlagworte der letzten Jahre. Aber was ist das? In vielen Unternehmen gibt es heute große Datenbestände, die nicht oder nicht ausreichend genutzt werden. Das können Logfiles eines Webservers, Bon-Daten eines Einzelhandelsunternehmens oder Sensordaten einer Produktionsstraße sein. In diesem Webinar geben wir einen Überblick über Big Data und die benutzten Technologien.
Nach dem Aufbau einer Container-basierten Cloud-Plattform hat sich die SBB entschieden, weitere innovative Services in der Public Cloud aufzubauen.
Ein Jahr nach unserem Vortrag am BAT Nr. 36 ziehen wir nun eine erste Bilanz: wie und in welchen Mengen verwenden wir die „Public Cloud“, welchen Herausforderungen begegneten wir beim Aufbau und was erwarten wir in der nahen Zukunft.
Cloud Native & Java EE: Freund oder Feind?QAware GmbH
JavaLand 2017, Brühl: Vortrag von Josef Adersberger (@adersberger, CTO bei QAware)
Abstract:
Anwendungen nativ für den Betrieb in der Cloud auszulegen, ist der Architekturstil der Stunde: Microservices, 12-Factor Apps und Serverless-Architecturen sind en vogue. Daneben gibt es Java EE, das sich über Jahre bewährt hat beim Bau von Java-Anwendungen fürs Unternehmen. Java-EE-Anwendungen im modernen Cloud-Native-Stil zu entwickeln ist kein Widerspruch, sondern ein Zugewinn: Man kann damit Enterprise-Anwendungen bauen, die reif für die Cloud-Ära sind.
Der Vortrag zeigt am laufenden Beispiel, wie man eine Cloud-Native-Java-EE-Anwendung entwickelt und wie sich Java-EE-APIs wie JAX-RS, CDI und JPA integrieren mit Cloud-Native-Infrastruktur wie DC/OS, Kubernetes, Hystrix, Traefik, Consul und Docker. Dabei wird nicht nur blanke Technologie gezeigt, sondern auch das Thema Cloud Native Java EE auf Architekturebene betrachtet.
Anwendungen nativ für den Betrieb in der Cloud auszulegen, ist der Architekturstil der Stunde: Microservices, 12-Factor Apps und Serverless-Architecturen sind en vogue. Daneben gibt es Java EE, das sich über Jahre bewährt hat beim Bau von Java-Anwendungen fürs Unternehmen. Java-EE-Anwendungen im modernen Cloud-Native-Stil zu entwickeln- ist kein Widerspruch, sondern ein Zugewinn: Man kann damit Enterprise-Anwendungen bauen, die reif für die Cloud-Ära sind.
Der Vortrag zeigt am laufenden Beispiel, wie man eine Cloud-Native-Java-EE-Anwendung entwickelt und wie sich Java-EE-APIs wie JAX-RS, CDI und JPA integrieren mit Cloud-Native-Infrastruktur wie DC/OS, Kubernetes, Hystrix, Traefik, Consul und Docker. Dabei wird nicht nur blanke Technologie gezeigt, sondern auch das Thema Cloud Native Java EE auf Architekturebene betrachtet.
Big Data verspricht den Unternehmen die 360°-Sicht auf ihre Kunden, indem die Analyse von Daten aus verschiedensten Kanälen möglich werden soll. Insbesondere in den sozialen Medien entstehen große Mengen an Text, Video und Audio. Doch wie lassen sich aus diesen "Unstructured Data" verwertbare Informationen gewinnen? Apache UIMA ist ein Framework zur Verarbeitung und inhaltlichen Analyse unstrukturierter Daten, insbesondere Text.
Dieser Vortrag bietet eine Einführung in Apache UIMA und seine Architektur. Am Beispiel wird erklärt, welche Annotationskomponenten zur Verfügung stehen und wie diese zu Pipelines kombiniert werden können. Außerdem wird eine Integration von UIMA mit Hadoop gezeigt.
Speaker: Hans-Peter Zorn
ist Big Data Scientist bei der inovex GmbH. Zuvor beschäftigte er sich am UKP Labder TU Darmstadt mit der Analyse großer Textmengen mit Hadoop.
Mehr Vorträge: https://www.inovex.de/de/content-pool/vortraege/
Ähnlich wie Webinar: Typische MongoDB Anwendungsfälle (Common MongoDB Use Cases) (20)
Schema design with MongoDB (Dwight Merriman)MongoSF
This document discusses schema design considerations for MongoDB, a document-oriented database. It recommends embedding related data rather than linking when possible to facilitate queries and atomicity. It also discusses using compare-and-swap operations to update documents atomically. Indexes should be used to make queries fast. Collections may need to be sharded, requiring the shard key to be chosen carefully. Multiple collections can model more complex data when natural.
This document provides an overview of getting started with MongoDB and .NET in 30 minutes or less. It discusses challenges in modeling a dynamic database in a static language like .NET, and introduces the MongoDB C# driver API including connecting to a MongoDB server, performing basic CRUD operations on documents through collections, querying, sorting, and updating documents. Additional features like connection pooling, GridFS, MapReduce, and executing JavaScript on the server are also mentioned. The document concludes by pointing to resources for downloading MongoDB and the C# driver source code, as well as support forums.
This document discusses using MongoDB for flexible event logging and analysis of funnels, retention, and viral spread. It provides examples of aggregating web and video system event data, processing it using Python map-reduce jobs, and counting events in real-time and over time. The results can be queried to analyze user behavior and the effectiveness of changes. While initial performance of complex map-reduce jobs was poor, MongoDB 1.5.0 improvements are expected to make this approach fast enough for both batch and interactive use.
MongoDB is an open-source, high-performance document database that supports OS X, Linux, Solaris, Windows and FreeBSD. It consists of mongod (the database server), mongo (the shell), and mongos (the sharding router). The document discusses how to install and start MongoDB, use replication, and monitor the database using tools like mongostat, iostat, the web console, and serverStatus command. It also covers backups using mongodump and fsync + lock, and encourages downloading and testing MongoDB.
Ruby Development and MongoMapper (John Nunemaker)MongoSF
MongoMapper is a Ruby ORM that provides an interface for mapping Ruby objects to and from MongoDB documents. It allows defining schemas and adding features like associations, callbacks, validations, and more. Plugins can be used to extend MongoMapper with additional functionality. The document discusses MongoMapper's features like persistence, validation, callbacks, associations, and custom types for flexible mapping between Ruby and MongoDB.
This document discusses MongoHQ, a company that provides MongoDB hosting. It begins with introductions from Ben Wyrosdick and Jason McCay. It then discusses MongoHQ's origins in addressing barriers to MongoDB adoption like cost and speed. The document outlines MongoHQ's services like hosting on AWS and managing production databases. It acknowledges pricing challenges from real-world testing and outlines ongoing work to improve upgrades, replication, APIs, versioning and backups. It also discusses expanding platforms and partnerships.
MongoDB is an open-source, high-performance document database that supports platforms like Linux, Windows, and OS X. It consists of mongod (the database server), mongo (the shell), and mongos (the sharding router). The document discusses how to install and start MongoDB, use basic commands in the shell, check server status and logs, set up backups and replication, and monitor MongoDB performance using tools like mongostat.
This document summarizes MongoDB sharding. It discusses how sharding allows databases to scale wider rather than higher to overcome limits of vertical scaling. Sharding partitions data into chunks that are distributed across shards in a consistent and automatic way, with minimal functionality loss compared to a single master. It describes how writes, queries, operations, and balancing work in a sharded cluster with config servers and mongos routers directing traffic.
This document summarizes a presentation about using MongoDB with Ruby applications. The presenter argues that relational databases are antiquated and inefficient for persisting objects, as they require mapping objects to SQL schemas through ORMs. MongoDB provides a more practical solution by storing data in JSON/BSON format, allowing objects to be stored in a near-native format without complex schema design. The presenter provides examples of using MongoDB to store a ledger application and handle logging through capped collections.
Implementing MongoDB at Shutterfly (Kenny Gorman)MongoSF
Shutterfly implemented MongoDB to address problems with their existing metadata storage architecture using an Oracle database, including slow time to market, high costs, performance issues, and lack of scalability. They developed a new data architecture using MongoDB for its simple API, open source software, and ability to partition and distribute data. Initial results showed a 500% improvement in costs and a 900% improvement in performance and latency.
The document discusses building a Ruby debugger by collecting data on Ruby objects in memory and analyzing that data. It describes two versions of the debugger: Version 1 collects basic data but requires patching Ruby and has limited analysis, while Version 2 called Memprof collects more detailed data in JSON format without patching Ruby and allows deeper analysis using MongoDB. The second version provides a way to visualize and analyze Ruby memory usage and detect potential memory leaks.
Indexing and Query Optimizer (Aaron Staple)MongoSF
This document discusses MongoDB indexing and query optimization. It defines what indexes are, how they are stored and used to improve query performance. It provides examples of different types of queries and whether they can utilize indexes, including compound, geospatial and regular expression indexes. It also covers index creation, maintenance and limitations.
This document discusses MongoDB replication using replica sets. It describes how to configure and administer replica sets, which allow for asynchronous master-slave replication and automatic failover between members. Replica sets maintain multiple copies of data across multiple servers, provide redundancy and high availability, and can elect a new primary if one fails. The document outlines different replication topologies and member types in a replica set, and how replica sets integrate with sharded clusters in MongoDB.
Ryan Angilly is a senior developer at MyPunchbowl.com who has an electrical engineering background but has primarily built web applications using Ruby and Rails with SQL databases. He had no experience with NoSQL or MongoDB until September 2009 when MyPunchbowl decided to explore using it to handle their large datasets from millions of users, events, invites and vendors. He aims to provide a beginner's perspective on transitioning from SQL to MongoDB.
Building a Mongo DSL in Scala at Hot Potato (Lincoln Hochberg)MongoSF
Hot Potato is a startup that connects audiences around shared interests through their mobile app and website. They use Scala and MongoDB for their API and data storage due to MongoDB's scalability and flexibility as the app grows. MongoDB allows the data model and queries to evolve over time as reads, writes, and data usage changes, unlike a traditional RDBMS which requires more normalization. Scala provides benefits like immutability, functional programming, and concurrency which are well-suited for Hot Potato's asynchronous services.
This document provides an overview and introduction to using MongoDB with PHP development. It discusses how MongoDB benefits PHP developers through an enhanced development cycle without the need for an ORM or database schema changes. It also outlines some of the key features of MongoDB, such as document-oriented storage, indexing, replication and querying. The document then demonstrates connecting to MongoDB from PHP, performing basic queries and updates, and using GridFS to store files. It concludes by proposing a sample student information system that could be built with MongoDB and PHP.
Java Development with MongoDB (James Williams)MongoSF
This document discusses various ways to interact with MongoDB from Java, including using the Java driver directly, Morphia for object mapping, and utilities for Groovy. It covers making connections, working with collections, inserting and querying documents, GridFS for files, mapping objects with Morphia, and plugins for Grails. It also briefly mentions dynamic finders and metaprogramming capabilities in Groovy.
Real time ecommerce analytics with MongoDB at Gilt Groupe (Michael Bryzek & M...MongoSF
This document discusses Gilt Groupe's use of MongoDB for real-time ecommerce analytics. It describes two key uses: 1) capturing product page view data in real-time to calculate scores to determine which products to feature, and 2) using Node.js to capture site traffic data and visualize it with Hummingbird. The system captures data, runs map-reduce to analyze it, and updates transactional systems to improve conversions and optimize product promotions.
From MySQL to MongoDB at Wordnik (Tony Tam)MongoSF
Wordnik migrated their live application from MySQL to MongoDB to address scaling issues. They moved over 5 billion documents totaling over 1.2 TB of data with zero downtime. The migration involved setting up MongoDB infrastructure, designing the data model and software to match their existing object model, migrating the data, and optimizing performance of the new system. They achieved insert rates of over 100,000 documents per second during the migration process and saw read speeds increase to 250,000 documents per second after completing the move to MongoDB.
Map/reduce, geospatial indexing, and other cool features (Kristina Chodorow)MongoSF
The document appears to be notes from a MongoDB training session that discusses various MongoDB features like MapReduce, geospatial indexes, and GridFS. It also covers topics like database commands, indexing, and querying documents with embedded documents and arrays. Examples are provided for how to implement many of these MongoDB features and functions.
6. High Volume Data Feeds
Maschinendate • Sehr viele Sensoren “überall”
n • Variable Struktur(en)
Aktienhandel • Hochfrequenzhandel
• Viele Datenquellen
Social Media • Formatänderungen
Marc Schwering, 10gen - @m4rcsch
7. High Volume Data Feeds
Flexibles Schema für
Datenformat-
anpassungen
Asynchrones
schreiben
Data
Data
Sources
Data WriteConcern:
Sources
Datenquel
Sources SafeMode
len (in Memory)
Skalierung durch
Fragmentierung
Marc Schwering, 10gen - @m4rcsch
8. Operational Intelligence
• Extrem viele Statiwechsel (Tracking)
Ad Targeting • Strikte Anforderungen an Latenz
Real time • Reporting für tausende von Nutzern
dashboards • Konsistente Echtzeit Updates!
Social Media • Worüber sprechen die Leute?
Monitoring
Marc Schwering, 10gen - @m4rcsch
9. Operational Intelligence
Parallelisierung
von Lese.- und
Geringe Leselatenz
Schreibzugriffen
via Shards und
Replikas
API Pre-Aggregation &
Aggregation
Framework
Dashboards
Flexible Schemata
für verschiedenste
Transparente Inputformate
Skalierung
Marc Schwering, 10gen - @m4rcsch
10. Beispiel Tracking &
Conversion
Umfangreiches
Schema um komplexe
Stati abzubilden
1 See Ad
{ cookie_id: ‚1234512413243‛,
“Scale out” für hohen
advertiser:{
Datendurchsatz apple: {
See Ad actions: [
2 { impression: ‘ad1’, time: 123 },
{ impression: ‘ad2’, time: 232 },
{ click: ‘ad2’, time: 235 },
{ add_to_cart: ‘laptop’,
sku: ‘asdf23f’,
time: 254 },
3 Click { purchase: ‘laptop’, time: 354 }
Dynamische ] …
Schemata durch
Kundenanforderunge
n
4 Convert
Marc Schwering, 10gen - @m4rcsch
13. Content Management
• Nutzergenerierte Inhalte
News-Seite • Personalisierung von Inhalt und
Layout
Verschiedene • Layout “on the fly”
Kanäle • Kaum statischer Inhalt
Sharing • Binär.- und Metadaten
Marc Schwering, 10gen - @m4rcsch
16. Projekt Charakteristika
Applikations-Anforderungen Warum MongoDB gut passen könnte
Variable Daten in Objekten Dynamische Schemata und JSON erlauben
flexible Datenspeicherung ohne Sparse-Tabellen
oder komplexe “JOINS”.
Geringe Latenz MongoDB Memory Mapping bietet ”In-Memory”-
Geschwindigkeit und ist konsistent.
Hoher Datendurchsatz Sharding und Replikation für einfache
und/oder viele Daten Skalierbarkeit
Cloud-basiertes deployment Sharding und Replikation nutzen alle
Möglichkeiten von Cloud-Computing
Wechselnde Flexibles Datenmodell ermöglicht agile
Business Anforderungen Softwareentwicklung
Marc Schwering, 10gen - @m4rcsch
17. Vielen Dank!
Fragen?
Chat, oder: @m4rcsch
Kommende Events:
MongoDB Berlin: 26. Feb. ( http://welu.se/1Zl )
Webinar über MongoDB v 2.4 (Ende März)
Marc Schwering, Solutions Architect -10gen (the MongoDB Company)