3. Что важно?
- Масштабирование
* ТБ, ПТ, ББ
* гетерогенность среды
* отказоустойчивость
* простота и надежность
- Гибкость
* объекты
* блочные устройства
* файловая система?
* структуры данных
- Дешевизна
* no vendor-lock
* низкая стоимость Гб
* администрирование
* отказоустойчивость
4. Время и деньги
ВРЕМЯ
- легкость управления
- миграция
- балансировка
- масштабирование
ДЕНЬГИ
- гигабайт мало стоит
- софт, а не железо
- гетерогенность
- опенсорс!
низкий порог вхождения админа
6. CEPH
- объекты большие
* и маленькие
- блочные устройства
- файлы
Монитор ceph-mon
Хранилище ceph-osd
Метадата (не нужна) ceph-mds
AmazonS3 like RADOS-GW
7. CEPH?
- Реплицируем N раз
- Балансируем
- Мигрируем
- Восстанавливаемся
Автоматически!
Скорость сопоставима
с обычными дисками!
8. CRUSH Это дерево!
Алгоритм зависит от железа.
- быстрый,
- псевдорандомный,
- настраиваемый.
- Математика. Сложная!
Восстановление
- параллельно
- many2many
- нет hotspare
9. RADOS GW - RESTful
- object=key
- атомарно
- идемпотентно
- права доступа
- балансировка
11. Утилиты
Client-tools
- ceph
API
- python boto
- java
- C*
-
Block-device
- rbd + kernel module
- kvm, qemu, libvirt
- все как обычно
- почти
RADOS
- apache2
AmazonS3 & Openstack
12. CEPH и мы
- фламп и фоточки. Планета?
- хранилище “медленных” бекапов
- shared KVM
- разделяемый контент
- дропбокс
- ???
13. Аналоги - shared file systems
- vendor solutions
- на колене
- elliptics yandex
- Amazons3
- Openstack
Не совсем!
14. Статус проекта
- 12 разработчиков
- инвестиции
- ежедневные коммиты
- мне кажется, у них забрали паспорта!
15. Недостатки тоже есть!
- сыровато
- мало функционала
- необходимо четко планировать инфраструктуру
- ???
16. В планах
- гео-кластер
* мастер, зоны, бекапы, все как у больших дядей
- скорость и стабильность еще выше.
- lock-manager over RBD
- там столько всего наполеоновского!