Skip to content

Commit 2a09256

Browse files
committed
CEPH -> Ceph, alttext, qemu-img async copying
1 parent 7969680 commit 2a09256

File tree

3 files changed

+20
-13
lines changed

3 files changed

+20
-13
lines changed

_static/qemu-img-bandwith.jpg

16.2 KB
Loading

cloudmouse.rst

Lines changed: 12 additions & 12 deletions
Original file line numberDiff line numberDiff line change
@@ -3,24 +3,24 @@ CloudMouse
33
==========
44

55
.. image:: _static/cloudmouse.png
6-
:alt: alternate text
6+
:alt: Логотип
77
:align: left
88

9-
VPS-хостинг. Год основания -- 2013. Отличились тем, что использовали CEPH крайне неумело,
9+
VPS-хостинг. Год основания -- 2013. Отличились тем, что использовали Ceph крайне неумело,
1010
что привело 10.02.2015 к резкой гибели их бизнеса в связи с полной потерей данных (бекапы
1111
они не делали).
12-
Потом везде на форумах кричали, что CEPH -- глючное поделие и именно он привёл к проблеме.
13-
Эта ситуация нанеслa огромный урон репутации CEPH как надёжного хранилища данных.
12+
Потом везде на форумах кричали, что Ceph -- глючное поделие и именно он привёл к проблеме.
13+
Эта ситуация нанеслa огромный урон репутации Ceph как надёжного хранилища данных.
1414

1515
Между тем, в Сети крайне трудно найти информацию о том что же именно произошло. Эта ситуация
1616
сейчас используется при каждом удобном и неудобном случае когда кто-то хочет сказать что у
17-
CEPH есть проблемы.
17+
Ceph есть проблемы.
1818

1919

20-
Недавно, на выставке РИТ++, мне довелось поговорить со специалистом из компании, которая работает на рынке облачного хостинга под брендом flops.ru. Эта компания известна тем, что использует как раз ceph и построила на нем платформу публичного облачного хостинга. Интересные ребята, кстати, энтузиасты и большие молодцы, серьезно. Я воспользовался случаем узнать «из первых рук» их компетентное мнение о том, насколько реально «скачать ceph и сделать все то же самое на нем». Ответ был однозначен: «Это утопия».
20+
Недавно, на выставке РИТ++, мне довелось поговорить со специалистом из компании, которая работает на рынке облачного хостинга под брендом flops.ru. Эта компания известна тем, что использует как раз Ceph и построила на нем платформу публичного облачного хостинга. Интересные ребята, кстати, энтузиасты и большие молодцы, серьезно. Я воспользовался случаем узнать «из первых рук» их компетентное мнение о том, насколько реально «скачать Ceph и сделать все то же самое на нем». Ответ был однозначен: «Это утопия».
2121
Так, в частности, он рассказал, что они в flops потратили на доводку, допиливание и вычищение багов примерно полтора года труда их команды разработчиков. Они взяли довольно старую версию (v 0.67 «Dumpling») и «пилили» ее. И в итоге действительно допилили ее до продакшна. Текущая же версия, в том виде, в котором она выложена в паблик, несмотря на major и stable в названии, в продакшн непригодна.
22-
«Помните историю cloudmouse, который, в результате слова бага и сбоя в марте этого года потерял данные 22 тысяч виртуальных машин (включая их бэкапы, а перед этим они теряли данные в феврале) и, в результате, ушел из бизнеса? Ребята взяли текущую версию ceph, и сделали свою систему на ней. Результат — вот такой.»
23-
Собственно мне больше нечего добавить к этому ответу на вопрос, «можно ли скачать ceph и сделать бесплатно то же самое, что у вас за деньги?».
22+
«Помните историю cloudmouse, который, в результате слова бага и сбоя в марте этого года потерял данные 22 тысяч виртуальных машин (включая их бэкапы, а перед этим они теряли данные в феврале) и, в результате, ушел из бизнеса? Ребята взяли текущую версию Ceph, и сделали свою систему на ней. Результат — вот такой.»
23+
Собственно мне больше нечего добавить к этому ответу на вопрос, «можно ли скачать Ceph и сделать бесплатно то же самое, что у вас за деньги?».
2424
Можно. Но не сразу, не быстро, и, по факту, не бесплатно.
2525

2626
-- http://blog.in-a-nutshell.ru/nutanix-vs-ceph/
@@ -33,12 +33,12 @@ CEPH есть проблемы.
3333

3434

3535
Честно вам сказать из-за чего развалился? Ибо сам даже смотрел их кластер и пытался
36-
помочь... Помнится мне, что тогда еще актуальная версия ceph'а была Firefly.
36+
помочь... Помнится мне, что тогда еще актуальная версия Ceph'а была Firefly.
3737
Но им жутко не нравилась его производительность. Ну они и обновились, на в то время,
3838
не стабильный hammer. А когда пошли ошибки, то потом ещё и обновились аж на master ветку.
3939
А у мастер ветки была проблема связанная с утечкой памяти, ну и при нехватке памяти на
4040
сервере (еще один баг) убились данные. И количество репликаций у них было 2. Хотя и
41-
количество репликации бы тут не помогли. Так что CEPH там был не при чём. Банально админы
41+
количество репликации бы тут не помогли. Так что Ceph там был не при чём. Банально админы
4242
накосячили, ну или их руководство.
4343

4444
-- Аноним.
@@ -54,7 +54,7 @@ CEPH есть проблемы.
5454
По поводу СХД, мы используем как минимум 8, с 3х кратной репликацией данных.
5555
Те "кусочек данных размером 1мб" хранится на 3х разных дисках на 3х СХД. А все данные хранятся
5656
примерно на 300+х дисках. Как мы ранее сообщали, проблема потери данных была связана с
57-
аппаратно-програмным сбоем в связки: ceph+rbd+osd+pg. Другими словами, все связи между блоками
57+
аппаратно-програмным сбоем в связки: Ceph+rbd+osd+pg. Другими словами, все связи между блоками
5858
данных в кластере были утеряны.
5959

6060
Еще раз, приносим свои извинения.
@@ -67,7 +67,7 @@ CEPH есть проблемы.
6767
-- https://searchengines.guru/showpost.php?p=13490140
6868

6969
Судя по тому, что никаких технических подробностей этого падения они не привели,
70-
косяк на сто процентов их, а не ceph'a. Очевидно, что был бы это глюк ceph'a они
70+
косяк на сто процентов их, а не Ceph'a. Очевидно, что был бы это глюк Ceph'a они
7171
бы молчать не стали, защитили бы свою репутацию.
7272

7373
-- https://www.linux.org.ru/news/opensource/11500740/page1#comment-11503052

main.rst

Lines changed: 8 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -22,6 +22,13 @@ RBD
2222
* Ядерный драйвер RBD не умеет во много опций. в частности, фастдифф. Варианты -- FUSEmount -- каждый файл это образ. либо NBD.
2323
* iscsi
2424
* qemu-nbd vs rbd-nbd
25+
* Перенос образов между пулами и копирование образов: рекомендуется qemu-img версии более 2.9.
26+
27+
.. image:: _static/qemu-img-bandwith.jpg
28+
:alt: График пропускной способности
29+
30+
https://github.com/qemu/qemu/commit/2d9187bc65727d9dd63e2c410b5500add3db0b0d и описание опций.
31+
2532
* Сделав снапшот хотябы одного образа, сделать снапшот пула уже не получится. Узнать бы почему.
2633

2734

@@ -74,7 +81,7 @@ CephFS
7481

7582
Как работает
7683
------------
77-
* почему дедупликация крайне затруднена в архитектуре CEPH
84+
* почему дедупликация крайне затруднена в архитектуре Ceph
7885
* в файлсторе всё полностью пишется в журнал. один врайт превращается в два сисколла врайт
7986
- один в журнал (с синком) и один в основное хранилище. Но основное хранилище фсинкается
8087
время от времени. Запись в журнал линейная, а в основное хранилище рандомная. При записи

0 commit comments

Comments
 (0)