@@ -104,18 +104,16 @@ CephFS
104104------------
105105* Tiering vs bcache vs dm-cache + инструкции по дмкешу.
106106* почему дедупликация крайне затруднена в архитектуре Ceph
107- * В filestore всё полностью пишется в журнал. WAL используется как
107+ *
108+ .. _filestore_wal :
109+
110+ В filestore всё полностью пишется в журнал. WAL используется как
108111 writeback-cache по сути. Один write в rados превращается в два сисколла write
109112 -- один в журнал (с синком) и один в основное хранилище. Основное хранилище фсинкается
110113 время от времени. Запись в журнал линейная, а в основное хранилище рандомная. При записи
111114 в хранилище поможет параллельность которую может диск (например, NCQ). При записи в журнал
112115 параллельность не используется, поэтому диск под журнал для файлстора надо бенчить именно
113- так:
114-
115- .. code-block :: sh
116-
117- $ fio --ioengine=libaio --sync 1 --direct=1 --name=test \
118- --bs=4k --iodepth=1 --readwrite=write --runtime 60 --filename=/dev/sdXX
116+ так: wal_bench _.
119117
120118* при выносе журнала или БД на отдельный диск теряется возможность перевставлять диски в
121119 другой нод. При старте ОСД (бай дефолт есть параметр) обновляет себя в крушмапе.
@@ -164,15 +162,9 @@ CephFS
164162
165163 * если много - юсадж памяти, перегрузка сети
166164
167- Бенчмаркинг
168- -----------
169165
170- * Как бенчмаркить сам цеф и рбд. какие типовые кейсы. говорят, фио врёт про рбд
171- (надо исходники посмотреть рбд драйвера).
172- * что иопсы равны самым медленным иопсам серди актинг сета.
173- * как бенчить радос. нужно сопоставить рассчетное и фактическое. ибо всегда можно создать
174- нагрузку которая задосит кластер.
175- * RBD надо бенчить на зааллокейченном диске.
166+ .. include :: bench.rst
167+
176168
177169Мониторинг
178170----------
0 commit comments