From 2bea3ad67f7f9cb359da86daa45c51e5f027933e Mon Sep 17 00:00:00 2001 From: lucasliang Date: Wed, 24 Dec 2025 15:32:28 +0800 Subject: [PATCH 01/11] tikv: update default settings of `server.grpc-concurrency` and `server.grpc-raft-conn-num`. Signed-off-by: lucasliang --- tikv-configuration-file.md | 7 +++++-- tune-tikv-thread-performance.md | 2 +- 2 files changed, 6 insertions(+), 3 deletions(-) diff --git a/tikv-configuration-file.md b/tikv-configuration-file.md index 21882da94e5b..6a6539671626 100644 --- a/tikv-configuration-file.md +++ b/tikv-configuration-file.md @@ -153,7 +153,10 @@ TiKV 配置文件比命令行参数支持更多的选项。你可以在 [etc/con ### `grpc-concurrency` + gRPC 工作线程的数量。调整 gRPC 线程池的大小时,请参考 [TiKV 线程池调优](/tune-tikv-thread-performance.md#tikv-线程池调优)。 -+ 默认值:5 ++ 默认值:从 v8.5.4 版本开始,调整为 `grpc-raft-conn-num * 3 + 2`。其中,grpc-raft-conn-num 的默认值可参考[grpc-raft-conn-num](#grpc-raft-conn-num)。 + + + 比如,当 CPU 核数为 8 时,`grpc-raft-conn-num` 的默认值为 1,相应地,`grpc-concurrency` 即为 1 * 3 + 2 == 5。 + + 最小值:1 ### `grpc-concurrent-stream` @@ -171,7 +174,7 @@ TiKV 配置文件比命令行参数支持更多的选项。你可以在 [etc/con ### `grpc-raft-conn-num` + TiKV 节点之间用于 Raft 通信的连接最大数量。 -+ 默认值:1 ++ 默认值:从 v8.5.4 版本开始,调整为`MAX(1, MIN(4, CPU num / 8))`. 其中,`MIN(4, CPU num / 8)` 表示当 CPU 核数大于等于 32 时,默认的最大连接数限制为 4。 + 最小值:1 ### `max-grpc-send-msg-len` diff --git a/tune-tikv-thread-performance.md b/tune-tikv-thread-performance.md index e0cec7871013..062152213c51 100644 --- a/tune-tikv-thread-performance.md +++ b/tune-tikv-thread-performance.md @@ -34,7 +34,7 @@ TiKV 的读取请求分为两类: ## TiKV 线程池调优 -* gRPC 线程池的大小默认配置 (`server.grpc-concurrency`) 是 5。由于 gRPC 线程池几乎不会有多少计算开销,它主要负责网络 IO、反序列化请求,因此该配置通常不需要调整。 +* 自 v8.5.4 开始,gRPC 线程池的大小默认配置 (`server.grpc-concurrency`) 将根据 CPU 核数进行自适应调整,具体的自适应配置调整公式请参考[server.grpc-concurrency](/tikv-configuration-file.md#grpc-concurrency)。由于 gRPC 线程池几乎不会有多少计算开销,它主要负责网络 IO、反序列化请求,因此该配置通常不需要调整。 - 如果部署的机器 CPU 核数特别少(小于等于 8),可以考虑将该配置 (`server.grpc-concurrency`) 设置为 2。 - 如果机器配置很高,并且 TiKV 承担了非常大量的读写请求,观察到 Grafana 上的监控 Thread CPU 的 gRPC poll CPU 的数值超过了 server.grpc-concurrency 大小的 80%,那么可以考虑适当调大 `server.grpc-concurrency` 以控制该线程池使用率在 80% 以下(即 Grafana 上的指标低于 `80% * server.grpc-concurrency` 的值)。 From c6d06310104dc219449afe192a5922b4d9c0dcbf Mon Sep 17 00:00:00 2001 From: lucasliang Date: Wed, 31 Dec 2025 13:45:48 +0800 Subject: [PATCH 02/11] Apply suggestions from code review Co-authored-by: Grace Cai --- tikv-configuration-file.md | 6 +++--- tune-tikv-thread-performance.md | 2 +- 2 files changed, 4 insertions(+), 4 deletions(-) diff --git a/tikv-configuration-file.md b/tikv-configuration-file.md index 6a6539671626..a07dfbdbdc48 100644 --- a/tikv-configuration-file.md +++ b/tikv-configuration-file.md @@ -153,9 +153,9 @@ TiKV 配置文件比命令行参数支持更多的选项。你可以在 [etc/con ### `grpc-concurrency` + gRPC 工作线程的数量。调整 gRPC 线程池的大小时,请参考 [TiKV 线程池调优](/tune-tikv-thread-performance.md#tikv-线程池调优)。 -+ 默认值:从 v8.5.4 版本开始,调整为 `grpc-raft-conn-num * 3 + 2`。其中,grpc-raft-conn-num 的默认值可参考[grpc-raft-conn-num](#grpc-raft-conn-num)。 ++ 默认值:从 v8.5.4 起,调整为 `grpc-raft-conn-num * 3 + 2`。其中,`grpc-raft-conn-num` 的默认值可参考 [`grpc-raft-conn-num`](#grpc-raft-conn-num)。在 v8.5.3 及之前的 v8.5.x 版本中,默认值为 5。 - + 比如,当 CPU 核数为 8 时,`grpc-raft-conn-num` 的默认值为 1,相应地,`grpc-concurrency` 即为 1 * 3 + 2 == 5。 + + 例如,当 CPU 核数为 8 时,`grpc-raft-conn-num` 的默认值为 1,相应地,`grpc-concurrency` 即为 1 * 3 + 2 == 5。 + 最小值:1 @@ -174,7 +174,7 @@ TiKV 配置文件比命令行参数支持更多的选项。你可以在 [etc/con ### `grpc-raft-conn-num` + TiKV 节点之间用于 Raft 通信的连接最大数量。 -+ 默认值:从 v8.5.4 版本开始,调整为`MAX(1, MIN(4, CPU num / 8))`. 其中,`MIN(4, CPU num / 8)` 表示当 CPU 核数大于等于 32 时,默认的最大连接数限制为 4。 ++ 默认值:从 v8.5.4 版本开始,调整为`MAX(1, MIN(4, CPU 核数 / 8))`,其中,`MIN(4, CPU 核数 / 8)` 表示当 CPU 核数大于等于 32 时,默认的最大连接数为 4。在 v8.5.3 及之前的 v8.5.x 版本中,默认值为 1。 + 最小值:1 ### `max-grpc-send-msg-len` diff --git a/tune-tikv-thread-performance.md b/tune-tikv-thread-performance.md index 062152213c51..74925ac6f424 100644 --- a/tune-tikv-thread-performance.md +++ b/tune-tikv-thread-performance.md @@ -34,7 +34,7 @@ TiKV 的读取请求分为两类: ## TiKV 线程池调优 -* 自 v8.5.4 开始,gRPC 线程池的大小默认配置 (`server.grpc-concurrency`) 将根据 CPU 核数进行自适应调整,具体的自适应配置调整公式请参考[server.grpc-concurrency](/tikv-configuration-file.md#grpc-concurrency)。由于 gRPC 线程池几乎不会有多少计算开销,它主要负责网络 IO、反序列化请求,因此该配置通常不需要调整。 +* 从 v8.5.4 起,gRPC 线程池的默认大小(由 `server.grpc-concurrency` 控制)从 `5` 修改为根据 CPU 核数进行自适应调整,具体的自适应调整公式请参考 [`server.grpc-concurrency`](/tikv-configuration-file.md#grpc-concurrency)。由于 gRPC 线程池几乎不会有多少计算开销,它主要负责网络 IO、反序列化请求,因此该配置通常不需要调整。 - 如果部署的机器 CPU 核数特别少(小于等于 8),可以考虑将该配置 (`server.grpc-concurrency`) 设置为 2。 - 如果机器配置很高,并且 TiKV 承担了非常大量的读写请求,观察到 Grafana 上的监控 Thread CPU 的 gRPC poll CPU 的数值超过了 server.grpc-concurrency 大小的 80%,那么可以考虑适当调大 `server.grpc-concurrency` 以控制该线程池使用率在 80% 以下(即 Grafana 上的指标低于 `80% * server.grpc-concurrency` 的值)。 From 935034b65058078c4d4bd64c001b19b849f2b0a7 Mon Sep 17 00:00:00 2001 From: Grace Cai Date: Wed, 31 Dec 2025 15:08:09 +0800 Subject: [PATCH 03/11] add the v9.0.0 info --- tikv-configuration-file.md | 4 ++-- tune-tikv-thread-performance.md | 2 +- 2 files changed, 3 insertions(+), 3 deletions(-) diff --git a/tikv-configuration-file.md b/tikv-configuration-file.md index a07dfbdbdc48..05b56971c5b9 100644 --- a/tikv-configuration-file.md +++ b/tikv-configuration-file.md @@ -153,7 +153,7 @@ TiKV 配置文件比命令行参数支持更多的选项。你可以在 [etc/con ### `grpc-concurrency` + gRPC 工作线程的数量。调整 gRPC 线程池的大小时,请参考 [TiKV 线程池调优](/tune-tikv-thread-performance.md#tikv-线程池调优)。 -+ 默认值:从 v8.5.4 起,调整为 `grpc-raft-conn-num * 3 + 2`。其中,`grpc-raft-conn-num` 的默认值可参考 [`grpc-raft-conn-num`](#grpc-raft-conn-num)。在 v8.5.3 及之前的 v8.5.x 版本中,默认值为 5。 ++ 默认值:从 v8.5.4 和 v9.0.0 起,调整为 `grpc-raft-conn-num * 3 + 2`。其中,`grpc-raft-conn-num` 的默认值可参考 [`grpc-raft-conn-num`](#grpc-raft-conn-num)。在 v8.5.3 及之前的版本中,默认值为 5。 + 例如,当 CPU 核数为 8 时,`grpc-raft-conn-num` 的默认值为 1,相应地,`grpc-concurrency` 即为 1 * 3 + 2 == 5。 @@ -174,7 +174,7 @@ TiKV 配置文件比命令行参数支持更多的选项。你可以在 [etc/con ### `grpc-raft-conn-num` + TiKV 节点之间用于 Raft 通信的连接最大数量。 -+ 默认值:从 v8.5.4 版本开始,调整为`MAX(1, MIN(4, CPU 核数 / 8))`,其中,`MIN(4, CPU 核数 / 8)` 表示当 CPU 核数大于等于 32 时,默认的最大连接数为 4。在 v8.5.3 及之前的 v8.5.x 版本中,默认值为 1。 ++ 默认值:从 v8.5.4 和 v9.0.0 起,调整为 `MAX(1, MIN(4, CPU 核数 / 8))`,其中,`MIN(4, CPU 核数 / 8)` 表示当 CPU 核数大于等于 32 时,默认的最大连接数为 4。在 v8.5.3 及之前的版本中,默认值为 1。 + 最小值:1 ### `max-grpc-send-msg-len` diff --git a/tune-tikv-thread-performance.md b/tune-tikv-thread-performance.md index 74925ac6f424..50267562894c 100644 --- a/tune-tikv-thread-performance.md +++ b/tune-tikv-thread-performance.md @@ -34,7 +34,7 @@ TiKV 的读取请求分为两类: ## TiKV 线程池调优 -* 从 v8.5.4 起,gRPC 线程池的默认大小(由 `server.grpc-concurrency` 控制)从 `5` 修改为根据 CPU 核数进行自适应调整,具体的自适应调整公式请参考 [`server.grpc-concurrency`](/tikv-configuration-file.md#grpc-concurrency)。由于 gRPC 线程池几乎不会有多少计算开销,它主要负责网络 IO、反序列化请求,因此该配置通常不需要调整。 +* 从 v8.5.4 和 v9.0.0 起,gRPC 线程池的默认大小(由 `server.grpc-concurrency` 控制)从 `5` 修改为根据 CPU 核数进行自适应调整,具体的自适应调整公式请参考 [`server.grpc-concurrency`](/tikv-configuration-file.md#grpc-concurrency)。由于 gRPC 线程池几乎不会有多少计算开销,它主要负责网络 IO、反序列化请求,因此该配置通常不需要调整。 - 如果部署的机器 CPU 核数特别少(小于等于 8),可以考虑将该配置 (`server.grpc-concurrency`) 设置为 2。 - 如果机器配置很高,并且 TiKV 承担了非常大量的读写请求,观察到 Grafana 上的监控 Thread CPU 的 gRPC poll CPU 的数值超过了 server.grpc-concurrency 大小的 80%,那么可以考虑适当调大 `server.grpc-concurrency` 以控制该线程池使用率在 80% 以下(即 Grafana 上的指标低于 `80% * server.grpc-concurrency` 的值)。 From 7b837792d82ea386609222d72aab2e325da30637 Mon Sep 17 00:00:00 2001 From: Grace Cai Date: Wed, 7 Jan 2026 10:37:33 +0800 Subject: [PATCH 04/11] minor wording updates --- tikv-configuration-file.md | 2 +- tune-tikv-thread-performance.md | 2 +- 2 files changed, 2 insertions(+), 2 deletions(-) diff --git a/tikv-configuration-file.md b/tikv-configuration-file.md index 05b56971c5b9..9450ab0ea55b 100644 --- a/tikv-configuration-file.md +++ b/tikv-configuration-file.md @@ -155,7 +155,7 @@ TiKV 配置文件比命令行参数支持更多的选项。你可以在 [etc/con + gRPC 工作线程的数量。调整 gRPC 线程池的大小时,请参考 [TiKV 线程池调优](/tune-tikv-thread-performance.md#tikv-线程池调优)。 + 默认值:从 v8.5.4 和 v9.0.0 起,调整为 `grpc-raft-conn-num * 3 + 2`。其中,`grpc-raft-conn-num` 的默认值可参考 [`grpc-raft-conn-num`](#grpc-raft-conn-num)。在 v8.5.3 及之前的版本中,默认值为 5。 - + 例如,当 CPU 核数为 8 时,`grpc-raft-conn-num` 的默认值为 1,相应地,`grpc-concurrency` 即为 1 * 3 + 2 == 5。 + + 例如,当 CPU 核数为 8 时,`grpc-raft-conn-num` 的默认值为 1,相应地,`grpc-concurrency` 的默认值即为 `1 * 3 + 2 = 5`。 + 最小值:1 diff --git a/tune-tikv-thread-performance.md b/tune-tikv-thread-performance.md index 50267562894c..0316e5c311c3 100644 --- a/tune-tikv-thread-performance.md +++ b/tune-tikv-thread-performance.md @@ -34,7 +34,7 @@ TiKV 的读取请求分为两类: ## TiKV 线程池调优 -* 从 v8.5.4 和 v9.0.0 起,gRPC 线程池的默认大小(由 `server.grpc-concurrency` 控制)从 `5` 修改为根据 CPU 核数进行自适应调整,具体的自适应调整公式请参考 [`server.grpc-concurrency`](/tikv-configuration-file.md#grpc-concurrency)。由于 gRPC 线程池几乎不会有多少计算开销,它主要负责网络 IO、反序列化请求,因此该配置通常不需要调整。 +* 从 v8.5.4 和 v9.0.0 起,gRPC 线程池的默认大小(由 `server.grpc-concurrency` 控制)由固定值 `5` 调整为根据 CPU 核数进行自适应计算,具体计算公式请参考 [`server.grpc-concurrency`](/tikv-configuration-file.md#grpc-concurrency)。由于 gRPC 线程池几乎不会有多少计算开销,它主要负责网络 IO、反序列化请求,因此该配置通常不需要调整。 - 如果部署的机器 CPU 核数特别少(小于等于 8),可以考虑将该配置 (`server.grpc-concurrency`) 设置为 2。 - 如果机器配置很高,并且 TiKV 承担了非常大量的读写请求,观察到 Grafana 上的监控 Thread CPU 的 gRPC poll CPU 的数值超过了 server.grpc-concurrency 大小的 80%,那么可以考虑适当调大 `server.grpc-concurrency` 以控制该线程池使用率在 80% 以下(即 Grafana 上的指标低于 `80% * server.grpc-concurrency` 的值)。 From 20a0d82e9a06fca872b0e5eb99477c389abf7baf Mon Sep 17 00:00:00 2001 From: Grace Cai Date: Wed, 7 Jan 2026 11:09:38 +0800 Subject: [PATCH 05/11] Update tikv-configuration-file.md --- tikv-configuration-file.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/tikv-configuration-file.md b/tikv-configuration-file.md index 9450ab0ea55b..b565fe07b3a9 100644 --- a/tikv-configuration-file.md +++ b/tikv-configuration-file.md @@ -153,7 +153,7 @@ TiKV 配置文件比命令行参数支持更多的选项。你可以在 [etc/con ### `grpc-concurrency` + gRPC 工作线程的数量。调整 gRPC 线程池的大小时,请参考 [TiKV 线程池调优](/tune-tikv-thread-performance.md#tikv-线程池调优)。 -+ 默认值:从 v8.5.4 和 v9.0.0 起,调整为 `grpc-raft-conn-num * 3 + 2`。其中,`grpc-raft-conn-num` 的默认值可参考 [`grpc-raft-conn-num`](#grpc-raft-conn-num)。在 v8.5.3 及之前的版本中,默认值为 5。 ++ 默认值:从 v8.5.4 和 v9.0.0 起,调整为 `grpc-raft-conn-num * 3 + 2`。其中,`grpc-raft-conn-num` 的值可参考 [`grpc-raft-conn-num`](#grpc-raft-conn-num)。在 v8.5.3 及之前的版本中,默认值为 5。 + 例如,当 CPU 核数为 8 时,`grpc-raft-conn-num` 的默认值为 1,相应地,`grpc-concurrency` 的默认值即为 `1 * 3 + 2 = 5`。 From 919691d867ee2e686e9f7306f93371258675ca6f Mon Sep 17 00:00:00 2001 From: Grace Cai Date: Wed, 7 Jan 2026 11:24:33 +0800 Subject: [PATCH 06/11] format udpates --- tikv-configuration-file.md | 12 +++++++++--- 1 file changed, 9 insertions(+), 3 deletions(-) diff --git a/tikv-configuration-file.md b/tikv-configuration-file.md index b565fe07b3a9..028e82ca3280 100644 --- a/tikv-configuration-file.md +++ b/tikv-configuration-file.md @@ -153,9 +153,11 @@ TiKV 配置文件比命令行参数支持更多的选项。你可以在 [etc/con ### `grpc-concurrency` + gRPC 工作线程的数量。调整 gRPC 线程池的大小时,请参考 [TiKV 线程池调优](/tune-tikv-thread-performance.md#tikv-线程池调优)。 -+ 默认值:从 v8.5.4 和 v9.0.0 起,调整为 `grpc-raft-conn-num * 3 + 2`。其中,`grpc-raft-conn-num` 的值可参考 [`grpc-raft-conn-num`](#grpc-raft-conn-num)。在 v8.5.3 及之前的版本中,默认值为 5。 ++ 默认值: + + + 从 v8.5.4 和 v9.0.0 起,默认值调整为 `grpc-raft-conn-num * 3 + 2`。其中,`grpc-raft-conn-num` 的值可参考 [`grpc-raft-conn-num`](#grpc-raft-conn-num)。例如,当 CPU 核数为 8 时,`grpc-raft-conn-num` 的默认值为 1,相应地,`grpc-concurrency` 的默认值即为 `1 * 3 + 2 = 5`。 - + 例如,当 CPU 核数为 8 时,`grpc-raft-conn-num` 的默认值为 1,相应地,`grpc-concurrency` 的默认值即为 `1 * 3 + 2 = 5`。 + + 在 v8.5.3 及之前的版本中,默认值为 5。 + 最小值:1 @@ -174,7 +176,11 @@ TiKV 配置文件比命令行参数支持更多的选项。你可以在 [etc/con ### `grpc-raft-conn-num` + TiKV 节点之间用于 Raft 通信的连接最大数量。 -+ 默认值:从 v8.5.4 和 v9.0.0 起,调整为 `MAX(1, MIN(4, CPU 核数 / 8))`,其中,`MIN(4, CPU 核数 / 8)` 表示当 CPU 核数大于等于 32 时,默认的最大连接数为 4。在 v8.5.3 及之前的版本中,默认值为 1。 ++ 默认值: + + + 从 v8.5.4 和 v9.0.0 起,调整为 `MAX(1, MIN(4, CPU 核数 / 8))`,其中,`MIN(4, CPU 核数 / 8)` 表示当 CPU 核数大于等于 32 时,默认的最大连接数为 4。 + + 在 v8.5.3 及之前的版本中,默认值为 1。 + + 最小值:1 ### `max-grpc-send-msg-len` From 93322340f4cddfa81fd490e3adda70cc71207c40 Mon Sep 17 00:00:00 2001 From: Grace Cai Date: Wed, 7 Jan 2026 11:25:10 +0800 Subject: [PATCH 07/11] Update tikv-configuration-file.md --- tikv-configuration-file.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/tikv-configuration-file.md b/tikv-configuration-file.md index 028e82ca3280..e8e33fd6d678 100644 --- a/tikv-configuration-file.md +++ b/tikv-configuration-file.md @@ -178,7 +178,7 @@ TiKV 配置文件比命令行参数支持更多的选项。你可以在 [etc/con + TiKV 节点之间用于 Raft 通信的连接最大数量。 + 默认值: - + 从 v8.5.4 和 v9.0.0 起,调整为 `MAX(1, MIN(4, CPU 核数 / 8))`,其中,`MIN(4, CPU 核数 / 8)` 表示当 CPU 核数大于等于 32 时,默认的最大连接数为 4。 + + 从 v8.5.4 和 v9.0.0 起,默认值调整为 `MAX(1, MIN(4, CPU 核数 / 8))`,其中,`MIN(4, CPU 核数 / 8)` 表示当 CPU 核数大于等于 32 时,默认的最大连接数为 4。 + 在 v8.5.3 及之前的版本中,默认值为 1。 + 最小值:1 From a57c28d41f1bcb1b2c29a30fe82eb4ed7a95e534 Mon Sep 17 00:00:00 2001 From: qiancai Date: Wed, 7 Jan 2026 11:45:02 +0800 Subject: [PATCH 08/11] modify related docs --- best-practices/massive-regions-best-practices.md | 2 +- best-practices/three-nodes-hybrid-deployment.md | 2 +- 2 files changed, 2 insertions(+), 2 deletions(-) diff --git a/best-practices/massive-regions-best-practices.md b/best-practices/massive-regions-best-practices.md index afc4d6748e26..0301bd8e5677 100644 --- a/best-practices/massive-regions-best-practices.md +++ b/best-practices/massive-regions-best-practices.md @@ -146,7 +146,7 @@ Region 的默认大小为 256 MiB,将其调大可以减少 Region 个数,详 ### 方法七:提高 Raft 通信的的最大连接数 -TiKV 节点间用于 Raft 通信的最大连接数默认为 1,将其调大可以减少因为海量 Region 通信量过大而导致的阻塞情况。具体的配置说明可以参考 [`grpc-raft-conn-num`](/tikv-configuration-file.md#grpc-raft-conn-num)。 +TiKV 节点间用于 Raft 通信的最大连接数可以通过 [`server.grpc-raft-conn-num`](/tikv-configuration-file.md#grpc-raft-conn-num) 配置项调整,将其值调大可以减少因为海量 Region 通信量过大而导致的阻塞情况。 > **注意:** > diff --git a/best-practices/three-nodes-hybrid-deployment.md b/best-practices/three-nodes-hybrid-deployment.md index 44cceebffbb3..446f60218860 100644 --- a/best-practices/three-nodes-hybrid-deployment.md +++ b/best-practices/three-nodes-hybrid-deployment.md @@ -62,7 +62,7 @@ tikv: #### `server.grpc-concurrency` -该参数默认为 `4`。因为现有部署方案的 CPU 资源有限,实际请求数也不会很多。可以把该参数值调低,后续观察监控面板保持其使用率在 80% 以下即可。 +该参数默认值可参考 [`server.grpc-concurrency`](/tikv-configuration-file.md#grpc-concurrency)。因为现有部署方案的 CPU 资源有限,实际请求数也不会很多。可以把该参数值调低,后续观察监控面板保持其使用率在 80% 以下即可。 本次测试最后选择设置该参数值为 `2`,通过 **gRPC poll CPU** 面板观察,利用率正好在 80% 左右。 From 2071a3e8031b5e166aa31a12d536994603cebf3a Mon Sep 17 00:00:00 2001 From: Grace Cai Date: Wed, 7 Jan 2026 11:53:54 +0800 Subject: [PATCH 09/11] Update best-practices/three-nodes-hybrid-deployment.md --- best-practices/three-nodes-hybrid-deployment.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/best-practices/three-nodes-hybrid-deployment.md b/best-practices/three-nodes-hybrid-deployment.md index 446f60218860..22ff06bf7fea 100644 --- a/best-practices/three-nodes-hybrid-deployment.md +++ b/best-practices/three-nodes-hybrid-deployment.md @@ -62,7 +62,7 @@ tikv: #### `server.grpc-concurrency` -该参数默认值可参考 [`server.grpc-concurrency`](/tikv-configuration-file.md#grpc-concurrency)。因为现有部署方案的 CPU 资源有限,实际请求数也不会很多。可以把该参数值调低,后续观察监控面板保持其使用率在 80% 以下即可。 +因为现有部署方案的 CPU 资源有限,实际请求数也不会很多。可以把 [`server.grpc-concurrency`](/tikv-configuration-file.md#grpc-concurrency) 参数值调低,后续观察监控面板保持其使用率在 80% 以下即可。 本次测试最后选择设置该参数值为 `2`,通过 **gRPC poll CPU** 面板观察,利用率正好在 80% 左右。 From 6ee7d71580a6714169ffe3e30ce4b046b5e68dbb Mon Sep 17 00:00:00 2001 From: Grace Cai Date: Wed, 7 Jan 2026 11:55:10 +0800 Subject: [PATCH 10/11] Update best-practices/three-nodes-hybrid-deployment.md --- best-practices/three-nodes-hybrid-deployment.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/best-practices/three-nodes-hybrid-deployment.md b/best-practices/three-nodes-hybrid-deployment.md index 22ff06bf7fea..a2472ff3f93a 100644 --- a/best-practices/three-nodes-hybrid-deployment.md +++ b/best-practices/three-nodes-hybrid-deployment.md @@ -62,7 +62,7 @@ tikv: #### `server.grpc-concurrency` -因为现有部署方案的 CPU 资源有限,实际请求数也不会很多。可以把 [`server.grpc-concurrency`](/tikv-configuration-file.md#grpc-concurrency) 参数值调低,后续观察监控面板保持其使用率在 80% 以下即可。 +因为现有部署方案的 CPU 资源有限,实际请求数也不会很多,可以把 [`server.grpc-concurrency`](/tikv-configuration-file.md#grpc-concurrency) 参数值调低,后续观察监控面板保持其使用率在 80% 以下即可。 本次测试最后选择设置该参数值为 `2`,通过 **gRPC poll CPU** 面板观察,利用率正好在 80% 左右。 From d70141018193c3cc9585d3a21e4052086354cf40 Mon Sep 17 00:00:00 2001 From: Grace Cai Date: Wed, 7 Jan 2026 14:15:06 +0800 Subject: [PATCH 11/11] Update tune-tikv-memory-performance.md --- tune-tikv-memory-performance.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/tune-tikv-memory-performance.md b/tune-tikv-memory-performance.md index 4d5c89476120..74e9b1145089 100644 --- a/tune-tikv-memory-performance.md +++ b/tune-tikv-memory-performance.md @@ -43,7 +43,7 @@ log-level = "info" # gRPC 线程池大小 # grpc-concurrency = 4 # TiKV 每个实例之间的 gRPC 连接数 -# grpc-raft-conn-num = 10 +# grpc-raft-conn-num = 1 # TiDB 过来的大部分读请求都会发送到 TiKV 的 Coprocessor 进行处理,该参数用于设置 # coprocessor 线程的个数,如果业务是读请求比较多,增加 coprocessor 的线程数,但应比系统的