Skip to content

Commit e0b7b1e

Browse files
committed
Merge remote-tracking branch 'upstream/master'
2 parents 609865d + 9862f23 commit e0b7b1e

25 files changed

+828
-260
lines changed

TOC.md

Lines changed: 1 addition & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1098,6 +1098,7 @@
10981098
- [TiDB 版本规则](/releases/versioning.md)
10991099
- [TiDB 离线包](/binary-package.md)
11001100
- v8.5
1101+
- [8.5.3](/releases/release-8.5.3.md)
11011102
- [8.5.2](/releases/release-8.5.2.md)
11021103
- [8.5.1](/releases/release-8.5.1.md)
11031104
- [8.5.0](/releases/release-8.5.0.md)

basic-features.md

Lines changed: 219 additions & 219 deletions
Large diffs are not rendered by default.

best-practices/java-app-best-practices.md

Lines changed: 5 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -188,7 +188,11 @@ update t set a = 10 where id = 1; update t set a = 11 where id = 2; update t set
188188
189189
#### 超时参数
190190

191-
TiDB 提供两个与 MySQL 兼容的超时控制参数,`wait_timeout``max_execution_time`。这两个参数分别控制与 Java 应用连接的空闲超时时间和连接中 SQL 执行的超时时间,即控制 TiDB 与 Java 应用的连接最长闲多久和最长忙多久。这两个参数的默认值都是 `0`,即默认允许连接无限闲置以及无限忙碌(一个 SQL 语句执行无限的长的时间)。
191+
TiDB 提供以下与 MySQL 兼容的超时控制参数:
192+
193+
- `wait_timeout`:控制与 Java 应用连接的非交互式空闲超时时间。在 TiDB v5.4 及以上版本中,默认值为 `28800` 秒,即空闲超时为 8 小时。在 v5.4 之前,默认值为 `0`,即没有时间限制。
194+
- `interactive_timeout`:控制与 Java 应用连接的交互式空闲超时时间,默认值为 8 小时。
195+
- `max_execution_time`:控制连接中 SQL 执行的超时时间,仅对“只读”语句生效,默认值是 `0`,即允许连接无限忙碌(一个 SQL 语句执行无限的长的时间)。
192196

193197
但在实际生产环境中,空闲连接和一直无限执行的 SQL 对数据库和应用都有不好的影响。你可以通过在应用的连接字符串中配置这两个参数来避免空闲连接和执行时间过长的 SQL 语句。例如,设置 `sessionVariables=wait_timeout=3600`(1 小时)和 `sessionVariables=max_execution_time=300000`(5 分钟)。
194198

br/br-log-architecture.md

Lines changed: 13 additions & 6 deletions
Original file line numberDiff line numberDiff line change
@@ -87,7 +87,7 @@ PITR 的流程如下:
8787

8888
日志备份会产生如下类型文件:
8989

90-
- `{resolved_ts}-{uuid}.meta` 文件:每个 TiKV 节点每次上传日志备份数据时会生成一个该文件,保存本次上传的所有日志备份数据文件。其中 `{resolved_ts}` 是本节点的日志备份的 Resolved Timestamp,所有 TiKV 节点最小的 Resolved Timestamp 就是日志备份任务最新的 `resolved_ts``{uuid}` 是在生成该文件时随机生成的
90+
- `{flushTs}-{minDefaultTs}-{minTs}-{maxTs}.meta` 文件:每个 TiKV 节点每次上传日志备份数据时会生成一个该文件,保存本次上传的所有日志备份数据文件。文件名中的字段含义请参考[备份文件目录结构](#备份文件目录结构)
9191
- `{store_id}.ts` 文件:每个 TiKV 节点每次上传日志备份数据时会使用 global checkpoint ts 更新该文件。其中 `{store_id}` 是 TiKV 的 store ID。
9292
- `{min_ts}-{uuid}.log` 文件:存储备份下来的 kv 数据变更记录。其中 `{min_ts}` 是该文件中所有 kv 数据变更记录数对应的最小 ts;`{uuid}` 是在生成该文件时随机生成的。
9393
- `v1_stream_truncate_safepoint.txt` 文件:保存最近一次通过 `br log truncate` 删除日志备份数据后,存储中最早的日志备份数据对应的 ts。
@@ -99,7 +99,7 @@ PITR 的流程如下:
9999
├── v1
100100
│   ├── backupmeta
101101
│   │   ├── ...
102-
│   │   └── {resolved_ts}-{uuid}.meta
102+
│   │   └── {flushTs}-{minDefaultTs}-{minTs}-{maxTs}.meta
103103
│   ├── global_checkpoint
104104
│   │   └── {store_id}.ts
105105
│   └── {date}
@@ -112,7 +112,14 @@ PITR 的流程如下:
112112

113113
备份文件目录结构的说明如下:
114114

115-
- `backupmeta`:备份的元数据。文件名中的 `resolved_ts` 指备份的进度,表示该 TSO 之前的数据已被完整备份。但是需注意,该 TSO 仅反映部分分片的进度。
115+
- `backupmeta` 目录:存储备份的元数据文件。从 v8.5.3 和 v9.0.0 起,该文件命名格式从 `{resolved_ts}-{uuid}.meta` 修改为 `{flushTs}-{minDefaultTs}-{minTs}-{maxTs}.meta`。文件名中包含以下时间戳字段:
116+
117+
- `flushTs`:该备份文件被定期上传至外部存储的时间戳。该值从 PD 获取,具有全局唯一性。
118+
- `minDefaultTs`:仅针对 Write CF 文件,表示该备份所覆盖的最早事务起始时间。
119+
- `minTs``maxTs`:该备份文件内包含的所有 key-value 数据的最小时间戳和最大时间戳。
120+
121+
这些时间戳均采用 16 位固定长度的十六进制字符串编码,左侧补零以保证长度一致。这样的编码设计可以确保文件名按照字典序自然排序,方便在外部存储系统中高效执行批量列举和范围过滤操作。
122+
116123
- `global_checkpoint`:备份的全局进度。它记录了可以被 `br restore point` 恢复到的最晚时间点。
117124
- `{date}/{hour}`:对应日期和小时的备份数据。注意在清理存储的时候,需使用 `br log truncate`,不能手动删除数据。这是因为 metadata 会指向这里的数据,手动删除它们会导致恢复失败或恢复后数据不一致等问题。
118125

@@ -122,9 +129,9 @@ PITR 的流程如下:
122129
├── v1
123130
│   ├── backupmeta
124131
│   │   ├── ...
125-
│   │   ├── 435213818858112001-e2569bda-a75a-4411-88de-f469b49d6256.meta
126-
│   │   ├── 435214043785779202-1780f291-3b8a-455e-a31d-8a1302c43ead.meta
127-
│   │   └── 435214443785779202-224f1408-fff5-445f-8e41-ca4fcfbd2a67.meta
132+
│   │   ├── 060c4bc7b0cdd582-06097a780d1ba138-060ab960016d2f00-060c0b9e47d4787b.meta
133+
│   │   ├── 06123bc6a0cdd591-060c3d24585be000-060c4453954a4000-060c4bc7b0cdcfa4.meta
134+
│   │   └── 063c2ac1c0cdd5c3-0609d2e6b3bcb064-060ab960016d2f84-060c0b9e47d47a77.meta
128135
│   ├── global_checkpoint
129136
│   │   ├── 1.ts
130137
│   │   ├── 2.ts

br/br-pitr-manual.md

Lines changed: 128 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -496,6 +496,81 @@ tiup br restore point --pd="${PD_IP}:2379"
496496
--master-key "local:///path/to/master.key"
497497
```
498498
499+
### 使用过滤器恢复
500+
501+
从 TiDB v9.0.0 开始,在按时间点恢复 (PITR) 过程中,你可以使用过滤器恢复特定的数据库或表,从而更精细地控制要恢复的数据。
502+
503+
过滤器采用与其他 BR 操作相同的[表库过滤语法](/table-filter.md):
504+
505+
- `'*.*'`:匹配所有数据库和表。
506+
- `'db1.*'`:匹配数据库 `db1` 中的所有表。
507+
- `'db1.table1'`:匹配数据库 `db1` 中的特定表 `table1`
508+
- `'db*.tbl*'`:匹配以 `db` 开头的数据库和以 `tbl` 开头的表。
509+
- `'!mysql.*'`:排除 `mysql` 数据库中的所有表。
510+
511+
使用示例:
512+
513+
```shell
514+
# 恢复特定数据库
515+
tiup br restore point --pd="${PD_IP}:2379" \
516+
--storage='s3://backup-101/logbackup?access-key=${ACCESS-KEY}&secret-access-key=${SECRET-ACCESS-KEY}' \
517+
--full-backup-storage='s3://backup-101/snapshot-20250602000000?access-key=${ACCESS-KEY}&secret-access-key=${SECRET-ACCESS-KEY}' \
518+
--start-ts "2025-06-02 00:00:00+0800" \
519+
--restored-ts "2025-06-03 18:00:00+0800" \
520+
--filter 'db1.*' --filter 'db2.*'
521+
522+
# 恢复特定表
523+
tiup br restore point --pd="${PD_IP}:2379" \
524+
--storage='s3://backup-101/logbackup?access-key=${ACCESS-KEY}&secret-access-key=${SECRET-ACCESS-KEY}' \
525+
--full-backup-storage='s3://backup-101/snapshot-20250602000000?access-key=${ACCESS-KEY}&secret-access-key=${SECRET-ACCESS-KEY}' \
526+
--start-ts "2025-06-02 00:00:00+0800" \
527+
--restored-ts "2025-06-03 18:00:00+0800" \
528+
--filter 'db1.users' --filter 'db1.orders'
529+
530+
# 使用模式匹配恢复
531+
tiup br restore point --pd="${PD_IP}:2379" \
532+
--storage='s3://backup-101/logbackup?access-key=${ACCESS-KEY}&secret-access-key=${SECRET-ACCESS-KEY}' \
533+
--full-backup-storage='s3://backup-101/snapshot-20250602000000?access-key=${ACCESS-KEY}&secret-access-key=${SECRET-ACCESS-KEY}' \
534+
--start-ts "2025-06-02 00:00:00+0800" \
535+
--restored-ts "2025-06-03 18:00:00+0800" \
536+
--filter 'db*.tbl*'
537+
```
538+
539+
> **注意:**
540+
>
541+
> - 使用过滤器恢复前,请确保目标集群中不存在与过滤器匹配的数据库或表,否则恢复将失败并报错。
542+
> - 过滤器选项适用于快照备份和日志备份的恢复阶段。
543+
> - 可以指定多个 `--filter` 选项来包含或排除不同的模式。
544+
> - PITR 过滤暂不支持系统表。如果需要恢复特定的系统表,请使用 `br restore full` 命令并配合过滤器,注意该命令仅恢复快照备份数据(而非日志备份数据)。
545+
546+
### 并发恢复操作
547+
548+
从 TiDB v9.0.0 开始,你可以同时执行多个 PITR 恢复任务。该功能允许你并行恢复不同的数据集,从而提升大规模恢复场景下的效率。
549+
550+
并发恢复的使用示例:
551+
552+
```shell
553+
# 终端 1 - 恢复数据库 db1
554+
tiup br restore point --pd="${PD_IP}:2379" \
555+
--storage='s3://backup-101/logbackup?access-key=${ACCESS-KEY}&secret-access-key=${SECRET-ACCESS-KEY}' \
556+
--full-backup-storage='s3://backup-101/snapshot-20250602000000?access-key=${ACCESS-KEY}&secret-access-key=${SECRET-ACCESS-KEY}' \
557+
--start-ts "2025-06-02 00:00:00+0800" \
558+
--restored-ts "2025-06-03 18:00:00+0800" \
559+
--filter 'db1.*'
560+
561+
# 终端 2 - 恢复数据库 db2(可同时运行)
562+
tiup br restore point --pd="${PD_IP}:2379" \
563+
--storage='s3://backup-101/logbackup?access-key=${ACCESS-KEY}&secret-access-key=${SECRET-ACCESS-KEY}' \
564+
--full-backup-storage='s3://backup-101/snapshot-20250602000000?access-key=${ACCESS-KEY}&secret-access-key=${SECRET-ACCESS-KEY}' \
565+
--start-ts "2025-06-02 00:00:00+0800" \
566+
--restored-ts "2025-06-03 18:00:00+0800" \
567+
--filter 'db2.*'
568+
```
569+
570+
> **注意:**
571+
>
572+
> 每个并发恢复操作必须作用于不同的数据库或不重叠的表集合。尝试并发恢复重叠数据集将导致错误。
573+
499574
### 进行中的日志备份与快照恢复的兼容性
500575
501576
从 v9.0.0 开始,当存在日志备份任务时,如果**同时满足**以下条件,则可以正常进行快照恢复 (`br restore [full|database|table]`),并且恢复的数据可以被进行中的日志备份(下称“日志备份”)正常记录:
@@ -507,13 +582,63 @@ tiup br restore point --pd="${PD_IP}:2379"
507582
- 待恢复的数据与日志备份的目标存储拥有相同的外部存储类型。
508583
- 待恢复的数据和日志备份均未开启本地加密,参考[日志备份加密](#加密日志备份数据)和[快照备份加密](/br/br-snapshot-manual.md#备份数据加密)。
509584
510-
如果不能同时满足上述条件或者要恢复到时间点,当存在日志备份任务时,BR 会拒绝恢复数据。此时,可以通过以下步骤完成数据恢复
585+
如果不能同时满足上述条件,你可以通过以下步骤完成数据恢复
511586
512-
1. [停止备份任务](#停止日志备份任务)。
587+
1. [停止日志备份任务](#停止日志备份任务)。
513588
2. 进行数据恢复。
514589
3. 恢复完成后,重新进行快照备份。
515590
4. [重新启动备份任务](#重新启动备份任务)。
516591
517592
> **注意:**
518593
>
519-
> 当恢复记录了快照(全量)恢复数据的日志备份时,需要使用 v9.0.0 及之后版本的 BR,否则可能导致记录下来的全量恢复数据无法被恢复。
594+
> 当恢复记录了快照(全量)恢复数据的日志备份时,需要使用 v9.0.0 及之后版本的 BR,否则可能导致记录下来的全量恢复数据无法被恢复。
595+
596+
### 进行中的日志备份与 PITR 操作的兼容性
597+
598+
从 TiDB v9.0.0 开始,默认情况下,你可以在日志备份任务运行期间执行 PITR 操作。系统会自动处理这些操作之间的兼容性。
599+
600+
#### 进行中的日志备份与 PITR 的重要限制
601+
602+
当在运行日志备份的同时执行 PITR 操作时,恢复的数据也会被记录到日志备份中。但是,在恢复操作的时间窗口内,由于日志恢复操作的特性,可能存在数据不一致的风险。系统会将元数据写入外部存储,以标记无法保证一致性的时间范围和数据范围。
603+
604+
如果在时间范围 `[t1, t2)` 期间发生此类不一致,你无法直接恢复该时间段的数据,需选择以下替代方案:
605+
606+
- 恢复到 `t1` 时间点(获取不一致时期之前的数据)
607+
- 或在 `t2` 时间点后执行新的快照备份,并基于此备份进行后续 PITR 操作
608+
609+
### 中止恢复操作
610+
611+
当恢复操作失败时,你可以使用 `tiup br abort` 命令来清理注册表条目和检查点数据。该命令会根据提供的原始恢复参数自动找到并删除相关的元数据,包括 `mysql.tidb_restore_registry` 表中的条目以及检查点数据(无论存储在本地数据库还是外部存储中)。
612+
613+
> **注意:**
614+
>
615+
> `abort` 命令仅清理元数据,任何实际恢复的数据需要手动从集群中删除。
616+
617+
使用与原始恢复命令相同的参数来中止恢复操作的示例如下:
618+
619+
```shell
620+
# 中止 PITR 操作
621+
tiup br abort restore point --pd="${PD_IP}:2379" \
622+
--storage='s3://backup-101/logbackup?access-key=${ACCESS-KEY}&secret-access-key=${SECRET-ACCESS-KEY}' \
623+
--full-backup-storage='s3://backup-101/snapshot-20250602000000?access-key=${ACCESS-KEY}&secret-access-key=${SECRET-ACCESS-KEY}'
624+
625+
# 中止带过滤器的 PITR 操作
626+
tiup br abort restore point --pd="${PD_IP}:2379" \
627+
--storage='s3://backup-101/logbackup?access-key=${ACCESS-KEY}&secret-access-key=${SECRET-ACCESS-KEY}' \
628+
--full-backup-storage='s3://backup-101/snapshot-20250602000000?access-key=${ACCESS-KEY}&secret-access-key=${SECRET-ACCESS-KEY}' \
629+
--filter 'db1.*'
630+
631+
# 中止全量恢复
632+
tiup br abort restore full --pd="${PD_IP}:2379" \
633+
--storage='s3://backup-101/snapshot-20250602000000?access-key=${ACCESS-KEY}&secret-access-key=${SECRET-ACCESS-KEY}'
634+
635+
# 中止数据库恢复
636+
tiup br abort restore db --pd="${PD_IP}:2379" \
637+
--storage='s3://backup-101/snapshot-20250602000000?access-key=${ACCESS-KEY}&secret-access-key=${SECRET-ACCESS-KEY}' \
638+
--db database_name
639+
640+
# 中止表恢复
641+
tiup br abort restore table --pd="${PD_IP}:2379" \
642+
--storage='s3://backup-101/snapshot-20250602000000?access-key=${ACCESS-KEY}&secret-access-key=${SECRET-ACCESS-KEY}' \
643+
--db database_name --table table_name
644+
```

develop/dev-guide-build-cluster-in-cloud.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -8,7 +8,7 @@ aliases: ['/zh/tidb/dev/build-cluster-in-cloud']
88

99
# 使用 {{{ .starter }}} 构建 TiDB 集群
1010

11-
本文将介绍如何以最快的方式开始使用 TiDB。你将创建并启动一个 [{{{ .starter }}}](https://www.pingcap.com/tidb-cloud-serverless/) 集群,使用 TiDB SQL 客户端,插入数据。随后将从示例程序读取出数据。
11+
本文将介绍如何以最快的方式开始使用 TiDB。你将创建并启动一个 [{{{ .starter }}}](https://www.pingcap.com/tidb-cloud-serverless/)(原名 Serverless)集群,使用 TiDB SQL 客户端,插入数据。随后将从示例程序读取出数据。
1212

1313
若你需要在本地计算机上启动 TiDB,请参阅[本地启动 TiDB](/quick-start-with-tidb.md)
1414

@@ -24,7 +24,7 @@ aliases: ['/zh/tidb/dev/build-cluster-in-cloud']
2424
如果你想创建一个新的 {{{ .starter }}} 集群,请进行以下操作:
2525

2626
1. 点击 **Create Cluster**
27-
2. **Create Cluster** 页面默认选择 **Serverless**。你可以根据需要修改集群名称、选择可用区,然后点击 **Create**。你的 {{{ .starter }}} 集群将于 30 秒后创建完毕。
27+
2. **Create Cluster** 页面默认选择 **Starter**。你可以根据需要修改集群名称、选择可用区,然后点击 **Create**。你的 {{{ .starter }}} 集群将于 30 秒后创建完毕。
2828

2929
4. 点击目标集群名称,进入集群概览页面,然后点击右上角的 **Connect** 按钮,弹出连接对话框。
3030

pd-control.md

Lines changed: 26 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -1569,8 +1569,32 @@ store --jq='.stores[].store | select(.labels | length>0 and contains([{"key":"en
15691569
```
15701570

15711571
```
1572-
{"id":1,"address":"127.0.0.1:20161""state_name":"Up"}
1573-
{"id":5,"address":"127.0.0.1:20162""state_name":"Up"}
1572+
{"id":1,"address":"127.0.0.1:20161","state_name":"Up"}
1573+
{"id":5,"address":"127.0.0.1:20162","state_name":"Up"}
1574+
...
1575+
```
1576+
1577+
### 查询存算分离架构下的 TiFlash 节点
1578+
1579+
查找[存算分离架构](/tiflash/tiflash-disaggregated-and-s3.md)下的 TiFlash Write Node:
1580+
1581+
```bash
1582+
store --jq='.stores[].store | select(.labels | length>0 and contains([{"key":"engine","value":"tiflash"}, {"key":"engine_role","value":"write"}])) | {id, address, labels, state_name}'
1583+
```
1584+
1585+
```
1586+
{"id":130,"address":"172.31.8.1:10161","labels":[{"key":"engine_role","value":"write"},{"key":"engine","value":"tiflash"}],"state_name":"Up"}
1587+
...
1588+
```
1589+
1590+
查找[存算分离架构](/tiflash/tiflash-disaggregated-and-s3.md)下的 TiFlash Compute Node:
1591+
1592+
```bash
1593+
store --jq='.stores[].store | select(.labels | length>0 and contains([{"key":"engine","value":"tiflash_compute"}])) | {id, address, labels, state_name}'
1594+
```
1595+
1596+
```
1597+
{"id":131,"address":"172.31.9.1:10161","labels":[{"key":"engine","value":"tiflash_compute"}],"state_name":"Up"}
15741598
...
15751599
```
15761600

releases/release-6.1.5.md

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -15,8 +15,8 @@ TiDB 版本:6.1.5
1515

1616
- 自 2023 年 2 月 20 日起,新发布的 TiDB 和 TiDB Dashboard 版本(包含 6.1.5),默认关闭[遥测功能](/telemetry.md),即默认不再收集使用情况信息分享给 PingCAP。如果升级至这些版本前使用默认的遥测配置,则升级后遥测功能处于关闭状态。具体的版本可参考 [TiDB 版本发布时间线](/releases/release-timeline.md)
1717

18-
- 系统变量 [`tidb_enable_telemetry`](/system-variables.md#tidb_enable_telemetry-从-v402-版本开始引入从-v810-版本开始废弃) 默认值由 `ON` 修改为 `OFF`
19-
- TiDB 配置项 [`enable-telemetry`](/tidb-configuration-file.md#enable-telemetry-从-v402-版本开始引入从-v810-版本开始废弃) 默认值由 `true` 改为 `false`
18+
- 系统变量 [`tidb_enable_telemetry`](/system-variables.md#tidb_enable_telemetry-从-v402-版本开始引入) 默认值由 `ON` 修改为 `OFF`
19+
- TiDB 配置项 [`enable-telemetry`](/tidb-configuration-file.md#enable-telemetry-从-v402-版本开始引入) 默认值由 `true` 改为 `false`
2020
- PD 配置项 [`enable-telemetry`](/pd-configuration-file.md#enable-telemetry) 默认值由 `true` 改为 `false`
2121

2222
- 从 v1.11.3 起,新部署的 TiUP 默认关闭遥测功能,即默认不再收集使用情况信息。如果从 v1.11.3 之前的 TiUP 版本升级至 v1.11.3 或更高 TiUP 版本,遥测保持升级前的开启或关闭状态。
@@ -48,4 +48,4 @@ TiDB 版本:6.1.5
4848
+ TiDB Data Migration (DM)
4949

5050
- 修复 `binlog-schema delete` 命令执行失败的问题 [#7373](https://github.com/pingcap/tiflow/issues/7373) @[liumengya94](https://github.com/liumengya94)
51-
- 修复当最后一个 binlog 是被 skip 的 DDL 时,checkpoint 不推进的问题 [#8175](https://github.com/pingcap/tiflow/issues/8175) @[D3Hunter](https://github.com/D3Hunter)
51+
- 修复当最后一个 binlog 是被 skip 的 DDL 时,checkpoint 不推进的问题 [#8175](https://github.com/pingcap/tiflow/issues/8175) @[D3Hunter](https://github.com/D3Hunter)

releases/release-6.5.1.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -15,8 +15,8 @@ TiDB 版本:6.5.1
1515

1616
- 自 2023 年 2 月 20 日起,新发布的 TiDB 和 TiDB Dashboard 版本(包含 6.5.1),默认关闭[遥测功能](/telemetry.md),即默认不再收集使用情况信息分享给 PingCAP。如果升级至这些版本前使用默认的遥测配置,则升级后遥测功能处于关闭状态。具体的版本可参考 [TiDB 版本发布时间线](/releases/release-timeline.md)
1717

18-
- 系统变量 [`tidb_enable_telemetry`](/system-variables.md#tidb_enable_telemetry-从-v402-版本开始引入从-v810-版本开始废弃) 默认值由 `ON` 修改为 `OFF`
19-
- TiDB 配置项 [`enable-telemetry`](/tidb-configuration-file.md#enable-telemetry-从-v402-版本开始引入从-v810-版本开始废弃) 默认值由 `true` 改为 `false`
18+
- 系统变量 [`tidb_enable_telemetry`](/system-variables.md#tidb_enable_telemetry-从-v402-版本开始引入) 默认值由 `ON` 修改为 `OFF`
19+
- TiDB 配置项 [`enable-telemetry`](/tidb-configuration-file.md#enable-telemetry-从-v402-版本开始引入) 默认值由 `true` 改为 `false`
2020
- PD 配置项 [`enable-telemetry`](/pd-configuration-file.md#enable-telemetry) 默认值由 `true` 改为 `false`
2121

2222
- 从 v1.11.3 起,新部署的 TiUP 默认关闭遥测功能,即默认不再收集使用情况信息。如果从 v1.11.3 之前的 TiUP 版本升级至 v1.11.3 或更高 TiUP 版本,遥测保持升级前的开启或关闭状态。

0 commit comments

Comments
 (0)