diff --git a/.translation-init b/.translation-init
index 8be74e6308..2e11c117a0 100644
--- a/.translation-init
+++ b/.translation-init
@@ -1 +1 @@
-Translation initialization: 2025-10-21T14:23:00.990155
+Translation initialization: 2025-10-21T15:20:01.505795
diff --git a/docs/cn/guides/51-access-data-lake/01-hive.md b/docs/cn/guides/51-access-data-lake/01-hive.md
deleted file mode 100644
index 4be5e957c3..0000000000
--- a/docs/cn/guides/51-access-data-lake/01-hive.md
+++ /dev/null
@@ -1,115 +0,0 @@
----
-title: Apache Hive
----
-import FunctionDescription from '@site/src/components/FunctionDescription';
-
-
-
-Databend 支持集成 [Apache Hive](https://hive.apache.org/) catalog,从而增强了其数据管理和分析的兼容性和多功能性。通过将 Apache Hive 强大的元数据和存储管理功能无缝集成到平台中,扩展了 Databend 的功能。
-
-## 数据类型映射
-
-下表映射了 Apache Hive 和 Databend 之间的数据类型。请注意,Databend 目前不支持表中未列出的 Hive 数据类型。
-
-| Apache Hive | Databend |
-| ------------------- | -------------------- |
-| BOOLEAN | [BOOLEAN](/sql/sql-reference/data-types/boolean) |
-| TINYINT | [TINYINT (INT8)](/sql/sql-reference/data-types/numeric#integer-data-types) |
-| SMALLINT | [SMALLINT (INT16)](/sql/sql-reference/data-types/numeric#integer-data-types) |
-| INT | [INT (INT32)](/sql/sql-reference/data-types/numeric#integer-data-types) |
-| BIGINT | [BIGINT (INT64)](/sql/sql-reference/data-types/numeric#integer-data-types) |
-| DATE | [DATE](/sql/sql-reference/data-types/datetime) |
-| TIMESTAMP | [TIMESTAMP](/sql/sql-reference/data-types/datetime) |
-| FLOAT | [FLOAT (FLOAT32)](/sql/sql-reference/data-types/numeric#floating-point-data-types) |
-| DOUBLE | [DOUBLE (FLOAT64)](/sql/sql-reference/data-types/numeric#floating-point-data-types) |
-| VARCHAR | [VARCHAR (STRING)](/sql/sql-reference/data-types/string) |
-| DECIMAL | [DECIMAL](/sql/sql-reference/data-types/decimal) |
-| ARRAY<TYPE> | [ARRAY](/sql/sql-reference/data-types/array), supports nesting |
-| MAP<KEYTYPE, VALUETYPE> | [MAP](/sql/sql-reference/data-types/map) |
-
-## 管理 Catalog
-
-Databend 提供了以下命令来管理 catalog:
-
-- [CREATE CATALOG](#create-catalog)
-- [SHOW CREATE CATALOG](#show-create-catalog)
-- [SHOW CATALOGS](#show-catalogs)
-- [USE CATALOG](#use-catalog)
-
-### CREATE CATALOG
-
-在 Databend 查询引擎中定义并建立一个新的 catalog。
-
-#### 语法
-
-```sql
-CREATE CATALOG
-TYPE =
-CONNECTION = (
- METASTORE_ADDRESS = ''
- URL = ''
- = ''
- = ''
- ...
-)
-```
-
-| Parameter | Required? | Description |
-|-----------------------|-----------|---------------------------------------------------------------------------------------------------------------------------|
-| TYPE | Yes | catalog 的类型:Hive catalog 为 'HIVE',Iceberg catalog 为 'ICEBERG'。 |
-| METASTORE_ADDRESS | No | Hive Metastore 地址。仅 Hive catalog 需要。|
-| URL | Yes | 链接到此 catalog 的外部存储的位置。这可以是 bucket 或 bucket 中的文件夹。例如,'s3://databend-toronto/'。 |
-| connection_parameter | Yes | 用于建立与外部存储连接的连接参数。所需的参数因特定的存储服务和身份验证方法而异。有关详细信息,请参阅 [连接参数](/sql/sql-reference/connect-parameters)。 |
-
-### SHOW CREATE CATALOG
-
-返回指定 catalog 的详细配置,包括其类型和存储参数。
-
-#### 语法
-
-```sql
-SHOW CREATE CATALOG ;
-```
-
-### SHOW CATALOGS
-
-显示所有已创建的 catalog。
-
-#### 语法
-
-```sql
-SHOW CATALOGS [LIKE '']
-```
-
-### USE CATALOG
-
-将当前会话切换到指定的 catalog。
-
-#### 语法
-
-```sql
-USE CATALOG
-```
-
-## 使用示例
-
-此示例演示如何创建一个配置为与 Hive Metastore 交互并访问存储在 Amazon S3 上(位于 's3://databend-toronto/')的数据的 catalog。
-
-```sql
-CREATE CATALOG hive_ctl
-TYPE = HIVE
-CONNECTION =(
- METASTORE_ADDRESS = '127.0.0.1:9083'
- URL = 's3://databend-toronto/'
- AWS_KEY_ID = ''
- AWS_SECRET_KEY = ''
-);
-
-SHOW CREATE CATALOG hive_ctl;
-
-┌──────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────┐
-│ Catalog │ Type │ Option │
-├──────────┼────────┼──────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────┤
-│ hive_ctl │ hive │ METASTORE ADDRESS\n127.0.0.1:9083\nSTORAGE PARAMS\ns3 | bucket=databend-toronto,root=/,endpoint=https://s3.amazonaws.com │
-└──────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────┘
-```
\ No newline at end of file
diff --git a/docs/cn/guides/51-access-data-lake/02-iceberg.md b/docs/cn/guides/51-access-data-lake/02-iceberg.md
deleted file mode 100644
index 2647201e0c..0000000000
--- a/docs/cn/guides/51-access-data-lake/02-iceberg.md
+++ /dev/null
@@ -1,439 +0,0 @@
----
-title: Apache Iceberg™
----
-
-import FunctionDescription from '@site/src/components/FunctionDescription';
-
-
-
-Databend 支持集成 [Apache Iceberg™](https://iceberg.apache.org/) catalog,增强了其在数据管理和分析方面的兼容性和多功能性。这通过将 Apache Iceberg™ 强大的元数据和存储管理功能无缝集成到平台中,扩展了 Databend 的能力。
-
-## Iceberg 快速入门
-
-如果您想快速试用 Iceberg 并在本地实验表操作,可以使用 [基于 Docker 的入门项目](https://github.com/databendlabs/iceberg-quick-start)。此设置允许您:
-
-- 运行支持 Iceberg 的 Spark
-- 使用 REST catalog (Iceberg REST Fixture)
-- 使用 MinIO 模拟 S3 兼容的对象存储
-- 将示例 TPC-H 数据加载到 Iceberg 表中进行查询测试
-
-### 前置条件
-
-开始之前,请确保您的系统上已安装 Docker 和 Docker Compose。
-
-### 启动 Iceberg 环境
-
-```bash
-git clone https://github.com/databendlabs/iceberg-quick-start.git
-cd iceberg-quick-start
-docker compose up -d
-```
-
-这将启动以下服务:
-
-- `spark-iceberg`: 支持 Iceberg 的 Spark 3.4
-- `rest`: Iceberg REST Catalog
-- `minio`: S3 兼容的对象存储
-- `mc`: MinIO 客户端 (用于设置存储桶)
-
-```bash
-WARN[0000] /Users/eric/iceberg-quick-start/docker-compose.yml: the attribute `version` is obsolete, it will be ignored, please remove it to avoid potential confusion
-[+] Running 5/5
- ✔ Network iceberg-quick-start_iceberg_net Created 0.0s
- ✔ Container iceberg-rest-test Started 0.4s
- ✔ Container minio Started 0.4s
- ✔ Container mc Started 0.6s
- ✔ Container spark-iceberg S... 0.7s
-```
-
-### 通过 Spark Shell 加载 TPC-H 数据
-
-运行以下命令生成示例 TPC-H 数据并将其加载到 Iceberg 表中:
-
-```bash
-docker exec spark-iceberg bash /home/iceberg/load_tpch.sh
-```
-
-```bash
-Collecting duckdb
- Downloading duckdb-1.2.2-cp310-cp310-manylinux_2_24_aarch64.manylinux_2_28_aarch64.whl (18.7 MB)
- ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 18.7/18.7 MB 5.8 MB/s eta 0:00:00
-Requirement already satisfied: pyspark in /opt/spark/python (3.5.5)
-Collecting py4j==0.10.9.7
- Downloading py4j-0.10.9.7-py2.py3-none-any.whl (200 kB)
- ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 200.5/200.5 kB 5.9 MB/s eta 0:00:00
-Installing collected packages: py4j, duckdb
-Successfully installed duckdb-1.2.2 py4j-0.10.9.7
-
-[notice] A new release of pip is available: 23.0.1 -> 25.1.1
-[notice] To update, run: pip install --upgrade pip
-Setting default log level to "WARN".
-To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
-25/05/07 12:17:27 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
-25/05/07 12:17:28 WARN Utils: Service 'SparkUI' could not bind on port 4040. Attempting port 4041.
-[2025-05-07 12:17:18] [INFO] Starting TPC-H data generation and loading process
-[2025-05-07 12:17:18] [INFO] Configuration: Scale Factor=1, Data Dir=/home/iceberg/data/tpch_1
-[2025-05-07 12:17:18] [INFO] Generating TPC-H data with DuckDB (Scale Factor: 1)
-[2025-05-07 12:17:27] [INFO] Generated 8 Parquet files in /home/iceberg/data/tpch_1
-[2025-05-07 12:17:28] [INFO] Loading data into Iceberg catalog
-[2025-05-07 12:17:33] [INFO] Created Iceberg table: demo.tpch.part from part.parquet
-[2025-05-07 12:17:33] [INFO] Created Iceberg table: demo.tpch.region from region.parquet
-[2025-05-07 12:17:33] [INFO] Created Iceberg table: demo.tpch.supplier from supplier.parquet
-[2025-05-07 12:17:35] [INFO] Created Iceberg table: demo.tpch.orders from orders.parquet
-[2025-05-07 12:17:35] [INFO] Created Iceberg table: demo.tpch.nation from nation.parquet
-[2025-05-07 12:17:40] [INFO] Created Iceberg table: demo.tpch.lineitem from lineitem.parquet
-[2025-05-07 12:17:40] [INFO] Created Iceberg table: demo.tpch.partsupp from partsupp.parquet
-[2025-05-07 12:17:41] [INFO] Created Iceberg table: demo.tpch.customer from customer.parquet
-+---------+---------+-----------+
-|namespace|tableName|isTemporary|
-+---------+---------+-----------+
-| tpch| customer| false|
-| tpch| lineitem| false|
-| tpch| nation| false|
-| tpch| orders| false|
-| tpch| part| false|
-| tpch| partsupp| false|
-| tpch| region| false|
-| tpch| supplier| false|
-+---------+---------+-----------+
-
-[2025-05-07 12:17:42] [SUCCESS] TPCH data generation and loading completed successfully
-```
-
-### 在 Databend 中查询数据
-
-TPC-H 表加载完成后,您可以在 Databend 中查询数据:
-
-1. 在 Docker 中启动 Databend:
-
-```bash
-docker network create iceberg_net
-```
-
-```bash
-docker run -d \
- --name databend \
- --network iceberg_net \
- -p 3307:3307 \
- -p 8000:8000 \
- -p 8124:8124 \
- -p 8900:8900 \
- datafuselabs/databend
-```
-
-2. 首先使用 BendSQL 连接到 Databend,然后创建一个 Iceberg catalog:
-
-```bash
-bendsql
-```
-
-```bash
-Welcome to BendSQL 0.24.1-f1f7de0(2024-12-04T12:31:18.526234000Z).
-Connecting to localhost:8000 as user root.
-Connected to Databend Query v1.2.725-8d073f6b7a(rust-1.88.0-nightly-2025-04-21T11:49:03.577976082Z)
-Loaded 1436 auto complete keywords from server.
-Started web server at 127.0.0.1:8080
-```
-
-```sql
-CREATE CATALOG iceberg TYPE = ICEBERG CONNECTION = (
- TYPE = 'rest'
- ADDRESS = 'http://host.docker.internal:8181'
- warehouse = 's3://warehouse/wh/'
- "s3.endpoint" = 'http://host.docker.internal:9000'
- "s3.access-key-id" = 'admin'
- "s3.secret-access-key" = 'password'
- "s3.region" = 'us-east-1'
-);
-```
-
-3. 使用新创建的 catalog:
-
-```sql
-USE CATALOG iceberg;
-```
-
-4. 显示可用的数据库:
-
-```sql
-SHOW DATABASES;
-```
-
-```sql
-╭──────────────────────╮
-│ databases_in_iceberg │
-│ String │
-├──────────────────────┤
-│ tpch │
-╰──────────────────────╯
-```
-
-5. 运行示例查询来聚合 TPC-H 数据:
-
-```bash
-SELECT
- l_returnflag,
- l_linestatus,
- SUM(l_quantity) AS sum_qty,
- SUM(l_extendedprice) AS sum_base_price,
- SUM(l_extendedprice * (1 - l_discount)) AS sum_disc_price,
- SUM(l_extendedprice * (1 - l_discount) * (1 + l_tax)) AS sum_charge,
- AVG(l_quantity) AS avg_qty,
- AVG(l_extendedprice) AS avg_price,
- AVG(l_discount) AS avg_disc,
- COUNT(*) AS count_order
-FROM
- iceberg.tpch.lineitem
-GROUP BY
- l_returnflag,
- l_linestatus
-ORDER BY
- l_returnflag,
- l_linestatus;
-```
-
-```sql
-┌────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────┐
-│ l_returnflag │ l_linestatus │ sum_qty │ sum_base_price │ sum_disc_price │ sum_charge │ avg_qty │ avg_price │ avg_disc │ count_order │
-│ Nullable(String) │ Nullable(String) │ Nullable(Decimal(38, 2)) │ Nullable(Decimal(38, 2)) │ Nullable(Decimal(38, 4)) │ Nullable(Decimal(38, 6)) │ Nullable(Decimal(38, 8)) │ Nullable(Decimal(38, 8)) │ Nullable(Decimal(38, 8)) │ UInt64 │
-├──────────────────┼──────────────────┼──────────────────────────┼──────────────────────────┼──────────────────────────┼──────────────────────────┼──────────────────────────┼──────────────────────────┼──────────────────────────┼─────────────┤
-│ A │ F │ 37734107.00 │ 56586554400.73 │ 53758257134.8700 │ 55909065222.827692 │ 25.52200585 │ 38273.12973462 │ 0.04998530 │ 1478493 │
-│ N │ F │ 991417.00 │ 1487504710.38 │ 1413082168.0541 │ 1469649223.194375 │ 25.51647192 │ 38284.46776085 │ 0.05009343 │ 38854 │
-│ N │ O │ 76633518.00 │ 114935210409.19 │ 109189591897.4720 │ 113561024263.013782 │ 25.50201964 │ 38248.01560906 │ 0.05000026 │ 3004998 │
-│ R │ F │ 37719753.00 │ 56568041380.90 │ 53741292684.6040 │ 55889619119.831932 │ 25.50579361 │ 38250.85462610 │ 0.05000941 │ 1478870 │
-└────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────┘
-```
-
-## 数据类型映射
-
-此表显示了 Apache Iceberg™ 和 Databend 之间的数据类型映射。请注意,Databend 目前不支持表中未列出的 Iceberg 数据类型。
-
-| Apache Iceberg™ | Databend |
-| ------------------------------------------- | ------------------------------------------------------------------------ |
-| BOOLEAN | [BOOLEAN](/sql/sql-reference/data-types/boolean) |
-| INT | [INT32](/sql/sql-reference/data-types/numeric#integer-data-types) |
-| LONG | [INT64](/sql/sql-reference/data-types/numeric#integer-data-types) |
-| DATE | [DATE](/sql/sql-reference/data-types/datetime) |
-| TIMESTAMP/TIMESTAMPZ | [TIMESTAMP](/sql/sql-reference/data-types/datetime) |
-| FLOAT | [FLOAT](/sql/sql-reference/data-types/numeric#floating-point-data-types) |
-| DOUBLE | [DOUBLE](/sql/sql-reference/data-types/numeric#floating-point-data-type) |
-| STRING/BINARY | [STRING](/sql/sql-reference/data-types/string) |
-| DECIMAL | [DECIMAL](/sql/sql-reference/data-types/decimal) |
-| ARRAY<TYPE> | [ARRAY](/sql/sql-reference/data-types/array), 支持嵌套 |
-| MAP<KEYTYPE, VALUETYPE> | [MAP](/sql/sql-reference/data-types/map) |
-| STRUCT<COL1: TYPE1, COL2: TYPE2, ...> | [TUPLE](/sql/sql-reference/data-types/tuple) |
-| LIST | [ARRAY](/sql/sql-reference/data-types/array) |
-
-## 管理 Catalog
-
-Databend 为您提供以下命令来管理 catalog:
-
-- [CREATE CATALOG](#create-catalog)
-- [SHOW CREATE CATALOG](#show-create-catalog)
-- [SHOW CATALOGS](#show-catalogs)
-- [USE CATALOG](#use-catalog)
-
-### CREATE CATALOG
-
-在 Databend 查询引擎中定义并建立一个新的 catalog。
-
-#### 语法
-
-```sql
-CREATE CATALOG
-TYPE=ICEBERG
-CONNECTION=(
- TYPE=''
- ADDRESS=''
- WAREHOUSE=''
- ""=''
- ""=''
- ...
-);
-```
-
-| 参数 | 是否必需 | 描述 |
-| ---------------------------- | --------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
-| `` | 是 | 要创建的 catalog 的名称。 |
-| `TYPE` | 是 | 指定 catalog 类型。对于 Apache Iceberg™,设置为 `ICEBERG`。 |
-| `CONNECTION` | 是 | Iceberg catalog 的连接参数。 |
-| `TYPE` (在 `CONNECTION` 内) | 是 | 连接类型。对于 Iceberg,通常设置为 `rest` 以进行基于 REST 的连接。 |
-| `ADDRESS` | 是 | Iceberg 服务的地址或 URL (例如,`http://127.0.0.1:8181`)。 |
-| `WAREHOUSE` | 是 | Iceberg 仓库的位置,通常是 S3 存储桶或兼容的对象存储系统。 |
-| `` | 是 | 用于与外部存储建立连接的连接参数。所需参数因具体的存储服务和身份验证方法而异。有关可用参数的完整列表,请参见下表。 |
-
-| 连接参数 | 描述 |
-| --------------------------------- | -------------------------------------------------------------------------------------------------------------------------------------- |
-| `s3.endpoint` | S3 端点。 |
-| `s3.access-key-id` | S3 访问密钥 ID。 |
-| `s3.secret-access-key` | S3 秘密访问密钥。 |
-| `s3.session-token` | S3 会话 Token,使用临时凭证时必需。 |
-| `s3.region` | S3 区域。 |
-| `client.region` | 用于 S3 客户端的区域,优先级高于 `s3.region`。 |
-| `s3.path-style-access` | S3 路径样式访问。 |
-| `s3.sse.type` | S3 服务端加密 (SSE) 类型。 |
-| `s3.sse.key` | S3 SSE 密钥。如果加密类型为 `kms`,这是一个 KMS 密钥 ID。如果加密类型为 `custom`,这是一个 base-64 AES256 对称密钥。 |
-| `s3.sse.md5` | S3 SSE MD5 校验和。 |
-| `client.assume-role.arn` | 要承担的 IAM 角色的 ARN,而不是使用默认凭证链。 |
-| `client.assume-role.external-id` | 用于承担 IAM 角色的可选外部 ID。 |
-| `client.assume-role.session-name` | 用于承担 IAM 角色的可选会话名称。 |
-| `s3.allow-anonymous` | 允许匿名访问的选项 (例如,用于公共存储桶/文件夹)。 |
-| `s3.disable-ec2-metadata` | 禁用从 EC2 元数据加载凭证的选项 (通常与 `s3.allow-anonymous` 一起使用)。 |
-| `s3.disable-config-load` | 禁用从配置文件和环境变量加载配置的选项。 |
-
-### Catalog 类型
-
-Databend 支持四种类型的 Iceberg catalog:
-
-- REST Catalog
-
-REST catalog 使用 RESTful API 方式与 Iceberg 表进行交互。
-
-```sql
-CREATE CATALOG iceberg_rest TYPE = ICEBERG CONNECTION = (
- TYPE = 'rest'
- ADDRESS = 'http://localhost:8181'
- warehouse = 's3://warehouse/demo/'
- "s3.endpoint" = 'http://localhost:9000'
- "s3.access-key-id" = 'admin'
- "s3.secret-access-key" = 'password'
- "s3.region" = 'us-east-1'
-)
-```
-
-- AWS Glue Catalog
-
-对于 Glue catalog,配置包括 Glue 服务参数和存储 (S3) 参数。Glue 服务参数在前,然后是 S3 存储参数 (以 "s3." 为前缀)。
-
-```sql
-CREATE CATALOG iceberg_glue TYPE = ICEBERG CONNECTION = (
- TYPE = 'glue'
- ADDRESS = 'http://localhost:5000'
- warehouse = 's3a://warehouse/glue/'
- "aws_access_key_id" = 'my_access_id'
- "aws_secret_access_key" = 'my_secret_key'
- "region_name" = 'us-east-1'
- "s3.endpoint" = 'http://localhost:9000'
- "s3.access-key-id" = 'admin'
- "s3.secret-access-key" = 'password'
- "s3.region" = 'us-east-1'
-)
-```
-
-- Storage Catalog (S3Tables Catalog)
-
-Storage catalog 需要一个 table_bucket_arn 参数。与其他存储桶不同,S3Tables 存储桶不是物理存储桶,而是由 S3Tables 管理的虚拟存储桶。您无法通过 `s3://{bucket_name}/{file_path}` 这样的路径直接访问该存储桶。所有操作都是基于存储桶 ARN 执行的。
-
-属性参数
-catalog 可用的属性如下:
-
-```
-profile_name: 要使用的 AWS 配置文件名称。
-region_name: 要使用的 AWS 区域。
-aws_access_key_id: 要使用的 AWS 访问密钥 ID。
-aws_secret_access_key: 要使用的 AWS 秘密访问密钥。
-aws_session_token: 要使用的 AWS 会话令牌。
-```
-
-```sql
-CREATE CATALOG iceberg_storage TYPE = ICEBERG CONNECTION = (
- TYPE = 'storage'
- ADDRESS = 'http://localhost:9111'
- "table_bucket_arn" = 'my-bucket'
- -- 根据需要添加其他属性
-)
-```
-
-- Hive Catalog (HMS Catalog)
-
-Hive catalog 需要一个 ADDRESS 参数,即 Hive metastore 的地址。它还需要一个 warehouse 参数,即 Iceberg 数仓的位置,通常是 S3 存储桶或兼容的对象存储系统。
-
-```sql
-CREATE CATALOG iceberg_hms TYPE = ICEBERG CONNECTION = (
- TYPE = 'hive'
- ADDRESS = '192.168.10.111:9083'
- warehouse = 's3a://warehouse/hive/'
- "s3.endpoint" = 'http://localhost:9000'
- "s3.access-key-id" = 'admin'
- "s3.secret-access-key" = 'password'
- "s3.region" = 'us-east-1'
-)
-```
-
-### SHOW CREATE CATALOG
-
-返回指定 catalog 的详细配置,包括其类型和存储参数。
-
-#### 语法
-
-```sql
-SHOW CREATE CATALOG ;
-```
-
-### SHOW CATALOGS
-
-显示所有已创建的 catalog。
-
-#### 语法
-
-```sql
-SHOW CATALOGS [LIKE '']
-```
-
-### USE CATALOG
-
-将当前会话切换到指定的 catalog。
-
-#### 语法
-
-```sql
-USE CATALOG
-```
-
-## 缓存 Iceberg Catalog
-
-Databend 为 Iceberg catalog 提供了专门设计的 Catalog 元数据缓存。当首次对 Iceberg 表执行查询时,元数据会被缓存在内存中。默认情况下,此缓存保持 10 分钟有效,之后会异步刷新。这确保了对 Iceberg 表的查询更快,避免了重复的元数据检索。
-
-如果您需要最新的元数据,可以使用以下命令手动刷新缓存:
-
-```sql
-USE CATALOG iceberg;
-ALTER DATABASE tpch REFRESH CACHE; -- 刷新 tpch 数据库的元数据缓存
-ALTER TABLE tpch.lineitem REFRESH CACHE; -- 刷新 lineitem 表的元数据缓存
-```
-
-如果您不想使用元数据缓存,可以在 [databend-query.toml](https://github.com/databendlabs/databend/blob/main/scripts/distribution/configs/databend-query.toml) 配置文件中将 `iceberg_table_meta_count` 设置配置为 `0` 来完全禁用它:
-
-```toml
-...
-# Cache config.
-[cache]
-...
-iceberg_table_meta_count = 0
-...
-```
-
-除了元数据缓存,Databend 还支持对 Iceberg catalog 表进行表数据缓存,类似于 Fuse 表。有关数据缓存的更多信息,请参考 [查询配置](../10-deploy/04-references/02-node-config/02-query-config.md) 参考中的 `[cache] 部分`。
-
-## Apache Iceberg™ 表函数
-
-Databend 提供以下表函数用于查询 Iceberg 元数据,允许用户高效地检查快照和清单:
-
-- [ICEBERG_MANIFEST](/sql/sql-functions/table-functions/iceberg-manifest)
-- [ICEBERG_SNAPSHOT](/sql/sql-functions/table-functions/iceberg-snapshot)
-
-## 使用示例
-
-此示例展示了如何使用基于 REST 的连接创建 Iceberg catalog,指定服务地址、数仓位置 (S3) 以及可选参数如 AWS 区域和自定义端点:
-
-```sql
-CREATE CATALOG ctl
-TYPE=ICEBERG
-CONNECTION=(
- TYPE='rest'
- ADDRESS='http://127.0.0.1:8181'
- WAREHOUSE='s3://iceberg-tpch'
- "s3.region"='us-east-1'
- "s3.endpoint"='http://127.0.0.1:9000'
-);
-```
\ No newline at end of file
diff --git a/docs/cn/guides/51-access-data-lake/03-delta.md b/docs/cn/guides/51-access-data-lake/03-delta.md
deleted file mode 100644
index 4e41063318..0000000000
--- a/docs/cn/guides/51-access-data-lake/03-delta.md
+++ /dev/null
@@ -1,39 +0,0 @@
----
-title: Delta Lake
----
-
-import FunctionDescription from '@site/src/components/FunctionDescription';
-
-
-
-Databend 的 [Delta Lake](https://delta.io/) 引擎允许您无缝查询和分析存储在对象存储中的 Delta Lake 表中的数据。在 Databend 中使用 Delta Lake 引擎创建表时,您需要指定 Delta Lake 表的数据文件存储位置。此设置允许您直接访问该表,并从 Databend 中无缝执行查询。
-
-- Databend 的 Delta Lake 引擎目前仅支持只读操作。这意味着支持查询 Delta Lake 表中的数据,但不支持写入表。
-- 使用 Delta Lake 引擎创建的表的 schema 在创建时设置。对原始 Delta Lake 表的 schema 进行任何修改都需要在 Databend 中重新创建相应的表,以确保同步。
-- Databend 中的 Delta Lake 引擎构建于官方 [delta-rs](https://github.com/delta-io/delta-rs) 库之上。需要注意的是,delta-protocol 中定义的某些功能,包括 Deletion Vector、Change Data Feed、Generated Columns 和 Identity Columns,目前不受此引擎支持。
-
-## 语法
-
-```sql
-CREATE TABLE
-ENGINE = Delta
-LOCATION = 's3://'
-CONNECTION_NAME = ''
-```
-
-在使用 Delta Lake 引擎创建表之前,您需要创建一个连接对象,用于建立与 S3 存储的连接。要在 Databend 中创建连接,请使用 [CREATE CONNECTION](/sql/sql-reference/connect-parameters) 命令。
-
-## 示例
-
-```sql
---Set up connection
-CREATE CONNECTION my_s3_conn
-STORAGE_TYPE = 's3'
-ACCESS_KEY_ID ='your-ak' SECRET_ACCESS_KEY ='your-sk';
-
--- Create table with Delta Lake engine
-CREATE TABLE test_delta
-ENGINE = Delta
-LOCATION = 's3://testbucket/admin/data/delta/delta-table/'
-CONNECTION_NAME = 'my_s3_conn';
-```
diff --git a/docs/cn/guides/51-access-data-lake/_category_.json b/docs/cn/guides/51-access-data-lake/_category_.json
deleted file mode 100644
index 0d969afbef..0000000000
--- a/docs/cn/guides/51-access-data-lake/_category_.json
+++ /dev/null
@@ -1,3 +0,0 @@
-{
- "label": "访问 Data Lake"
-}
\ No newline at end of file
diff --git a/docs/cn/guides/51-access-data-lake/index.md b/docs/cn/guides/51-access-data-lake/index.md
deleted file mode 100644
index d18128d1e9..0000000000
--- a/docs/cn/guides/51-access-data-lake/index.md
+++ /dev/null
@@ -1,13 +0,0 @@
----
-title: 面向 Data Lakehouse 的 Databend
----
-
-Databend 与流行的 Data Lake 技术集成,提供统一的 lakehouse 架构,将 Data Lake 的灵活性与数仓的性能相结合。
-
-| 技术 | 集成类型 | 主要特性 | 文档 |
-|------------|-----------------|--------------|---------------|
-| Apache Hive | Catalog 级别 | 支持传统 Data Lake,模式注册 | [Apache Hive Catalog](01-hive.md) |
-| Apache Iceberg™ | Catalog 级别 | ACID 事务,模式演化,时间回溯 | [Apache Iceberg™ Catalog](02-iceberg.md) |
-| Delta Lake | Table Engine 级别 | ACID 事务,数据版本控制,模式强制 | [Delta Lake Table Engine](03-delta.md) |
-
-这些集成使 Databend 用户能够高效地查询、分析和管理 Data Lake 和数仓环境中的各种数据集,而无需重复数据。
\ No newline at end of file
diff --git a/docs/cn/sql-reference/00-sql-reference/30-table-engines/04-delta.md b/docs/cn/sql-reference/00-sql-reference/30-table-engines/04-delta.md
new file mode 100644
index 0000000000..bcba7f980c
--- /dev/null
+++ b/docs/cn/sql-reference/00-sql-reference/30-table-engines/04-delta.md
@@ -0,0 +1,42 @@
+---
+id: delta
+title: Delta Lake 引擎
+sidebar_label: Delta Lake 引擎
+slug: /sql-reference/table-engines/delta
+---
+
+import FunctionDescription from '@site/src/components/FunctionDescription';
+
+
+
+Databend 的 [Delta Lake](https://delta.io/) 引擎允许你无缝查询和分析存储在对象存储中的 Delta Lake 表数据。在 Databend 中使用 Delta Lake 引擎创建表时,你需要指定 Delta Lake 表数据文件的存储位置。这样即可直接访问该表,并在 Databend 内无缝执行查询。
+
+- Databend 的 Delta Lake 引擎目前仅支持只读操作,即可以查询 Delta Lake 表中的数据,但无法写入。
+- 使用 Delta Lake 引擎创建的表,其 Schema(模式)在创建时即已固定。若原始 Delta Lake 表的 Schema 发生变更,需在 Databend 中重新创建对应表以保持同步。
+- Databend 中的 Delta Lake 引擎基于官方 [delta-rs](https://github.com/delta-io/delta-rs) 库构建。请注意,delta-protocol 定义的某些特性(如 Deletion Vector、Change Data Feed、Generated Columns 和 Identity Columns)目前尚不受支持。
+
+## 语法
+
+```sql
+CREATE TABLE
+ENGINE = Delta
+LOCATION = 's3://'
+CONNECTION_NAME = ''
+```
+
+在使用 Delta Lake 引擎创建表之前,需先创建用于连接 S3 存储的连接对象。在 Databend 中,请使用 [CREATE CONNECTION](/sql/sql-reference/connect-parameters) 命令创建连接。
+
+## 示例
+
+```sql
+-- 建立连接
+CREATE CONNECTION my_s3_conn
+STORAGE_TYPE = 's3'
+ACCESS_KEY_ID ='your-ak' SECRET_ACCESS_KEY ='your-sk';
+
+-- 使用 Delta Lake 引擎创建表
+CREATE TABLE test_delta
+ENGINE = Delta
+LOCATION = 's3://testbucket/admin/data/delta/delta-table/'
+CONNECTION_NAME = 'my_s3_conn';
+```
\ No newline at end of file
diff --git a/docs/cn/sql-reference/00-sql-reference/30-table-engines/_04-delta.md b/docs/cn/sql-reference/00-sql-reference/30-table-engines/_04-delta.md
deleted file mode 100644
index d8ab2d76ea..0000000000
--- a/docs/cn/sql-reference/00-sql-reference/30-table-engines/_04-delta.md
+++ /dev/null
@@ -1,9 +0,0 @@
----
-id: delta
-title: Delta Lake 引擎
-sidebar_label: Delta Lake 引擎
----
-
-import Content from '../../../guides/51-access-data-lake/03-delta.md';
-
-
\ No newline at end of file
diff --git a/docs/cn/sql-reference/00-sql-reference/30-table-engines/index.md b/docs/cn/sql-reference/00-sql-reference/30-table-engines/index.md
new file mode 100644
index 0000000000..35b9c177da
--- /dev/null
+++ b/docs/cn/sql-reference/00-sql-reference/30-table-engines/index.md
@@ -0,0 +1,21 @@
+---
+title: 表引擎
+---
+
+Databend 提供了多种表引擎(Table Engine),让您无需移动数据即可在性能与互操作性之间取得平衡。每种引擎都针对特定场景进行了优化——从 Databend 的原生 Fuse 存储到外部数据湖格式。
+
+## 可用引擎
+
+| 引擎 | 最适合 | 亮点 |
+| ------ | -------- | ---------- |
+| [Fuse 引擎表](fuse) | Databend 原生表 | 基于快照的存储、自动聚类、变更跟踪 |
+| [Apache Iceberg™ 表](iceberg) | Lakehouse 目录 | 时间回溯(Time Travel)、模式演进、REST/Hive/存储目录 |
+| [Apache Hive 表](hive) | Hive 元存储数据 | 通过外部表查询 Hive 管理的数据存储 |
+| [Delta Lake 引擎](delta) | Delta Lake 数据集 | 在对象存储中读取具备 ACID 保证的 Delta 表 |
+
+## 选择引擎
+
+- 若您直接在 Databend 内部管理数据,并希望获得最佳存储与查询性能,请使用 **Fuse**。
+- 若您已通过 Iceberg 目录管理数据集,并需要紧密的 Lakehouse 集成,请选择 **Iceberg**。
+- 若您依赖现有 Hive Metastore,但想使用 Databend 的查询引擎,请配置 **Hive**。
+- 若您希望就地分析 Delta Lake 表而无需将其摄取到 Fuse,请选择 **Delta**。
\ No newline at end of file