Skip to content

Commit 99d3c6a

Browse files
🌐 Add LLM Translations (#1630)
* 💬Generate LLM translations * Update _category_.json * Update index.md * Update mysql.md * Update snowflake.md --------- Co-authored-by: github-actions[bot] <41898282+github-actions[bot]@users.noreply.github.com> Co-authored-by: Quan <[email protected]>
1 parent 83a825b commit 99d3c6a

File tree

4 files changed

+115
-0
lines changed

4 files changed

+115
-0
lines changed
Lines changed: 3 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,3 @@
1+
{
2+
"label": "从数据库迁移"
3+
}

docs/cn/guides/41-migrate/index.md

Lines changed: 8 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,8 @@
1+
---
2+
title: 从其他数据库迁移
3+
---
4+
import IndexOverviewList from '@site/src/components/IndexOverviewList';
5+
6+
本指南介绍如何将数据从不同数据库迁移至 Databend:
7+
8+
<IndexOverviewList />

docs/cn/guides/41-migrate/mysql.md

Lines changed: 63 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,63 @@
1+
---
2+
title: MySQL
3+
---
4+
5+
本指南介绍如何将数据从 MySQL 迁移到 Databend。Databend 支持两种主要的迁移方式:批量加载和持续数据同步。
6+
7+
| 迁移方式 | 推荐工具 | 支持的 MySQL 版本 |
8+
|--------------------------|------------------------------|--------------------------|
9+
| 批量加载 | db-archiver | 所有 MySQL 版本 |
10+
| CDC 实时同步 | Apache Flink CDC (16.1–17.1) | MySQL 8.0 或以下 |
11+
12+
## 批量加载
13+
14+
Databend 推荐使用 db-archiver 进行 MySQL 的批量迁移。
15+
16+
### db-archiver
17+
18+
[db-archiver](https://github.com/databendcloud/db-archiver) 是 Databend 开发的一款迁移工具,支持从包括所有版本 MySQL 在内的多种数据库迁移数据。
19+
20+
安装 db-archiver:
21+
22+
```shell
23+
go install github.com/databendcloud/db-archiver/cmd@latest
24+
```
25+
26+
有关 db-archiver 的更多详情,请访问 [GitHub 仓库](https://github.com/databendcloud/db-archiver)。要查看实际操作示例,请参阅教程:[使用 db-archiver 从 MySQL 迁移](/tutorials/migrate/migrating-from-mysql-with-db-archiver)
27+
28+
## CDC 实时同步
29+
30+
Databend 推荐使用 Flink CDC 进行 MySQL 的实时 CDC 迁移。
31+
32+
### Flink CDC
33+
34+
[Apache Flink](https://github.com/apache/flink) CDC(变更数据捕获)指 Apache Flink 使用基于 SQL 的查询从各种源捕获和处理实时数据变更的能力。CDC 允许您监控和捕获数据库中发生的数据修改(插入、更新和删除),并实时响应这些变更。
35+
36+
您可以使用 [Flink SQL connector for Databend](https://github.com/databendcloud/flink-connector-databend) 将其他数据库的数据实时加载到 Databend。Flink SQL connector for Databend 提供了一个连接器,将 Flink 的流处理能力与 Databend 集成。通过配置此连接器,您可以将来自各种数据库的数据变更作为流捕获,并实时加载到 Databend 进行处理和分析。
37+
38+
- 仅支持 Apache Flink CDC 16.1 至 17.1 版本用于从 MySQL 迁移到 Databend。
39+
- 仅支持从 MySQL 8.0 或以下版本迁移。
40+
- Flink Databend Connector 需要 Java 8 或 11。
41+
42+
下载并安装 Flink SQL connector for Databend:
43+
44+
1. 下载并安装 Flink:在安装 Flink SQL connector for Databend 之前,请确保您已在系统上下载并安装 Flink。您可以从官方网站下载 Flink:https://flink.apache.org/downloads/
45+
46+
2. 下载连接器:访问 Flink SQL connector for Databend 的 GitHub 发布页面:[https://github.com/databendcloud/flink-connector-databend/releases](https://github.com/databendcloud/flink-connector-databend/releases)。下载最新版本的连接器(例如 flink-connector-databend-0.0.2.jar)。
47+
48+
请注意,您也可以从源代码编译 Flink SQL connector for Databend:
49+
50+
```shell
51+
git clone https://github.com/databendcloud/flink-connector-databend
52+
cd flink-connector-databend
53+
mvn clean install -DskipTests
54+
```
55+
56+
3. 移动 JAR 文件:下载连接器后,将 JAR 文件移动到 Flink 安装目录的 lib 文件夹中。例如,如果您安装了 Flink 1.16.1 版本,请将 JAR 文件移动到 `flink-1.16.1/lib/` 目录。
57+
58+
有关 Flink SQL connector for Databend 的更多详情,请访问 [GitHub 仓库](https://github.com/databendcloud/flink-connector-databend)。要查看实际操作示例,请参阅教程:[使用 Flink CDC 从 MySQL 迁移](/tutorials/migrate/migrating-from-mysql-with-flink-cdc)
59+
60+
## 教程
61+
62+
- [使用 db-archiver 从 MySQL 迁移](/tutorials/migrate/migrating-from-mysql-with-db-archiver)
63+
- [使用 Flink CDC 从 MySQL 迁移](/tutorials/migrate/migrating-from-mysql-with-flink-cdc)
Lines changed: 41 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,41 @@
1+
---
2+
title: Snowflake
3+
---
4+
5+
本指南概述了将数据从 Snowflake 迁移到 Databend 的高级流程。迁移过程涉及将数据从 Snowflake 导出到 Amazon S3 存储桶,然后加载到 Databend。整个过程分为三个主要步骤:
6+
7+
![alt text](@site/static/img/load/snowflake-databend.png)
8+
9+
## 步骤 1:为 Amazon S3 配置 Snowflake 存储集成 {#step-1-configuring-snowflake-storage-integration-for-amazon-s3}
10+
11+
在导出数据前,您需要建立 Snowflake 与 Amazon S3 之间的连接。这通过配置存储集成来实现,该集成允许 Snowflake 安全访问并与暂存数据的 S3 存储桶进行交互。
12+
13+
1. **创建 IAM 角色与策略**:首先创建一个 AWS IAM 角色,该角色需具备读写目标 S3 存储桶的权限。此角色确保 Snowflake 能安全地与 S3 存储桶交互。
14+
15+
2. **Snowflake 存储集成**:在 Snowflake 中,使用 IAM 角色配置存储集成。该集成将允许 Snowflake 安全访问指定的 S3 存储桶并执行数据导出操作。
16+
17+
3. **更新信任关系**:创建存储集成后,需在 AWS 中更新 IAM 角色的信任关系,确保 Snowflake 能担任该 IAM 角色并获取必要的数据访问权限。
18+
19+
## 步骤 2:准备数据并导出到 Amazon S3 {#step-2-preparing--exporting-data-to-amazon-s3}
20+
21+
集成配置完成后,下一步是在 Snowflake 中准备数据并将其导出到 S3 存储桶。
22+
23+
1. **创建 Stage**:在 Snowflake 中创建一个指向 S3 存储桶的外部 Stage。该 Stage 将作为数据迁移到 Databend 前的临时存储位置。
24+
25+
2. **准备数据**:在 Snowflake 中创建必要的表并填充数据。数据就绪后,可以将其以 Parquet 等格式导出到 S3 存储桶。
26+
27+
3. **导出数据**:使用 Snowflake 的 `COPY INTO` 命令将数据从 Snowflake 表导出到 S3 存储桶,指定文件格式和存储位置。此过程会将数据保存至 S3 存储桶,为下一步做好准备。
28+
29+
## 步骤 3:将数据加载到 Databend {#step-3-loading-data-into-databend}
30+
31+
数据导出到 S3 存储桶后,最后一步是将其加载到 Databend。
32+
33+
1. **创建目标表**:在 Databend 中创建与 Snowflake 导出数据结构匹配的目标表。
34+
35+
2. **加载数据**:使用 Databend 的 `COPY INTO` 命令将数据从 S3 存储桶加载到目标表。提供 AWS 凭证以确保 Databend 能访问 S3 存储桶。您还可以定义文件格式(如 Parquet)以匹配导出数据的格式。
36+
37+
3. **验证数据**:加载完成后,在 Databend 中执行简单查询以验证数据是否成功导入并可供后续处理。
38+
39+
## 教程 {#tutorials}
40+
41+
- [从 Snowflake 迁移](/tutorials/migrate/migrating-from-snowflake)

0 commit comments

Comments
 (0)