Skip to content

Commit eadb2fa

Browse files
committed
AUTO: Sync ScalarDB docs in Japanese to docs site repo
1 parent c9b9106 commit eadb2fa

File tree

1 file changed

+17
-17
lines changed

1 file changed

+17
-17
lines changed

i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/run-analytical-queries.mdx

Lines changed: 17 additions & 17 deletions
Original file line numberDiff line numberDiff line change
@@ -22,8 +22,8 @@ ScalarDB Analytics は現在、実行エンジンとして Spark を使用し、
2222

2323
### 前提条件
2424

25-
- **ScalarDB Analytics catalog server**: カタログメタデータを管理し、データソースに接続する実行中のインスタンス。サーバーには少なくとも1つのデータソースが登録されている必要があります。セットアップとデータソース登録の手順については[ScalarDB Analytics catalog server のセットアップと管理](./administration.mdx)を参照してください。
26-
- **Apache Spark**: 互換性のあるバージョンの Apache Spark。サポートされているバージョンについては、[バージョン互換性](#バージョン互換性)を参照してください。まだ Spark をインストールしていない場合は、[Apache Spark のウェブサイト](https://spark.apache.org/downloads.html)から Spark ディストリビューションをダウンロードしてください。
25+
- **ScalarDB Analytics server:** カタログメタデータを管理し、データソースに接続する実行中のインスタンス。サーバーには少なくとも1つのデータソースが登録されている必要があります。データソースの登録については[ScalarDB Analytics カタログの作成](./create-scalardb-analytics-catalog.mdx)を参照してください。
26+
- **Apache Spark:** 互換性のあるバージョンの Apache Spark。サポートされているバージョンについては、[バージョン互換性](#バージョン互換性)を参照してください。まだ Spark をインストールしていない場合は、[Apache Spark のウェブサイト](https://spark.apache.org/downloads.html)から Spark ディストリビューションをダウンロードしてください。
2727

2828
:::note
2929

@@ -33,15 +33,15 @@ Apache Spark は Scala 2.12 または Scala 2.13 でビルドされています
3333

3434
### ScalarDB Analytics のセットアップのための Spark 設定
3535

36-
ScalarDB Analytics は catalog server と統合するために特定の Spark 設定が必要です。
36+
ScalarDB Analytics は ScalarDB Analytics server と統合するために特定の Spark 設定が必要です。
3737

3838
#### 必要な Spark 設定
3939

4040
ScalarDB Analytics を Spark で使用するには、以下を設定する必要があります:
4141

42-
1. **ScalarDB Analytics パッケージ**: Spark と Scala のバージョンに一致する JAR 依存関係を追加
43-
2. **メータリングリスナー**: 課金のためのリソース使用状況を追跡するリスナーを登録
44-
3. **カタログ登録**: ScalarDB Analytics サーバーに接続する Spark カタログを登録
42+
1. **ScalarDB Analytics パッケージ:** Spark と Scala のバージョンに一致する JAR 依存関係を追加
43+
2. **メータリングリスナー:** 課金のためのリソース使用状況を追跡するリスナーを登録
44+
3. **カタログ登録:** ScalarDB Analytics サーバーに接続する Spark カタログを登録
4545

4646
Spark を設定する際は、ScalarDB Analytics サーバー上で作成されたカタログと一致するカタログ名を指定する必要があります。これにより、Spark がそのカタログで管理されているデータソースに正しくアクセスできるようになります。
4747

@@ -71,9 +71,9 @@ spark.sql.catalog.myanalytics.server.metering.port 11052
7171

7272
この例では:
7373

74-
- カタログ名 `myanalytics` は、ScalarDB Analytics サーバー上に存在するカタログと一致する必要があります
75-
- ScalarDB Analytics サーバーは `analytics-server.example.com` で実行されています
76-
- テーブルには `myanalytics.<data_source>.<namespace>.<table>` の形式でアクセスします
74+
- カタログ名 `myanalytics` は、ScalarDB Analytics サーバー上に存在するカタログと一致する必要があります.
75+
- ScalarDB Analytics サーバーは `analytics-server.example.com` で実行されています.
76+
- テーブルには `myanalytics.<data_source>.<namespace>.<table>` の形式でアクセスします.
7777

7878
:::important
7979

@@ -83,17 +83,17 @@ Spark 設定のカタログ名は、CLI を使用して ScalarDB Analytics サ
8383

8484
:::note
8585

86-
データソース設定は catalog server で管理されます。catalog server でのデータソースの設定方法については、[ScalarDB Analytics catalog server のセットアップと管理](./administration.mdx#configure-data-sources)を参照してください。
86+
データソース設定は ScalarDB Analytics server で管理されます。ScalarDB Analytics server でのデータソースの設定方法については、[ScalarDB Analytics カタログの作成](./create-scalardb-analytics-catalog.mdx)を参照してください。
8787

8888
:::
8989

9090
### Spark アプリケーションのビルド設定
9191

9292
ScalarDB Analytics を使用する Spark アプリケーションを開発する際は、ビルド設定に依存関係を追加できます。たとえば Gradle の場合:
9393

94-
```groovy
94+
```kotlin
9595
dependencies {
96-
implementation 'com.scalar-labs:scalardb-analytics-spark-all-<SPARK_VERSION>_<SCALA_VERSION>:<SCALARDB_ANALYTICS_VERSION>'
96+
implementation("com.scalar-labs:scalardb-analytics-spark-all-<SPARK_VERSION>_<SCALA_VERSION>:<SCALARDB_ANALYTICS_VERSION>")
9797
}
9898
```
9999

@@ -119,7 +119,7 @@ ScalarDB Analytics を使用した Spark アプリケーションの開発には
119119

120120
:::
121121

122-
これらのすべての方法で、同じテーブル識別子形式を使用して ScalarDB Analytics のテーブルを参照できます。ScalarDB Analytics がデータソースからカタログ情報をマッピングする方法の詳細については、[カタログメタデータリファレンス](./administration.mdx#catalog-metadata-reference)を参照してください。
122+
これらのすべての方法で、同じテーブル識別子形式を使用して ScalarDB Analytics のテーブルを参照できます。ScalarDB Analytics がデータソースからカタログ情報をマッピングする方法の詳細については、[カタログ情報リファレンス](./reference-data-source.mdx#カタログ情報リファレンス)を参照してください。
123123

124124
<Tabs groupId="spark-application-type" queryString>
125125
<TabItem value="spark-driver" label="Spark ドライバーアプリケーション">
@@ -128,11 +128,11 @@ ScalarDB Analytics には一般的に使用される `SparkSession` クラスを
128128

129129
ScalarDB Analytics のテーブルからデータを読み取るには、通常のSparkテーブルを読み取る場合と同じように `spark.sql` または `spark.read.table` 関数を使用できます。
130130

131-
まず、Java プロジェクトをセットアップする必要があります。例えば、Gradle を使用している場合は、`build.gradle` ファイルに以下を追加できます:
131+
まず、Java プロジェクトをセットアップする必要があります。例えば、Gradle を使用している場合は、`build.gradle.kts` ファイルに以下を追加できます:
132132

133-
```groovy
133+
```kotlin
134134
dependencies {
135-
implementation 'com.scalar-labs:scalardb-analytics-spark-<SPARK_VERSION>_<SCALA_VERSION>:<SCALARDB_ANALYTICS_VERSION>'
135+
implementation("com.scalar-labs:scalardb-analytics-spark-<SPARK_VERSION>_<SCALA_VERSION>:<SCALARDB_ANALYTICS_VERSION>")
136136
}
137137
```
138138

@@ -194,7 +194,7 @@ spark-submit --class MyApp --master local[*] my-spark-application-all.jar
194194

195195
:::
196196

197-
また、アプリケーションに Spark Connect クライアントパッケージを含める必要があります。例えば、Gradle を使用している場合は、`build.gradle` ファイルに以下を追加できます:
197+
また、アプリケーションに Spark Connect クライアントパッケージを含める必要があります。例えば、Gradle を使用している場合は、`build.gradle.kts` ファイルに以下を追加できます:
198198

199199
```kotlin
200200
implementation("org.apache.spark:spark-connect-client-jvm_2.12:3.5.3")

0 commit comments

Comments
 (0)