diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AccessScalarProducts.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AccessScalarProducts.mdx new file mode 100644 index 00000000..af45a284 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AccessScalarProducts.mdx @@ -0,0 +1,197 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# Kubernetes クラスター環境にデプロイされた ScalarDB または ScalarDL をアプリケーションから利用できるようにする + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このドキュメントでは、Kubernetes クラスター環境にデプロイされた ScalarDB または ScalarDL をアプリケーションから利用できるようにする方法について説明します。 ScalarDB または ScalarDL をアプリケーションから利用できるようにするには、`-envoy` という名前の Kubernetes サービス リソース経由で Scalar Envoy を使用します。 `-envoy` は次のようないくつかの方法で使用できます。 + +* ScalarDB または ScalarDL と同じ Kubernetes クラスター内から直接。 +* Kubernetes クラスターの外部からのロード バランサー経由。 +* `kubectl port-forward` コマンドを使用して要塞サーバーから実行します (テスト目的のみ)。 + +リソース名 `-envoy` は Helm リリース名に基づいて決定されます。 次のコマンドを実行すると、helm リリース名を確認できます。 + +```console +helm list -n ns-scalar +``` + +次のような結果が表示されます: + +```console +NAME NAMESPACE REVISION UPDATED STATUS CHART APP VERSION +scalardb ns-scalar 1 2023-02-09 19:31:40.527130674 +0900 JST deployed scalardb-2.5.0 3.8.0 +scalardl-auditor ns-scalar 1 2023-02-09 19:32:03.008986045 +0900 JST deployed scalardl-audit-2.5.1 3.7.1 +scalardl-ledger ns-scalar 1 2023-02-09 19:31:53.459548418 +0900 JST deployed scalardl-4.5.1 3.7.1 +``` + +次のコマンドを実行すると、envoy サービス名 `-envoy` を確認することもできます。 + +```console +kubectl get service -n ns-scalar +``` + +次のような結果が表示されます: + +```console +NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE +scalardb-envoy LoadBalancer 10.99.245.143 60051:31110/TCP 2m2s +scalardb-envoy-metrics ClusterIP 10.104.56.87 9001/TCP 2m2s +scalardb-headless ClusterIP None 60051/TCP 2m2s +scalardb-metrics ClusterIP 10.111.213.194 8080/TCP 2m2s +scalardl-auditor-envoy LoadBalancer 10.111.141.43 40051:31553/TCP,40052:31171/TCP 99s +scalardl-auditor-envoy-metrics ClusterIP 10.104.245.188 9001/TCP 99s +scalardl-auditor-headless ClusterIP None 40051/TCP,40053/TCP,40052/TCP 99s +scalardl-auditor-metrics ClusterIP 10.105.119.158 8080/TCP 99s +scalardl-ledger-envoy LoadBalancer 10.96.239.167 50051:32714/TCP,50052:30857/TCP 109s +scalardl-ledger-envoy-metrics ClusterIP 10.97.204.18 9001/TCP 109s +scalardl-ledger-headless ClusterIP None 50051/TCP,50053/TCP,50052/TCP 109s +scalardl-ledger-metrics ClusterIP 10.104.216.189 8080/TCP 109s +``` + +## 同じ Kubernetes クラスター内からサービス リソースを介して、ScalarDB または ScalarDL へのアプリケーション (クライアント) リクエストを直接実行します。 + +アプリケーション (クライアント) を ScalarDB または ScalarDL と同じ Kubernetes クラスターにデプロイする場合 (たとえば、アプリケーション [クライアント] を同じ Kubernetes クラスター内の別のノード グループまたはプールにデプロイする場合)、アプリケーションは次の方法で ScalarDB または ScalarDL にアクセスできます。 Kubernetes サービス リソースを使用します。 サービスリソース名 (FQDN) の形式は、`-envoy..svc.cluster.local` です。 + +以下は、`ns-scalar` 名前空間での ScalarDB および ScalarDL のデプロイメントの例です。 + +* **ScalarDB Server** + ```console + scalardb-envoy.ns-scalar.svc.cluster.local + ``` +* **ScalarDL Ledger** + ```console + scalardl-ledger-envoy.ns-scalar.svc.cluster.local + ``` +* **ScalarDL Auditor** + ```console + scalardl-auditor-envoy.ns-scalar.svc.cluster.local + ``` + +Kubernetes サービス リソースを使用する場合、アプリケーション (クライアント) のプロパティ ファイルに上記の FQDN を次のように設定する必要があります。 + +* **ScalarDB Server のクライアントプロパティファイル** + ```properties + scalar.db.contact_points=-envoy..svc.cluster.local + scalar.db.contact_port=60051 + scalar.db.storage=grpc + scalar.db.transaction_manager=grpc + ``` +* **ScalarDL Ledger のクライアントプロパティファイル** + ```properties + scalar.dl.client.server.host=-envoy..svc.cluster.local + scalar.dl.ledger.server.port=50051 + scalar.dl.ledger.server.privileged_port=50052 + ``` +* **ScalarDL Auditor モードが有効になっている ScalarDL Ledger のクライアント プロパティ ファイル** + ```properties + # Ledger + scalar.dl.client.server.host=-envoy..svc.cluster.local + scalar.dl.ledger.server.port=50051 + scalar.dl.ledger.server.privileged_port=50052 + + # Auditor + scalar.dl.client.auditor.enabled=true + scalar.dl.client.auditor.host=-envoy..svc.cluster.local + scalar.dl.auditor.server.port=40051 + scalar.dl.auditor.server.privileged_port=40052 + ``` + +## Kubernetes クラスターの外部からロード バランサー経由で ScalarDB または ScalarDL へのアプリケーション (クライアント) リクエストを実行します + +ScalarDB または ScalarDL の Kubernetes クラスターの外部の環境にアプリケーション (クライアント) をデプロイする場合 (たとえば、アプリケーション [クライアント] を別の Kubernetes クラスター、コンテナー プラットフォーム、またはサーバーにデプロイする場合)、アプリケーションは ScalarDB または ScalarDL にアクセスできます。 各クラウドサービスが提供するロードバランサーを利用します。 + +カスタム値ファイルで `envoy.service.type` を `LoadBalancer` に設定することで、ロード バランサーを作成できます。 カスタム値ファイルを構成した後、ロード バランサーを使用して、Kubernetes サービス リソースを通じて Scalar Envoy を使用できるようになります。 注釈を使用してロード バランサーの構成を設定することもできます。 + +カスタム値ファイルの設定方法の詳細については、[サービス設定](../helm-charts/configure-custom-values-envoy.mdx#サービス構成)を参照してください。 + +ロードバランサを使用する場合、アプリケーション(クライアント)のプロパティファイルにロードバランサのFQDNまたはIPアドレスを以下のように設定する必要があります。 + +* **ScalarDB Server のクライアントプロパティファイル** + ```properties + scalar.db.contact_points= + scalar.db.contact_port=60051 + scalar.db.storage=grpc + scalar.db.transaction_manager=grpc + ``` +* **ScalarDL Ledger のクライアントプロパティファイル** + ```properties + scalar.dl.client.server.host= + scalar.dl.ledger.server.port=50051 + scalar.dl.ledger.server.privileged_port=50052 + ``` +* **ScalarDL Auditor モードが有効になっている ScalarDL Ledger のクライアント プロパティ ファイル** + ```properties + # Ledger + scalar.dl.client.server.host= + scalar.dl.ledger.server.port=50051 + scalar.dl.ledger.server.privileged_port=50052 + + # Auditor + scalar.dl.client.auditor.enabled=true + scalar.dl.client.auditor.host= + scalar.dl.auditor.server.port=40051 + scalar.dl.auditor.server.privileged_port=40052 + ``` + +ロード バランサーの具体的な実装とアクセス方法は、Kubernetes クラスターに依存します。 マネージド Kubernetes クラスターを使用している場合は、クラウド サービス プロバイダーに基づいて次の公式ドキュメントを参照してください。 + +* **Amazon Elastic Kubernetes Service (EKS)** + * [Network load balancing on Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/network-load-balancing.html) +* **Azure Kubernetes Service (AKS)** + * [Use a public standard load balancer in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/load-balancer-standard) + * [Use an internal load balancer with Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/internal-lb) + +## 要塞サーバーから ScalarDB または ScalarDL へのクライアント リクエストを実行します (テスト目的のみ。運用環境では推奨されません) + +`kubectl port-forward` コマンドを実行すると、要塞サーバーから ScalarDB または ScalarDL へのクライアント リクエストを実行できます。 ただし、ScalarDL Auditor モード環境を作成する場合、2 つの Kubernetes クラスターにアクセスするには、1 つの要塞サーバーから異なる kubeconfig ファイルを使用して 2 つの `kubectl port-forward` コマンドを実行する必要があります。 + +1. **(ScalarDL Auditor モードのみ)** ScalarDL Ledger の要塞サーバーで、ScalarDL Auditor の Kubernetes クラスターにアクセスするために既存の kubeconfig ファイルを構成するか、新しい kubeconfig ファイルを追加します。 管理対象の各 Kubernetes クラスターの kubeconfig ファイルを構成する方法の詳細については、[kubeconfig の構成](CreateBastionServer.mdx#kubeconfig-の構成)を参照してください。 +2. 要塞サーバーから各サービスへのポート転送を構成します。 + * **ScalarDB Server** + ```console + kubectl port-forward -n svc/-envoy 60051:60051 + ``` + * **ScalarDL Ledger** + ```console + kubectl --context port-forward -n svc/-envoy 50051:50051 + kubectl --context port-forward -n svc/-envoy 50052:50052 + ``` + * **ScalarDL Auditor** + ```console + kubectl --context port-forward -n svc/-envoy 40051:40051 + kubectl --context port-forward -n svc/-envoy 40052:40052 + ``` +3. `localhost` 経由で ScalarDB または ScalarDL にアクセスするようにプロパティ ファイルを設定します。 + * **ScalarDB Server のクライアントプロパティファイル** + ```properties + scalar.db.contact_points=localhost + scalar.db.contact_port=60051 + scalar.db.storage=grpc + scalar.db.transaction_manager=grpc + ``` + * **ScalarDL Ledger のクライアントプロパティファイル** + ```properties + scalar.dl.client.server.host=localhost + scalar.dl.ledger.server.port=50051 + scalar.dl.ledger.server.privileged_port=50052 + ``` + * **ScalarDL Auditor モードが有効になっている ScalarDL Ledger のクライアント プロパティ ファイル** + ```properties + # Ledger + scalar.dl.client.server.host=localhost + scalar.dl.ledger.server.port=50051 + scalar.dl.ledger.server.privileged_port=50052 + + # Auditor + scalar.dl.client.auditor.enabled=true + scalar.dl.client.auditor.host=localhost + scalar.dl.auditor.server.port=40051 + scalar.dl.auditor.server.privileged_port=40052 + ``` diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AwsMarketplaceGuide.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AwsMarketplaceGuide.mdx new file mode 100644 index 00000000..90693760 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AwsMarketplaceGuide.mdx @@ -0,0 +1,503 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# AWS Marketplace を通じて Scalar 製品をインストールする方法 + +import Tabs from '@theme/Tabs'; +import TabItem from '@theme/TabItem'; +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +Scalar 製品 (ScalarDB、ScalarDL、およびそれらのツール) は、AWS Marketplace でコンテナイメージとして入手できます。 このガイドでは、AWS Marketplace を通じて Scalar 製品をインストールする方法について説明します。 + +:::note + +- 一部の Scalar 製品は商用ライセンスで利用可能であり、AWS Marketplace ではそれらの製品を従量課金制 (PAYG) 料金で提供しています。従量課金制料金を使用する場合、AWS は使用量に基づいて Scalar 製品のライセンス料を請求します。 +- 以前は、AWS Marketplace でライセンス持ち込み (BYOL) オプションが提供されていました。ただし、このオプションは廃止され、削除されたため、AWS Marketplace ではサポートされなくなりました。 +- BYOL オプションは、AWS Marketplace ではなく、次のパブリックコンテナリポジトリで提供されています。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact-jp) ください。 + - [ScalarDB Cluster Enterprise Standard](https://github.com/orgs/scalar-labs/packages/container/package/scalardb-cluster-node-byol-standard) + - [ScalarDB Cluster Enterprise Premium](https://github.com/orgs/scalar-labs/packages/container/package/scalardb-cluster-node-byol-premium) + - [ScalarDL Ledger](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-ledger-byol) + - [ScalarDL Auditor](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-auditor-byol) + +::: + +## AWS Marketplace から Scalar 製品を購読する + +1. Scalar 製品を選択すると、AWS Marketplace へのリンクが表示されます。 + + + + ScalarDB Enterprise のエディションを選択します。 + + + | PAYG | BYOL (非推奨) | + |:---------------------------------------------------------------------------------|:---------------------------------------------------------------------------------| + | [ScalarDB Cluster](https://aws.amazon.com/marketplace/pp/prodview-jx6qxatkxuwm4) | [ScalarDB Cluster](https://aws.amazon.com/marketplace/pp/prodview-alcwrmw6v4cfy) | + + + | PAYG | BYOL (非推奨) | + |:---------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------| + | [ScalarDB Cluster](https://aws.amazon.com/marketplace/pp/prodview-djqw3zk6dwyk6) | [ScalarDB Cluster](https://aws.amazon.com/marketplace/pp/prodview-alcwrmw6v4cfy) | + + + + + | PAYG | BYOL (非推奨) | + |:---------------------------------------------------------------------------------|:---------------------------------------------------------------------------------| + | [ScalarDL Ledger](https://aws.amazon.com/marketplace/pp/prodview-wttioaezp5j6e) | [ScalarDL Ledger](https://aws.amazon.com/marketplace/pp/prodview-3jdwfmqonx7a2) | + + + | PAYG | BYOL (非推奨) | + |:---------------------------------------------------------------------------------|:---------------------------------------------------------------------------------| + | [ScalarDL Auditor](https://aws.amazon.com/marketplace/pp/prodview-ke3yiw4mhriuu) | [ScalarDL Auditor](https://aws.amazon.com/marketplace/pp/prodview-tj7svy75gu7m6) | + + + | PAYG | BYOL | + |:-------------------------------------------------------------------------------|:---------------------------------------------| + | [Scalar Manager](https://aws.amazon.com/marketplace/pp/prodview-gfyn6ipmxf2hq) | Scalar Manager には BYOL オプションがありません。 | + + + +1. [**購読を続ける**] を選択します。 + +1. IAM ユーザーを使用して AWS Marketplace にサインインします。 + すでにサインインしている場合、この手順は自動的にスキップされます。 + +1. **利用規約**を読み、**利用規約に同意する**を選択します。 + 時間がかかります。 完了すると、**発効日**列に現在の日付が表示されます。 + また、AWS コンソールの [Manage subscriptions](https://us-east-1.console.aws.amazon.com/marketplace/home#/subscriptions) ページでも製品を確認できます。 + +## Scalar Helm Charts を使用して AWS Marketplace から EKS (Amazon Elastic Kubernetes Service) にコンテナをデプロイする +AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketplace のプライベート コンテナ レジストリ ([ECR](https://aws.amazon.com/ecr/)) から Scalar 製品のコンテナ イメージをプルできます。 このセクションでは、プライベート コンテナー レジストリから [EKS](https://aws.amazon.com/eks/) クラスターに従量課金制の価格で Scalar 製品をデプロイする方法について説明します。 + +1. OIDC プロバイダーを作成します。 + + ScalarDL ポッドから AWS Marketplace Metering Service を実行するには、ID およびアクセス管理 (IAM) OpenID Connect (OIDC) プロバイダーを作成する必要があります。 + + ```console + eksctl utils associate-iam-oidc-provider --region --cluster --approve + ``` + + 詳細については、[Creating an IAM OIDC provider for your cluster](https://docs.aws.amazon.com/eks/latest/userguide/enable-iam-roles-for-service-accounts.html) を参照してください。 + +1. サービスアカウントを作成します。 + + ポッドが AWS Marketplace Metering Service を実行できるようにするには、[IAM roles for service accounts](https://docs.aws.amazon.com/eks/latest/userguide/iam-roles-for-service-accounts.html) を使用できます。 + + ```console + eksctl create iamserviceaccount \ + --name \ + --namespace \ + --region \ + --cluster \ + --attach-policy-arn arn:aws:iam::aws:policy/AWSMarketplaceMeteringFullAccess \ + --approve \ + --override-existing-serviceaccounts + ``` + +1. インストールする Scalar 製品の Helm Chart のカスタム値ファイルを更新します。 + カスタム値ファイルの `[].image.repository` の値として、AWS Marketplace のプライベート コンテナ レジストリ (ECR) を指定する必要があります。 また、前の手順で作成したサービス アカウント名を `[].serviceAccount.serviceAccountName` の値として指定し、 `[].serviceAccount.automountServiceAccountToken` を `true` に設定する必要があります。使用している製品に応じて、次の例を参照してください。 + + + + ScalarDB Enterprise のエディションを選択します。 + + + `scalardb-cluster-standard-custom-values.yaml` ファイル内: + + ```yaml + scalardbCluster: + image: + repository: "709825985650.dkr.ecr.us-east-1.amazonaws.com/scalar/scalardb-cluster-node-aws-payg-standard" + serviceAccount: + serviceAccountName: "" + automountServiceAccountToken: true + ``` + + :::note + + 設定の詳細については、[ScalarDB Cluster のカスタム値ファイルを構成する](../helm-charts/configure-custom-values-scalardb-cluster.mdx)を参照してください。 + + ::: + + + + `scalardb-cluster-premium-custom-values.yaml` ファイル内: + + ```yaml + scalardbCluster: + image: + repository: "709825985650.dkr.ecr.us-east-1.amazonaws.com/scalar/scalardb-cluster-node-aws-payg-premium" + serviceAccount: + serviceAccountName: "" + automountServiceAccountToken: true + ``` + + :::note + + 設定の詳細については、[ScalarDB Cluster のカスタム値ファイルを構成する](../helm-charts/configure-custom-values-scalardb-cluster.mdx)を参照してください。 + + ::: + + + + + +

ScalarDL Ledger

+ + `scalardl-ledger-custom-values.yaml` ファイル内: + + ```yaml + ledger: + image: + repository: "709825985650.dkr.ecr.us-east-1.amazonaws.com/scalar/scalardl-ledger-aws-payg" + serviceAccount: + serviceAccountName: "" + automountServiceAccountToken: true + ``` + + :::note + + 設定の詳細については、[ScalarDL Ledger のカスタム値ファイルを構成する](../helm-charts/configure-custom-values-scalardl-ledger.mdx)を参照してください。 + + ::: + +

ScalarDL Schema Loader for Ledger

+ + `schema-loader-ledger-custom-values.yaml` ファイル内の `[].image.repository` 構成を更新する必要はありません。ScalarDL Schema Loader のコンテナイメージは、[パブリックコンテナリポジトリ](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-schema-loader) で提供されています。 + + :::note + + 設定の詳細については、[ScalarDL Schema Loader のカスタム値ファイルを構成する](../helm-charts/configure-custom-values-scalardl-schema-loader.mdx)を参照してください。 + + ::: + +
+ +

ScalarDL Auditor

+ + `scalardl-auditor-custom-values.yaml` ファイル内: + + ```yaml + auditor: + image: + repository: "709825985650.dkr.ecr.us-east-1.amazonaws.com/scalar/scalardl-auditor-aws-payg" + serviceAccount: + serviceAccountName: "" + automountServiceAccountToken: true + ``` + + :::note + + 設定の詳細については、[ScalarDL Auditor のカスタム値ファイルを構成する](../helm-charts/configure-custom-values-scalardl-auditor.mdx)を参照してください。 + + ::: + +

ScalarDL Schema Loader for Auditor

+ + `schema-loader-auditor-custom-values.yaml` ファイル内の `[].image.repository` 構成を更新する必要はありません。ScalarDL Schema Loader のコンテナイメージは、[パブリックコンテナリポジトリ](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-schema-loader) で提供されています。 + + :::note + + 設定の詳細については、[ScalarDL Schema Loader のカスタム値ファイルを構成する](../helm-charts/configure-custom-values-scalardl-schema-loader.mdx)を参照してください。 + + ::: + +
+ + `scalar-manager-custom-values.yaml` ファイル内: + + ```yaml + api: + image: + repository: "709825985650.dkr.ecr.us-east-1.amazonaws.com/scalar/scalar-manager-api-aws-payg" + web: + image: + repository: "709825985650.dkr.ecr.us-east-1.amazonaws.com/scalar/scalar-manager-web-aws-payg" + serviceAccount: + serviceAccountName: "" + automountServiceAccountToken: true + ``` + + :::note + + 設定の詳細については、[Scalar Manager のカスタム値ファイルを構成する](../helm-charts/configure-custom-values-scalar-manager.mdx)を参照してください。 + + ::: + + +
+ +1. Helm Charts を上記のカスタム値ファイルと組み合わせて使用して、Scalar 製品をデプロイします。使用している製品に応じて、次の例を参照してください。 + + + + ScalarDB Enterprise のエディションを選択します。 + + + ```console + helm install scalardb-cluster-standard scalar-labs/scalardb-cluster -f scalardb-cluster-standard-custom-values.yaml + ``` + + + ```console + helm install scalardb-cluster-premium scalar-labs/scalardb-cluster -f scalardb-cluster-premium-custom-values.yaml + ``` + + + + +

ScalarDL Ledger

+ + ```console + helm install scalardl-ledger scalar-labs/scalardl -f ./scalardl-ledger-custom-values.yaml + ``` + +

ScalarDL Schema Loader for Ledger

+ + ```console + helm install schema-loader scalar-labs/schema-loading -f ./schema-loader-ledger-custom-values.yaml + ``` +
+ +

ScalarDL Auditor

+ + ```console + helm install scalardl-auditor scalar-labs/scalardl-audit -f ./scalardl-auditor-custom-values.yaml + ``` + +

ScalarDL Schema Loader for Auditor

+ + ```console + helm install schema-loader scalar-labs/schema-loading -f ./schema-loader-auditor-custom-values.yaml + ``` +
+ + ```console + helm install scalar-manager scalar-labs/scalar-manager -f ./scalar-manager-custom-values.yaml + ``` + +
+ +## **[非推奨] [BYOL]** Scalar Helm Chart を使用して AWS Marketplace から EKS (Amazon Elastic Kubernetes Service) にコンテナをデプロイする + +AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketplace のプライベート コンテナ レジストリ ([ECR](https://aws.amazon.com/ecr/)) から Scalar 製品のコンテナ イメージをプルできます。 このセクションでは、プライベート コンテナー レジストリから [EKS](https://aws.amazon.com/eks/) クラスターに BYOL オプションを使用して Scalar 製品をデプロイする方法について説明します。 + +1. インストールする Scalar 製品の Helm Chart のカスタム値ファイルを更新します。 + AWS Marketplace のプライベート コンテナ レジストリ (ECR) をカスタム値ファイルの `[].image.repository` の値として指定する必要があります。使用している製品に応じて、次の例を参照してください。 + + + + ```yaml + scalardbCluster: + image: + repository: "709825985650.dkr.ecr.us-east-1.amazonaws.com/scalar/scalardb-cluster-node-aws-byol" + ``` + + :::note + + 設定の詳細については、[ScalarDB Cluster のカスタム値ファイルを構成する](../helm-charts/configure-custom-values-scalardb-cluster.mdx)を参照してください。 + + ::: + + + +

ScalarDL Ledger

+ + `scalardl-ledger-custom-values.yaml` ファイル内: + + ```yaml + ledger: + image: + repository: "709825985650.dkr.ecr.us-east-1.amazonaws.com/scalar/scalar-ledger" + ``` + + :::note + + 設定の詳細については、[ScalarDL Ledger のカスタム値ファイルを構成する](../helm-charts/configure-custom-values-scalardl-ledger.mdx)を参照してください。 + + ::: + +

ScalarDL Schema Loader for Ledger

+ + `schema-loader-ledger-custom-values.yaml` ファイル内の `[].image.repository` 構成を更新する必要はありません。ScalarDL Schema Loader のコンテナイメージは、[パブリックコンテナリポジトリ](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-schema-loader) で提供されています。 + + :::note + + 設定の詳細については、[ScalarDL Schema Loader のカスタム値ファイルを構成する](../helm-charts/configure-custom-values-scalardl-schema-loader.mdx)を参照してください。 + + ::: + +
+ +

ScalarDL Auditor

+ + `scalardl-auditor-custom-values.yaml` ファイル内: + + ```yaml + auditor: + image: + repository: "709825985650.dkr.ecr.us-east-1.amazonaws.com/scalar/scalar-auditor" + ``` + + :::note + + 設定の詳細については、[ScalarDL Auditor のカスタム値ファイルを構成する](../helm-charts/configure-custom-values-scalardl-auditor.mdx)を参照してください。 + + ::: + +

ScalarDL Schema Loader for Auditor

+ + `schema-loader-auditor-custom-values.yaml` ファイル内の `[].image.repository` 構成を更新する必要はありません。ScalarDL Schema Loader のコンテナイメージは、[パブリックコンテナリポジトリ](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-schema-loader) で提供されています。 + + :::note + + 設定の詳細については、[ScalarDL Schema Loader のカスタム値ファイルを構成する](../helm-charts/configure-custom-values-scalardl-schema-loader.mdx)を参照してください。 + + ::: + +
+
+ +1. 上記のカスタム値ファイルを含む Helm Chart を使用して、Scalar 製品をデプロイします。使用している製品に応じて、次の例を参照してください。 + + + + ```console + helm install scalardb-cluster scalar-labs/scalardb-cluster -f scalardb-cluster-custom-values.yaml + ``` + + +

ScalarDL Ledger

+ + ```console + helm install scalardl-ledger scalar-labs/scalardl -f ./scalardl-ledger-custom-values.yaml + ``` + +

ScalarDL Schema Loader for Ledger

+ + ```console + helm install schema-loader scalar-labs/schema-loading -f ./schema-loader-ledger-custom-values.yaml + ``` +
+ +

ScalarDL Auditor

+ + ```console + helm install scalardl-auditor scalar-labs/scalardl-audit -f ./scalardl-auditor-custom-values.yaml + ``` + +

ScalarDL Schema Loader for Auditor

+ + ```console + helm install schema-loader scalar-labs/schema-loading -f ./schema-loader-auditor-custom-values.yaml + ``` +
+
+ +## **[非推奨] [BYOL]** Scalar Helm Chart を使用して、AWS Marketplace から EKS 以外の Kubernetes にコンテナをデプロイする + +1. [AWS Official Document (Installing or updating the latest version of the AWS CLI)](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html) に従って `aws` コマンドをインストールします。 + +1. [AWS Official Document (Configuration basics)](https://docs.aws.amazon.com/cli/latest/userguide/cli-configure-quickstart.html) に従って、認証情報を使用して AWS CLI を設定します。 + +1. AWS Marketplace の ECR からコンテナイメージをプルするための `reg-ecr-mp-secrets` シークレットリソースを作成します。 + + ```console + kubectl create secret docker-registry reg-ecr-mp-secrets \ + --docker-server=709825985650.dkr.ecr.us-east-1.amazonaws.com \ + --docker-username=AWS \ + --docker-password=$(aws ecr get-login-password --region us-east-1) + ``` + +1. インストールする Scalar 製品の Helm Chart のカスタム値ファイルを更新します。 + AWS Marketplace のプライベート コンテナ レジストリ (ECR) をカスタム値ファイルの `[].image.repository` の値として指定する必要があります。 + また、`[].imagePullSecrets` の値として `reg-ecr-mp-secrets` を指定する必要があります。使用している製品に応じて、次の例を参照してください。 + + + + ```yaml + scalardbCluster: + image: + repository: "709825985650.dkr.ecr.us-east-1.amazonaws.com/scalar/scalardb-cluster-node-aws-byol" + imagePullSecrets: + - name: "reg-ecr-mp-secrets" + ``` + + :::note + + 設定の詳細については、[ScalarDB Cluster のカスタム値ファイルを構成する](../helm-charts/configure-custom-values-scalardb-cluster.mdx)を参照してください。 + + ::: + + + +

ScalarDL Ledger

+ + `scalardl-ledger-custom-values.yaml` ファイル内: + + ```yaml + ledger: + image: + repository: "709825985650.dkr.ecr.us-east-1.amazonaws.com/scalar/scalar-ledger" + imagePullSecrets: + - name: "reg-ecr-mp-secrets" + ``` + + :::note + + 設定の詳細については、[ScalarDL Ledger のカスタム値ファイルを構成する](../helm-charts/configure-custom-values-scalardl-ledger.mdx)を参照してください。 + + ::: + +

ScalarDL Schema Loader for Ledger

+ + `schema-loader-ledger-custom-values.yaml` ファイル内の `[].image.repository` 構成を更新する必要はありません。ScalarDL Schema Loader のコンテナイメージは、[パブリックコンテナリポジトリ](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-schema-loader) で提供されています。 + + :::note + + 設定の詳細については、[ScalarDL Schema Loader のカスタム値ファイルを構成する](../helm-charts/configure-custom-values-scalardl-schema-loader.mdx)を参照してください。 + + ::: + +
+ +

ScalarDL Auditor

+ + `scalardl-auditor-custom-values.yaml` ファイル内: + + ```yaml + auditor: + image: + repository: "709825985650.dkr.ecr.us-east-1.amazonaws.com/scalar/scalar-auditor" + imagePullSecrets: + - name: "reg-ecr-mp-secrets" + ``` + + :::note + + 設定の詳細については、[ScalarDL Auditor のカスタム値ファイルを構成する](../helm-charts/configure-custom-values-scalardl-auditor.mdx)を参照してください。 + + ::: + +

ScalarDL Schema Loader for Auditor

+ + `schema-loader-auditor-custom-values.yaml` ファイル内の `[].image.repository` 構成を更新する必要はありません。ScalarDL Schema Loader のコンテナイメージは、[パブリックコンテナリポジトリ](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-schema-loader) で提供されています。 + + :::note + + 設定の詳細については、[ScalarDL Schema Loader のカスタム値ファイルを構成する](../helm-charts/configure-custom-values-scalardl-schema-loader.mdx)を参照してください。 + + ::: + +
+
+ +1. 上記のカスタム値ファイルを含む Helm Chart を使用して、Scalar 製品をデプロイします。 + * 例 + このドキュメントの **[非推奨] [BYOL] Scalar Helm Chart を使用して AWS Marketplace から EKS (Amazon Elastic Kubernetes Service) にコンテナをデプロイする** セクションを参照してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AzureMarketplaceGuide.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AzureMarketplaceGuide.mdx new file mode 100644 index 00000000..31efb024 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AzureMarketplaceGuide.mdx @@ -0,0 +1,238 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# Azure Marketplace を通じて Scalar 製品をインストールする方法 + +import Tabs from '@theme/Tabs'; +import TabItem from '@theme/TabItem'; +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +:::warning + +現在、Scalar 製品は Azure Marketplace では入手できません。 Scalar 製品のコンテナ イメージを取得するその他の方法については、[Scalar 製品のコンテナイメージを取得する方法](./HowToGetContainerImages.mdx) を参照してください。 + +::: + +Scalar 製品 (ScalarDB、ScalarDL、およびそれらのツール) は、コンテナー オファーとして Azure Marketplace で提供されます。 このガイドでは、Azure Marketplace を通じて Scalar 製品をインストールする方法について説明します。 + +一部の Scalar 製品は商用ライセンスに基づいてライセンスされており、Azure Marketplace では BYOL (Bring Your Own License) として提供されていることに注意してください。 適切なライセンスを持っていることを確認してください。 + +## Microsoft Azure Marketplace から Scalar 製品を入手する + +1. Scalar 製品を選択すると、Microsoft Azure Marketplace へのリンクが表示されます。 + + + + - [ScalarDB](https://azuremarketplace.microsoft.com/en/marketplace/apps/scalarinc.scalardb) + + + - [ScalarDL](https://azuremarketplace.microsoft.com/en/marketplace/apps/scalarinc.scalardl) + + + +1. **Get It Now** を選択します。 + +1. 職場の電子メール アドレスを使用して Azure Marketplace にサインインします。 + Microsoft Azureのアカウントとして使用している仕事用メールアドレスをご利用ください。 + すでにサインインしている場合、この手順は自動的にスキップされます。 + +1. あなたの情報を入力してください。 + **会社**は必須ではありませんが、入力してください。 + +1. 必要な **ソフトウェア プラン** をプルダウンから選択します。 + **ソフトウェア プラン** とは、コンテナ イメージとライセンスの組み合わせを意味します。 ご使用の *ソフトウェア プラン* を選択してください。 + +1. [**続行**] を選択します。 + [**続行**] を選択すると、自動的に Azure ポータルに移動します。 + +1. プライベート コンテナー レジストリ (Azure Container Registry) を作成します。 + 画面上のコマンドに従って、プライベート コンテナー レジストリを作成してください。 + Scalar 製品のコンテナ イメージは、プライベート コンテナ レジストリにコピーされます。 + +1. 必要に応じてこれらの手順を繰り返します。 + Kubernetes 上で Scalar 製品を実行するには複数のコンテナー イメージが必要ですが、Azure Marketplace は一度に 1 つのコンテナー イメージのみをコピーします。 したがって、必要に応じて複数のソフトウェア プランを購読する (繰り返し購読操作) 必要があります。 + - 必要なコンテナイメージは以下となります。コンテナイメージの詳細を表示するには、Scalar 製品を選択します。 + + + + - ScalarDB Cluster (BYOL) + - [非推奨] ScalarDB Server のデフォルト (2vCPU, 4GiB Memory) + - [非推奨] ScalarDB GraphQL Server (optional) + - [非推奨] ScalarDB SQL Server (optional) + + + - ScalarDL Ledger のデフォルト (2vCPU, 4GiB Memory) + - ScalarDL Auditor のデフォルト (2vCPU, 4GiB Memory) + - **ScalarDL Auditor** はオプションです。 **ScalarDL Auditor** を使用している場合は、サブスクライブしてください。 + - ScalarDL Schema Loader + + + +これで、プライベート コンテナー レジストリから Scalar 製品のコンテナー イメージをプルできるようになりました。 +Azure Container Registry の詳細については、 [Azure Container Registry documentation](https://docs.microsoft.com/en-us/azure/container-registry/) を参照してください。 + +## Scalar Helm Charts を使用して、プライベート コンテナー レジストリから AKS (Azure Kubernetes Service) にコンテナーをデプロイします。 + +1. AKS クラスターを作成するときに、プライベート コンテナー レジストリ (Azure Container Registry) を指定します。 + * GUI (Azure ポータル) + [**統合**] タブの **Azure Container Registry** パラメーターで、プライベート コンテナー レジストリを指定してください。 + * CLI ([az aks create](https://docs.microsoft.com/en-us/cli/azure/aks?view=azure-cli-latest#az-aks-create) コマンド) + `--attach-acr` フラグにプライベート コンテナー レジストリの名前を指定してください。 また、`--attach-acr` フラグを指定した [az aks update](https://docs.microsoft.com/en-us/cli/azure/aks?view=azure-cli-latest#az-aks-update) コマンドを使用して、既存の AKS クラスターの Azure Container Registry 統合を構成できます。 詳細は [Azure Official Document](https://docs.microsoft.com/en-us/azure/aks/cluster-container-registry-integration) をご参照ください。 + +1. インストールする Scalar 製品の Helm Chart のカスタム値ファイルを更新します。 + プライベート コンテナ レジストリをカスタム値ファイルの `[].image.repository` の値として指定する必要があります。使用している製品に応じて、次の例を参照してください。 + + + + ```yaml + scalardbCluster: + image: + repository: "example.azurecr.io/scalarinc/scalardb-cluster-node-azure-byol" + ``` + + + 使用している ScalarDL 製品を選択します。 + + + `scalardl-ledger-custom-values.yaml` ファイル内: + + ```yaml + ledger: + image: + repository: "example.azurecr.io/scalarinc/scalar-ledger" + ``` + + + `scalardl-auditor-custom-values.yaml` ファイル内: + + ```yaml + auditor: + image: + repository: "example.azurecr.io/scalarinc/scalar-auditor" + ``` + + + `schema-loader-custom-values.yaml` ファイル内: + + ```yaml + schemaLoading: + image: + repository: "example.azurecr.io/scalarinc/scalardl-schema-loader" + ``` + + + + + +1. 上記のカスタム値ファイルを含む Helm Chart を使用して、Scalar 製品をデプロイします。使用している製品に応じて、次の例を参照してください。 + + + + ```console + helm install scalardb-cluster scalar-labs/scalardb-cluster -f scalardb-cluster-custom-values.yaml + ``` + + + 使用している ScalarDL 製品を選択します。 + + + ```console + helm install scalardl-ledger scalar-labs/scalardl -f ./scalardl-ledger-custom-values.yaml + ``` + + + ```console + helm install scalardl-auditor scalar-labs/scalardl-audit -f ./scalardl-auditor-custom-values.yaml + ``` + + + ```console + helm install schema-loader scalar-labs/schema-loading -f ./schema-loader-custom-values.yaml + ``` + + + + + +## Scalar Helm Chart を使用して、プライベート コンテナー レジストリから AKS (Azure Kubernetes Service) 以外の Kubernetes にコンテナーをデプロイします。 + +1. [Azure Official Document (How to install the Azure CLI)](https://docs.microsoft.com/en-us/cli/azure/install-azure-cli) に従って`az`コマンドをインストールします。 + +1. Azure CLI を使用してサインインします。 + ```console + az login + ``` + +1. [Azure Official Document (Azure Container Registry authentication with service principals)](https://docs.microsoft.com/en-us/azure/container-registry/container-registry-auth-service-principal) に従って、プライベート コンテナー レジストリへの認証用の **service principal** を作成します。 + 次のステップでは、**Service principal ID** と **Service principal パスワード**を使用します。 + +1. プライベート コンテナー レジストリからコンテナー イメージをプルするための `reg-acr-secrets` シークレット リソースを作成します。 + ```console + kubectl create secret docker-registry reg-acr-secrets \ + --docker-server= \ + --docker-username= \ + --docker-password= + ``` + +1. インストールする Scalar 製品の Helm Chart のカスタム値ファイルを更新します。 + プライベート コンテナ レジストリをカスタム値ファイルの `[].image.repository` の値として指定する必要があります。 + また、`[].imagePullSecrets` の値として `reg-acr-secrets` を指定する必要があります。使用している製品に応じて、次の例を参照してください。 + + + + ```yaml + scalardbCluster: + image: + repository: "example.azurecr.io/scalarinc/scalardb-cluster-node-azure-byol" + imagePullSecrets: + - name: "reg-acr-secrets" + ``` + + + 使用している ScalarDL 製品を選択します。 + + + `scalardl-ledger-custom-values.yaml` ファイル内: + + ```yaml + ledger: + image: + repository: "example.azurecr.io/scalarinc/scalar-ledger" + imagePullSecrets: + - name: "reg-acr-secrets" + ``` + + + `scalardl-auditor-custom-values.yaml` ファイル内: + + ```yaml + auditor: + image: + repository: "example.azurecr.io/scalarinc/scalar-auditor" + imagePullSecrets: + - name: "reg-acr-secrets" + ``` + + + `schema-loader-custom-values.yaml` ファイル内: + + ```yaml + schemaLoading: + image: + repository: "example.azurecr.io/scalarinc/scalardl-schema-loader" + imagePullSecrets: + - name: "reg-acr-secrets" + ``` + + + + + +1. 上記のカスタム値ファイルを含む Helm Chart を使用して、Scalar 製品をデプロイします。 + * 例 + このドキュメントの **Scalar Helm Charts を使用して、プライベート コンテナー レジストリから AKS (Azure Kubernetes Service) にコンテナーをデプロイします** セクションを参照してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupNoSQL.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupNoSQL.mdx new file mode 100644 index 00000000..f16f5a38 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupNoSQL.mdx @@ -0,0 +1,148 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# Kubernetes 環境で NoSQL データベースをバックアップする + +このガイドでは、ScalarDB または ScalarDL が Kubernetes 環境で使用するマネージド データベースのトランザクション的に一貫したバックアップを作成する方法について説明します。 NoSQL データベースまたは複数のデータベースを使用する場合は、トランザクションの一貫性のあるバックアップを作成するために ScalarDB または ScalarDL を**一時停止する必要がある**ことに注意してください。 + +ScalarDB がデータベースをバックアップする方法の詳細については、[A Guide on How to Backup and Restore Databases Used Through ScalarDB](https://scalardb.scalar-labs.com/docs/latest/backup-restore/) を参照してください。 + +このガイドでは、ポイントインタイム リカバリ (PITR) または同等の機能を使用していることを前提としています。 そのため、復旧のためには継続的な取引がない期間を設ける必要があります。 その後、PITR を使用してデータをその特定の期間に復元できます。 進行中のトランザクションがない期間を作成せずにデータをある時点に復元すると、復元されたデータはトランザクション的に不整合となり、ScalarDB または ScalarDL がデータを適切に処理できなくなる可能性があります。 + +## データを復元する期間を作成し、バックアップを実行します + +1. バックアップ操作を開始する前に、`kubectl get pod` コマンドを実行して、次の 4 つの点を確認します。 + * **ScalarDB または ScalarDL ポッドの数。** ポッドの数を書き留めて、その数をバックアップの実行後のポッドの数と比較できるようにします。 + * **`NAME` 列の ScalarDB または ScalarDL ポッド名。** バックアップの実行後にそれらの名前とポッド名を比較できるように、ポッド名を書き留めます。 + * **ScalarDB または ScalarDL ポッドのステータスは、`STATUS` 列で `Running` になっています。** バックアップを続行する前に、ポッドが実行中であることを確認してください。 次のステップではポッドを一時停止する必要があります。 + * ** `RESTARTS` 列の各ポッドの再起動回数。** バックアップ実行後の再起動回数と比較できるように、各ポッドの再起動回数を書き留めます。 +2. `scalar-admin` を使用して、ScalarDB または ScalarDL ポッドを一時停止します。 ポッドを一時停止する方法の詳細については、このガイドの [`scalar-admin` の使用の詳細](BackupNoSQL.mdx#scalar-admin-の使用の詳細) セクションを参照してください。 +3. `pause completed` 時間を書き留めます。 PITR 機能を使用してデータを復元する場合は、その時間を参照する必要があります。 +4. バックアップ機能を使用して、各データベースをバックアップします。 自動バックアップと PITR 機能を有効にしている場合、管理されたデータベースは自動的にバックアップを実行します。 クライアント クロックとデータベース クロック間のクロック スキューの問題を回避するのに十分な長い期間を作成できるように、約 10 秒待つ必要があることに注意してください。 この 10 秒の期間は、PITR 機能を使用してデータを復元できる正確な期間です。 +5. `scalar-admin` を使用して、ScalarDB または ScalarDL ポッドの一時停止を解除します。 ポッドの一時停止を解除する方法の詳細については、このガイドの [`scalar-admin` の使用の詳細](BackupNoSQL.mdx#scalar-admin-の使用の詳細) の使用の詳細」セクションを参照してください。 +6. `unpause started` 時刻を確認します。 PITR 機能を使用してデータを復元できる正確な期間を確認するには、`unpause started` 時間を確認する必要があります。 +7. バックアップの実行後にポッドのステータスを確認します。 バックアップ操作完了後、`kubectl get pod` コマンドを使用して以下の4点を確認する必要があります。 + * **ScalarDB または ScalarDL ポッドの数。** この数が、バックアップを実行する前に書き留めたポッドの数と一致することを確認します。 + * **`NAME` 列の ScalarDB または ScalarDL ポッド名。** 名前がバックアップを実行する前に書き留めたポッド名と一致することを確認します。 + * **ScalarDB または ScalarDL ポッドのステータスは、`STATUS` 列で `Running` になっています。** + * **`RESTARTS` 列の各ポッドの再起動回数。** カウントが、バックアップを実行する前に書き留めた再起動回数と一致することを確認します。 + + **2 つの値のいずれかが異なる場合は、バックアップ操作を最初から再試行する必要があります。** 値が異なる理由は、バックアップの実行中に追加または再起動されたポッドが原因である可能性があります。 そのような場合、それらのポッドは `unpause` 状態で実行されます。 ポッドが `unpause` 状態にあると、バックアップ データのトランザクションの不整合が発生します。 +8. **(Amazon DynamoDB のみ)** DynamoDB の PITR 機能を使用する場合、この機能は PITR を使用して別の名前テーブルでデータを復元するため、バックアップを作成するために追加の手順を実行する必要があります。 データを復元できる正確な期間を作成した後の追加手順の詳細については、[Kubernetes 環境でのデータベースの復元](RestoreDatabase.mdx#amazon-dynamodb) を参照してください。 + +## 複数のデータベースをバックアップする + +[Multi-storage Transactions](https://scalardb.scalar-labs.com/docs/latest/multi-storage-transactions/) または [Two-phase Commit Transactions](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions/) 機能が使用するデータベースが 2 つ以上ある場合は、ScalarDB または ScalarDL のすべてのインスタンスを一時停止し、データベース内に進行中のトランザクションが存在しない同じ期間を作成する必要があります。 + +複数のデータベース間の整合性を確保するには、PITR 機能を使用してデータベースを同じ時点に復元する必要があります。 + +## `scalar-admin` の使用の詳細 + +### Kubernetes リソース名を確認する + +SRV サービス URL を `-s (--srv-service-url)` フラグに指定する必要があります。 Kubernetes 環境では、SRV サービス URL の形式は `_my-port-name._my-port-protocol.my-svc.my-namespace.svc.cluster.local` です。 + +Scalar Helm Chart を使用して ScalarDB または ScalarDL をデプロイする場合、`my-svc` および `my-namespace` は環境によって異なる場合があります。 ヘッドレス サービス名を `my-svc` として指定し、名前空間を `my-namespace` として指定する必要があります。 + +* 例 + * ScalarDB Server + ```console + _scalardb._tcp.-headless..svc.cluster.local + ``` + * ScalarDL Ledger + ```console + _scalardl-admin._tcp.-headless..svc.cluster.local + ``` + * ScalarDL Auditor + ```console + _scalardl-auditor-admin._tcp.-headless..svc.cluster.local + ``` + +Helm リリース名によって、ヘッドレス サービス名 `-headless` が決まります。 次のコマンドを実行すると、helm リリース名を確認できます。 + +```console +helm list -n ns-scalar +``` + +次のような結果が表示されます: + +```console +NAME NAMESPACE REVISION UPDATED STATUS CHART APP VERSION +scalardb ns-scalar 1 2023-02-09 19:31:40.527130674 +0900 JST deployed scalardb-2.5.0 3.8.0 +scalardl-auditor ns-scalar 1 2023-02-09 19:32:03.008986045 +0900 JST deployed scalardl-audit-2.5.1 3.7.1 +scalardl-ledger ns-scalar 1 2023-02-09 19:31:53.459548418 +0900 JST deployed scalardl-4.5.1 3.7.1 +``` + +次のコマンドを実行すると、ヘッドレス サービス名 `-headless` を確認することもできます。 + +```console +kubectl get service -n ns-scalar +``` + +次のような結果が表示されます: + +```console +NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE +scalardb-envoy LoadBalancer 10.99.245.143 60051:31110/TCP 2m2s +scalardb-envoy-metrics ClusterIP 10.104.56.87 9001/TCP 2m2s +scalardb-headless ClusterIP None 60051/TCP 2m2s +scalardb-metrics ClusterIP 10.111.213.194 8080/TCP 2m2s +scalardl-auditor-envoy LoadBalancer 10.111.141.43 40051:31553/TCP,40052:31171/TCP 99s +scalardl-auditor-envoy-metrics ClusterIP 10.104.245.188 9001/TCP 99s +scalardl-auditor-headless ClusterIP None 40051/TCP,40053/TCP,40052/TCP 99s +scalardl-auditor-metrics ClusterIP 10.105.119.158 8080/TCP 99s +scalardl-ledger-envoy LoadBalancer 10.96.239.167 50051:32714/TCP,50052:30857/TCP 109s +scalardl-ledger-envoy-metrics ClusterIP 10.97.204.18 9001/TCP 109s +scalardl-ledger-headless ClusterIP None 50051/TCP,50053/TCP,50052/TCP 109s +scalardl-ledger-metrics ClusterIP 10.104.216.189 8080/TCP 109s +``` + +### 一時停止 + +Kubernetes 環境の ScalarDB または ScalarDL ポッドに一時停止リクエストを送信できます。 + +* 例 + * ScalarDB Server + ```console + kubectl run scalar-admin-pause --image=ghcr.io/scalar-labs/scalar-admin: --restart=Never -it -- -c pause -s _scalardb._tcp.-headless..svc.cluster.local + ``` + * ScalarDL Ledger + ```console + kubectl run scalar-admin-pause --image=ghcr.io/scalar-labs/scalar-admin: --restart=Never -it -- -c pause -s _scalardl-admin._tcp.-headless..svc.cluster.local + ``` + * ScalarDL Auditor + ```console + kubectl run scalar-admin-pause --image=ghcr.io/scalar-labs/scalar-admin: --restart=Never -it -- -c pause -s _scalardl-auditor-admin._tcp.-headless..svc.cluster.local + ``` + +### 一時停止を解除する + +Kubernetes 環境の ScalarDB または ScalarDL ポッドに一時停止解除リクエストを送信できます。 + +* 例 + * ScalarDB Server + ```console + kubectl run scalar-admin-unpause --image=ghcr.io/scalar-labs/scalar-admin: --restart=Never -it -- -c unpause -s _scalardb._tcp.-headless..svc.cluster.local + ``` + * ScalarDL Ledger + ```console + kubectl run scalar-admin-unpause --image=ghcr.io/scalar-labs/scalar-admin: --restart=Never -it -- -c unpause -s _scalardl-admin._tcp.-headless..svc.cluster.local + ``` + * ScalarDL Auditor + ```console + kubectl run scalar-admin-unpause --image=ghcr.io/scalar-labs/scalar-admin: --restart=Never -it -- -c unpause -s _scalardl-auditor-admin._tcp.-headless..svc.cluster.local + ``` + +### `pause completed` 時刻と `unpause started` 時刻を確認する + +`scalar-admin` ポッドは、`pause completed` 時刻と `unpause started` 時刻を標準出力に出力します。 `kubectl logs` コマンドを実行すると、それらの時間を確認することもできます。 + +```console +kubectl logs scalar-admin-pause +``` +```console +kubectl logs scalar-admin-unpause +``` diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupRDB.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupRDB.mdx new file mode 100644 index 00000000..ed8398a7 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupRDB.mdx @@ -0,0 +1,20 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# Kubernetes 環境で RDB をバックアップする + +このガイドでは、ScalarDB または ScalarDL が Kubernetes 環境で使用する単一のリレーショナル データベース (RDB) のバックアップを作成する方法について説明します。 このガイドは、クラウド サービス プロバイダーの管理されたデータベースを使用していることを前提としていることに注意してください。 + +[Multi-storage Transactions](https://scalardb.scalar-labs.com/docs/latest/multi-storage-transactions/) または [Two-phase Commit Transactions](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions/) 機能が使用する RDB が 2 つ以上ある場合は、代わりに [Back up a NoSQL database in a Kubernetes environment](BackupNoSQL.mdx) の手順に従う必要があります。 + +## バックアップを実行する + +バックアップを実行するには、管理されたデータベースで使用できる自動バックアップ機能を有効にする必要があります。 この機能を有効にすると、追加のバックアップ操作を実行する必要がなくなります。 各管理データベースのバックアップ構成の詳細については、次のガイドを参照してください。 + +* [AWS での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) +* [Azure 上で ScalarDB/ScalarDL デプロイメント用のデータベースをセットアップする](SetupDatabaseForAzure.mdx) + +マネージド RDB はトランザクションの観点からバックアップ データの一貫性を保つため、マネージド RDB のポイント イン タイム リカバリ (PITR) 機能を使用して、バックアップ データを任意の時点に復元できます。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupRestoreGuide.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupRestoreGuide.mdx new file mode 100644 index 00000000..1fd1a5e3 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupRestoreGuide.mdx @@ -0,0 +1,47 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# Kubernetes 環境で ScalarDB または ScalarDL データをバックアップおよび復元する + +このガイドでは、Kubernetes 環境で ScalarDB または ScalarDL データをバックアップおよび復元する方法について説明します。 このガイドは、クラウド サービス プロバイダーのマネージド データベースを ScalarDB または ScalarDL のバックエンド データベースとして使用していることを前提としていることに注意してください。 以下は、このガイドで使用が想定されている管理データベースのリストです。 + +* NoSQL: トランザクションをサポートしません + * Amazon DynamoDB + * Azure Cosmos DB for NoSQL +* リレーショナルデータベース(RDB):トランザクションをサポート + * Amazon RDS + * MySQL + * Oracle + * PostgreSQL + * SQL Server + * Amazon Aurora + * MySQL + * PostgreSQL + * Azureデータベース + * MySQL + * PostgreSQL + +ScalarDB で使用されるデータベースをトランザクション的に一貫した方法でバックアップおよび復元する方法の詳細については、[A Guide on How to Backup and Restore Databases Used Through ScalarDB](https://scalardb.scalar-labs.com/docs/latest/backup-restore/) を参照してください。 + +## バックアップを実行する + +### 使用しているデータベースの種類とデータベースの数を確認します。 + +バックアップと復元の実行方法は、データベースの種類 (NoSQL または RDB) と使用しているデータベースの数によって異なります。 + +#### NoSQL または複数のデータベース + +NoSQL データベースを使用している場合、または [Multi-storage Transactions](https://scalardb.scalar-labs.com/docs/latest/multi-storage-transactions/) または [Two-phase Commit Transactions](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions/) 機能が使用するデータベースが 2 つ以上ある場合、詳細については [Kubernetes 環境で NoSQL データベースをバックアップする](BackupNoSQL.mdx) を参照してください。 バックアップの実行方法について。 + +#### 単一 RDB + +単一のRDBを使用している場合のバックアップ方法については、[Kubernetes環境でRDBをバックアップする](BackupRDB.mdx) を参照してください。 + +[Multi-storage Transactions](https://scalardb.scalar-labs.com/docs/latest/multi-storage-transactions/) または [Two-phase Commit Transactions](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions/) 機能が使用する RDB が 2 つ以上ある場合は、代わりに [Kubernetes 環境で NoSQL データベースをバックアップする](BackupNoSQL.mdx) の手順に従う必要があります。 + +## データベースを復元する + +管理されたデータベースからデータを復元する方法の詳細については、[Kubernetes 環境でのデータベースの復元](RestoreDatabase.mdx) を参照してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDB.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDB.mdx new file mode 100644 index 00000000..137eb72e --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDB.mdx @@ -0,0 +1,106 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium + - Deprecated +--- + +# ScalarDB Server 用の AKS クラスターを作成するためのガイドライン + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このドキュメントでは、ScalarDB Server デプロイ用の Azure Kubernetes Service (AKS) クラスターを作成するための要件と推奨事項について説明します。 ScalarDB Server を AKS クラスターにデプロイする方法の詳細については、[AKS に ScalarDB Server をデプロイする](ManualDeploymentGuideScalarDBServerOnAKS.mdx) を参照してください。 + +## あなたが始める前に + +次の要件、推奨事項、およびプロジェクトの要件に基づいて AKS クラスターを作成する必要があります。 AKS クラスターの作成方法の詳細については、環境で使用しているツールに基づいて、次の Microsoft 公式ドキュメントを参照してください。 + +* [Azure CLI](https://learn.microsoft.com/en-us/azure/aks/learn/quick-kubernetes-deploy-cli) +* [PowerShell](https://learn.microsoft.com/en-us/azure/aks/learn/quick-kubernetes-deploy-powershell) +* [Azure Portal](https://learn.microsoft.com/en-us/azure/aks/learn/quick-kubernetes-deploy-portal) + +## 要件 + +ScalarDB Server を展開するときは、次のことを行う必要があります。 + +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して AKS クラスターを作成します。 +* Kubernetes のバージョンとプロジェクトの要件に基づいて AKS クラスターを構成します。 + +## 推奨事項 (オプション) + +以下に、ScalarDB Server を展開するための推奨事項をいくつか示します。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 + +### 少なくとも 3 つのワーカーノードと 3 つのポッドを作成します + +AKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardb-custom-values.yaml) を参照できます。 + +:::note + +ワーカーノードを異なる [availability zones](https://learn.microsoft.com/en-us/azure/availability-zones/az-overview) (AZ) に配置すると、AZ の障害に耐えることができます。 + +::: + +### ScalarDB Server ノード プールのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します。 + +商用ライセンスの観点から、ScalarDB Server を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDB Server ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 + +* ScalarDB Server ポッド (2vCPU / 4GB) +* Envoy プロキシ +* アプリケーション ポッド (同じワーカーノード上でアプリケーションのポッドを実行することを選択した場合) +* 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) +* Kubernetes コンポーネント + +これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 + +ただし、運用環境では、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが最小条件となります。 また、システムのワークロードに応じて、AKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDB Server ポッド、アプリケーションのポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 + +### ScalarDB Server ポッドのノード プールを作成する + +AKS は、既定でシステム ポッド (AKS を実行し続けるために使用される) に優先される **agentpool** という名前のシステム ノード プールを 1 つ作成します。 ScalarDB Server ポッド用に **user** モードで別のノード プールを作成し、この追加のノード プールに ScalarDB Server ポッドをデプロイすることをお勧めします。 + +### AKS でクラスター オートスケーラーを構成する + +[Horizontal Pod Autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#horizontal-pod-autoscaler) を使用して ScalarDB Server ポッドを自動的にスケーリングする場合は、AKS でもクラスター オートスケーラーを構成する必要があります。 詳細については、Microsoft の公式ドキュメント [Cluster autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#cluster-autoscaler) を参照してください。 + +さらに、クラスター オートスケーラーを構成する場合は、AKS がスケーリング後にネットワークの問題なく動作できるように、十分な数の IP が存在することを確認するために、AKS の仮想ネットワーク (VNet) にサブネットを作成する必要があります。 必要な IP の数は、ネットワーク プラグインによって異なります。 必要な IP 数の詳細については、以下を参照してください。 + +* [Use kubenet networking with your own IP address ranges in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) +* [Configure Azure CNI networking in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) + +### プライベート ネットワーク上に AKS クラスターを作成する + +ScalarDB Server はインターネット アクセス経由でユーザーにサービスを直接提供しないため、プライベート ネットワーク (VNet のプライベート サブネット) 上に AKS クラスターを作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDB Server にアクセスすることをお勧めします。 + +### 必要に応じて、Azure CNI を使用して AKS クラスターを作成します。 + +AKS の既定のネットワーク プラグインは [kubenet](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) です。 要件が kubenet と一致しない場合は、[Azure Container Networking Interface (CNI)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) を使用する必要があります。 + +たとえば、1 つの AKS クラスターに複数の ScalarDB Server 環境をデプロイし (マルチテナントの ScalarDB Server をデプロイするなど)、[Kubernetes NetworkPolicies](https://kubernetes.io/docs/concepts/services-networking/network-policies/) を使用して各テナント間の接続を制御したい場合、kubenet は Calico Network のみをサポートします。 [Azure support team does not support](https://learn.microsoft.com/en-us/azure/aks/use-network-policies#differences-between-azure-network-policy-manager-and-calico-network-policy-and-their-capabilities) ポリシー。 Calico ネットワーク ポリシーは、Calico コミュニティまたは追加の有料サポートを通じてのみサポートされることに注意してください。 + +ただし、Azure サポート チームとエンジニアリング チームは Azure CNI をサポートします。 したがって、Kubernetes NetworkPolicies を使用して Azure サポート チームからサポートを受けたい場合は、Azure CNI を使用する必要があります。 kubenet と Azure CNI の違いの詳細については、次の Microsoft 公式ドキュメントを参照してください。 + +* [Network concepts for applications in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/concepts-network) +* [Use kubenet networking with your own IP address ranges in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) +* [Configure Azure CNI networking in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) + +### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する + +ScalarDB Server では未使用の接続を制限する必要があります。 未使用の接続を制限するには、[network security groups](https://learn.microsoft.com/en-us/azure/virtual-network/network-security-groups-overview) など、Azure のいくつかのセキュリティ機能を使用できます。 + +ScalarDB Server がデフォルトで使用する接続 (ポート) は次のとおりです。 + +* ScalarDB Server + * 60051/TCP (クライアントからのリクエストを受け付ける) + * 8080/TCP (監視リクエストを受け付ける) +* Scalar Envoy (ScalarDB Server とともに使用) + * 60051/TCP (ScalarDB Server の負荷分散) + * 9001/TCP (Scalar Envoy 自体の監視リクエストを受け入れます) + +:::note + +- 構成ファイル (`database.properties`) で ScalarDB Server のデフォルトのリスニング ポートを変更する場合は、構成したポートを使用して接続を許可する必要があります。 +- AKS 自体が使用する接続も許可する必要があります。 AKS トラフィック要件の詳細については、[Control egress traffic using Azure Firewall in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/limit-egress-traffic) を参照してください。 + +::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDL.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDL.mdx new file mode 100644 index 00000000..a02b1666 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDL.mdx @@ -0,0 +1,110 @@ +--- +--- + +# ScalarDL Ledger の AKS クラスターを作成するためのガイドライン + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このドキュメントでは、ScalarDL Ledger デプロイ用の Azure Kubernetes Service (AKS) クラスターを作成するための要件と推奨事項について説明します。 ScalarDL Ledger を AKS クラスターにデプロイする方法の詳細については、[AKS に ScalarDL Ledger をデプロイする](ManualDeploymentGuideScalarDLOnAKS.mdx) を参照してください。 + +## あなたが始める前に + +次の要件、推奨事項、およびプロジェクトの要件に基づいて AKS クラスターを作成する必要があります。 AKS クラスターの作成方法の詳細については、環境で使用しているツールに基づいて、次の Microsoft 公式ドキュメントを参照してください。 + +* [Azure CLI](https://learn.microsoft.com/en-us/azure/aks/learn/quick-kubernetes-deploy-cli) +* [PowerShell](https://learn.microsoft.com/en-us/azure/aks/learn/quick-kubernetes-deploy-powershell) +* [Azure portal](https://learn.microsoft.com/en-us/azure/aks/learn/quick-kubernetes-deploy-portal) + +## 要件 + +ScalarDL Ledger を展開するときは、次のことを行う必要があります。 + +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して AKS クラスターを作成します。 +* Kubernetes のバージョンとプロジェクトの要件に基づいて AKS クラスターを構成します。 + +:::warning + +ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger デプロイと同じ AKS クラスターにアプリケーション ポッドをデプロイしないでください。 + +::: + +## 推奨事項 (オプション) + +以下は、ScalarDL Ledger を展開するための推奨事項の一部です。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 + +### 少なくとも 3 つのワーカーノードと 3 つのポッドを作成します + +AKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml) を参照できます。 + +:::note + +ワーカーノードを異なる [availability zones](https://learn.microsoft.com/en-us/azure/availability-zones/az-overview) (AZ) に配置すると、AZ の障害に耐えることができます。 + +::: + +### ScalarDL Ledger ノード プールのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します + +商用ライセンスの観点から、ScalarDL Ledger を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDL Ledger ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 + +* ScalarDL Ledger ポッド (2vCPU / 4GB) +* Envoy プロキシ +* 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) +* Kubernetes コンポーネント + +これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 + +ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが運用環境の最小環境となります。 また、システムのワークロードに応じて、AKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッドなど) も考慮する必要があります。 さらに、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、 ワーカーノードのリソースを決定するときは、ワーカーノード上のポッドの最大数を考慮する必要があります。 + +### ScalarDL Ledger ポッドのノード プールを作成する + +AKS は、既定でシステム ポッド (AKS を実行し続けるために使用される) に優先される **agentpool** という名前のシステム ノード プールを 1 つ作成します。 ScalarDL Ledger ポッド用に **user** モードで別のノード プールを作成し、この追加のノード プールに ScalarDL Ledger ポッドをデプロイすることをお勧めします。 + +### AKS でクラスター オートスケーラーを構成する + +[Horizontal Pod Autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#horizontal-pod-autoscaler) を使用して ScalarDL Ledger ポッドを自動的にスケーリングする場合は、クラスターを構成する必要があります。 AKS のオートスケーラーも同様です。 詳細については、[Cluster autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#cluster-autoscaler) にある Microsoft の公式ドキュメントを参照してください。 + +さらに、クラスター オートスケーラーを構成する場合は、AKS がスケーリング後にネットワークの問題なく動作できるように、十分な数の IP が存在することを確認するために、AKS の仮想ネットワーク (VNet) にサブネットを作成する必要があります。 必要な IP の数は、ネットワーク プラグインによって異なります。 必要な IP 数の詳細については、以下を参照してください。 + +* [Use kubenet networking with your own IP address ranges in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) +* [Configure Azure CNI networking in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) + +### プライベート ネットワーク上に AKS クラスターを作成する + +ScalarDL Ledger はインターネット アクセス経由でユーザーにサービスを直接提供しないため、プライベート ネットワーク (VNet のプライベート サブネット) 上に AKS クラスターを作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDL Ledger にアクセスすることをお勧めします。 + +### 必要に応じて、Azure CNI を使用して AKS クラスターを作成します。 + +AKS の既定のネットワーク プラグインは [kubenet](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) です。 要件が kubenet と一致しない場合は、[Azure Container Networking Interface (CNI)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) を使用する必要があります。 + +たとえば、1 つの AKS クラスターに複数の ScalarDL Ledger 環境をデプロイし (マルチテナントの ScalarDL Ledger をデプロイするなど)、[Kubernetes NetworkPolicies](https://kubernetes.io/docs/concepts/services-networking/network-policies/) を使用して各テナント間の接続を制御する場合、kubenet は Calico ネットワーク ポリシーのみをサポートします。 [Azure サポート チームはサポートしていません](https://learn.microsoft.com/en-us/azure/aks/use-network-policies#differences-between-azure-network-policy-manager-and-calico-network-policy-and-their-capabilities)。 Calico ネットワーク ポリシーは、Calico コミュニティまたは追加の有料サポートを通じてのみサポートされることに注意してください。 + +ただし、Azure サポート チームとエンジニアリング チームは Azure CNI をサポートします。 したがって、Kubernetes NetworkPolicies を使用して Azure サポート チームからサポートを受けたい場合は、Azure CNI を使用する必要があります。 kubenet と Azure CNI の違いの詳細については、次の Microsoft 公式ドキュメントを参照してください。 + +* [Network concepts for applications in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/concepts-network) +* [Use kubenet networking with your own IP address ranges in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) +* [Configure Azure CNI networking in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) + +### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する + +ScalarDL Ledger では未使用の接続を制限する必要があります。 未使用の接続を制限するには、[ネットワーク セキュリティ グループ] など、Azure のいくつかのセキュリティ機能を使用できます。 + +ScalarDL Ledger がデフォルトで使用する接続 (ポート) は次のとおりです。 + +* ScalarDL Ledger + * 50051/TCP (クライアントからのリクエストを受け付ける) + * 50052/TCP (クライアントからの特権リクエストを受け入れます) + * 50053/TCP (scalar-admin クライアント ツールからの一時停止および一時停止解除リクエストを受け入れます) + * 8080/TCP (監視リクエストを受け付ける) +* Scalar Envoy (ScalarDL Ledger とともに使用) + * 50051/TCP (ScalarDL Ledger の負荷分散) + * 50052/TCP (ScalarDL Ledger の負荷分散) + * 9001/TCP (Scalar Envoy 自体の監視リクエストを受け入れます) + +:::note + +- 設定ファイル (`ledger.properties`) で ScalarDL Ledger のデフォルトのリスニング ポートを変更する場合は、設定したポートを使用して接続を許可する必要があります。 +- AKS 自体が使用する接続も許可する必要があります。 AKS トラフィック要件の詳細については、[Azure Kubernetes Service (AKS) の Azure Firewall を使用した下りトラフィックの制御](https://learn.microsoft.com/en-us/azure/aks/limit-egress-traffic) を参照してください。 + +::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDLAuditor.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDLAuditor.mdx new file mode 100644 index 00000000..dac34d89 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDLAuditor.mdx @@ -0,0 +1,129 @@ +--- +--- + +# ScalarDL Ledger および ScalarDL Auditor 用の AKS クラスターを作成するためのガイドライン + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このドキュメントでは、ScalarDL Ledger および ScalarDL Auditor のデプロイ用の Azure Kubernetes Service (AKS) クラスターを作成するための要件と推奨事項について説明します。 AKS クラスターに ScalarDL Ledger と ScalarDL Auditor をデプロイする方法の詳細については、[AKS に ScalarDL Ledger と ScalarDL Auditor をデプロイする](ManualDeploymentGuideScalarDLAuditorOnAKS.mdx) を参照してください。 + +## あなたが始める前に + +次の要件、推奨事項、およびプロジェクトの要件に基づいて AKS クラスターを作成する必要があります。 AKS クラスターの作成方法の詳細については、環境で使用しているツールに基づいて、次の Microsoft 公式ドキュメントを参照してください。 + +* [Azure CLI](https://learn.microsoft.com/ja-jp/azure/aks/learn/quick-kubernetes-deploy-cli) +* [PowerShell](https://learn.microsoft.com/ja-jp/azure/aks/learn/quick-kubernetes-deploy-powershell) +* [Azure portal](https://learn.microsoft.com/ja-jp/azure/aks/learn/quick-kubernetes-deploy-portal) + +## 要件 + +ScalarDL Ledger と ScalarDL Auditor を展開する場合は、次のことを行う必要があります。 + +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して 2 つの AKS クラスターを作成します。 + * ScalarDL Ledger 用の 1 つの AKS クラスター + * ScalarDL Auditor 用の 1 つの AKS クラスター +* Kubernetes のバージョンとプロジェクトの要件に基づいて AKS クラスターを構成します。 + * 仮想ネットワーク(VNet) は以下のように設定します。 + * [Virtual network peering](https://learn.microsoft.com/en-us/azure/virtual-network/virtual-network-manage-peering) を使用して、**AKS の VNet (Ledger 用)** と **AKS の VNet (Auditor 用)** を接続します。 これを行うには、VNet の作成時に **AKS の VNet (Ledger 用)** と **AKS の VNet (Auditor 用)** に異なる IP 範囲を指定する必要があります。 + * ScalarDL (Auditor モード) が適切に動作するように **Ledger と Auditor 間の接続**を許可します。 + * これらのネットワーク要件の詳細については、[ScalarDL Auditor Mode のネットワーク ピアリングの構成](NetworkPeeringForScalarDLAuditor.mdx) を参照してください。 + +:::warning + +ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger および ScalarDL Auditor のデプロイと同じ AKS クラスターにアプリケーション ポッドをデプロイしないでください。 + +::: + +## 推奨事項 (オプション) + +以下は、ScalarDL Ledger および ScalarDL Auditor を展開するための推奨事項の一部です。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 + +### AKS クラスターごとに少なくとも 3 つのワーカーノードと 3 つのポッドを作成します。 + +AKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 ワーカーノードに3つのPodを分散させるための `podAntiAffinity` の [ScalarDL Ledgerサンプル設定](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml) と [ScalarDL Auditorサンプル設定](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-audit-custom-values.yaml) をご覧ください。 + +:::note + +ワーカーノードを異なる [アベイラビリティ ゾーン](https://learn.microsoft.com/en-us/azure/availability-zones/az-overview) (AZ) に配置すると、AZ の障害に耐えることができます。 + +::: + +### ScalarDL Ledger および ScalarDL Auditor ノード プールのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します。 + +商用ライセンスの観点から、ScalarDL Ledger または ScalarDL Auditor を実行する各ポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDL Ledger および ScalarDL Auditor ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 + +* ScalarDL Ledger の AKS クラスター + * ScalarDL Ledger ポッド (2vCPU / 4GB) + * Envoy プロキシ + * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) + * Kubernetes コンポーネント +* ScalarDL Auditor 用の AKS クラスター + * ScalarDL Auditor ポッド (2vCPU / 4GB) + * Envoy プロキシ + * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) + * Kubernetes コンポーネント + +これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods-per-aks-cluster) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 また、ビザンチン障害検出が適切に機能するには、ScalarDL Ledger および ScalarDL Auditor のデプロイと同じ AKS クラスターにアプリケーション ポッドをデプロイできないことに注意してください。 + +ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが運用環境の最小環境となります。 また、システムのワークロードに応じて、AKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッド、ScalarDL Auditor ポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 + +### ScalarDL Ledger および ScalarDL Auditor ポッドのノード プールを作成する + +AKS は、既定でシステム ポッド (AKS を実行し続けるために使用される) に優先される **agentpool** という名前のシステム ノード プールを 1 つ作成します。 ScalarDL Ledger および ScalarDL Auditor ポッド用に **user** モードで追加のノード プールを作成し、それらの追加のノード プールに ScalarDL Ledger および ScalarDL Auditor ポッドをデプロイすることをお勧めします。 + +### AKS でクラスター オートスケーラーを構成する + +[Horizontal Pod Autoscaler)](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#horizontal-pod-autoscaler) を使用して ScalarDL Ledger および ScalarDL Auditor ポッドを自動的にスケーリングする場合は、AKS でもクラスター オートスケーラーを構成する必要があります。 詳細については、Microsoft の公式ドキュメント [Cluster autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#cluster-autoscaler) を参照してください。 + +さらに、クラスター オートスケーラーを構成する場合は、AKS がスケーリング後にネットワークの問題なく動作できるように、十分な数の IP が存在することを確認するために AKS 用の VNet にサブネットを作成する必要があります。 必要な IP の数は、ネットワーク プラグインによって異なります。 必要な IP 数の詳細については、以下を参照してください。 + +* [Use kubenet networking with your own IP address ranges in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) +* [Configure Azure CNI networking in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) + +### プライベート ネットワーク上に AKS クラスターを作成する + +ScalarDL Ledger と ScalarDL Auditor はインターネット アクセス経由でユーザーに直接サービスを提供しないため、プライベート ネットワーク (VNet のプライベート サブネット) 上に AKS クラスターを作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDL Ledger および ScalarDL Auditor にアクセスすることをお勧めします。 + +### 必要に応じて、Azure CNI を使用して AKS クラスターを作成します。 + +AKS の既定のネットワーク プラグインは [kubenet](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) です。 要件が kubenet と一致しない場合は、[Azure Container Networking Interface (CNI)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) を使用する必要があります。 + +たとえば、複数の ScalarDL Ledger 環境と ScalarDL Auditor 環境を 2 つの AKS クラスターではなく 1 つの AKS クラスターのみにデプロイし (マルチテナントの ScalarDL をデプロイするなど)、[Kubernetes NetworkPolicies](https://kubernetes.io/docs/concepts/services-networking/network-policies/) を使用して各テナント間の接続を制御する場合、kubenet は Calico ネットワーク ポリシーのみ。[Azure サポート チームはサポートしていません](https://learn.microsoft.com/en-us/azure/aks/use-network-policies#differences-between-azure-network-policy-manager-and-calico-network-policy-and-their-capabilities)。 Calico ネットワーク ポリシーは、Calico コミュニティまたは追加の有料サポートを通じてのみサポートされることに注意してください。 + +ただし、Azure サポート チームとエンジニアリング チームは Azure CNI をサポートします。 したがって、Kubernetes NetworkPolicies を使用して Azure サポート チームからサポートを受けたい場合は、Azure CNI を使用する必要があります。 kubenet と Azure CNI の違いの詳細については、次の Microsoft 公式ドキュメントを参照してください。 + +* [Network concepts for applications in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/concepts-network) +* [Use kubenet networking with your own IP address ranges in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) +* [Configure Azure CNI networking in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) + +### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する + +ScalarDL および ScalarDL Auditor では、未使用の接続を制限する必要があります。 未使用の接続を制限するには、[network security groups](https://learn.microsoft.com/en-us/azure/virtual-network/network-security-groups-overview) などの Azure のセキュリティ機能を使用できます。 + +ScalarDL Ledger および ScalarDL Auditor がデフォルトで使用する接続 (ポート) は次のとおりです。 + +* ScalarDL Ledger + * 50051/TCP (クライアントおよび ScalarDL Auditor からのリクエストを受け入れる) + * 50052/TCP (クライアントおよび ScalarDL Auditor からの特権リクエストを受け入れます) + * 50053/TCP (scalar-admin クライアント ツールからの一時停止/一時停止解除リクエストを受け入れます) + * 8080/TCP (監視リクエストを受け付ける) +* ScalarDL Auditor + * 40051/TCP (クライアントからのリクエストを受け付ける) + * 40052/TCP (クライアントからの特権リクエストを受け入れます) + * 40053/TCP (scalar-admin クライアント ツールからの一時停止および一時停止解除リクエストを受け入れます) + * 8080/TCP (監視リクエストを受け付ける) +* Scalar Envoy (ScalarDL Ledger および ScalarDL Auditor とともに使用) + * 50051/TCP (ScalarDL Ledger の負荷分散) + * 50052/TCP (ScalarDL Ledger の負荷分散) + * 40051/TCP (ScalarDL Auditor の負荷分散) + * 40052/TCP (ScalarDL Auditor の負荷分散) + * 9001/TCP (Scalar Envoy 自体の監視リクエストを受け入れます) + +:::note + +- 設定ファイル (それぞれ `ledger.properties` と `auditor.properties`) で ScalarDL Ledger と ScalarDL Auditor のデフォルトのリスニング ポートを変更する場合は、設定したポートを使用して接続を許可する必要があります。 +- AKS 自体が使用する接続も許可する必要があります。 AKS トラフィック要件の詳細については、[Control egress traffic using Azure Firewall in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/limit-egress-traffic) を参照してください。 + +::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx new file mode 100644 index 00000000..88a10073 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx @@ -0,0 +1,23 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# Scalar 製品用の AKS クラスターを作成するためのガイドライン + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +Scalar 製品用の Azure Kubernetes Service (AKS) クラスターを作成するには、次を参照してください。 + +* [ScalarDB Server 用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarDB.mdx) +* [ScalarDL Ledger 用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarDL.mdx) +* [ScalarDL Ledger および ScalarDL Auditor 用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarDLAuditor.mdx) + +Scalar 製品を AKS にデプロイするには、次を参照してください。 + +* [AKS に ScalarDB Server をデプロイする](ManualDeploymentGuideScalarDBServerOnAKS.mdx) +* [AKS に ScalarDL Ledger をデプロイする](ManualDeploymentGuideScalarDLOnAKS.mdx) +* [ScalarDL Ledger と ScalarDL Auditor を AKS にデプロイする](ManualDeploymentGuideScalarDLAuditorOnAKS.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateBastionServer.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateBastionServer.mdx new file mode 100644 index 00000000..bd4d91c7 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateBastionServer.mdx @@ -0,0 +1,50 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# 要塞サーバーを作成する + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このドキュメントでは、要塞サーバーを作成し、Scalar 製品を展開するためのいくつかのツールをインストールする方法について説明します。 + +## Kubernetes クラスターと同じプライベート ネットワーク上にサーバーを作成します + +Scalar 製品用の Kubernetes クラスターはプライベート ネットワーク上に作成することをお勧めします。 プライベート ネットワーク上に Kubernetes クラスターを作成する場合は、Kubernetes クラスターにアクセスするために、同じプライベート ネットワーク上に要塞サーバーを作成する必要があります。 + +## ツールをインストールする + +公式ドキュメントに従って、次のツールを要塞サーバーにインストールしてください。 + +* [kubectl](https://kubernetes.io/docs/tasks/tools/#kubectl) +* [helm](https://helm.sh/docs/intro/install/) + +## kubeconfig の構成 + +kubectl コマンドをインストールした後、Kubernetes クラスターにアクセスできるように **kubeconfig** を構成する必要があります。 各マネージド Kubernetes での kubeconfig の設定方法の詳細については、次の公式ドキュメントを参照してください。 + +Amazon EKS (Amazon Elastic Kubernetes Service) を使用する場合は、公式ドキュメント [Installing or updating the latest version of the AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html) に従って **AWS CLI** をインストールする必要があります。 その後、[Creating or updating a kubeconfig file for an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-kubeconfig.html) で kubeconfig を設定する方法を確認できます。 + +AKS (Azure Kubernetes Service) を使用する場合は、公式ドキュメント [How to install the Azure CLI](https://learn.microsoft.com/en-us/cli/azure/install-azure-cli) に従って **Azure CLI** をインストールする必要があります。 その後、[az aks get-credentials](https://learn.microsoft.com/en-us/cli/azure/aks?view=azure-cli-latest#az-aks-get-credentials) で kubeconfig を構成する方法を確認できます。 + +## インストールを確認する + +ツールがインストールされているかどうかは、次のようにして確認できます。 + +* kubectl + ```console + kubectl version --client + ``` +* helm + ```console + helm version + ``` + +次のように、kubeconfig が適切に構成されているかどうかを確認することもできます。 URL 応答が表示された場合、kubectl はクラスターにアクセスするように正しく構成されています。 +```console +kubectl cluster-info +``` diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDB.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDB.mdx new file mode 100644 index 00000000..64927fe0 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDB.mdx @@ -0,0 +1,89 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium + - Deprecated +--- + +# (非推奨) ScalarDB Server 用の EKS クラスターを作成するためのガイドライン + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +:::warning + +ScalarDB Server は非推奨になりました。 代わりに [ScalarDB Cluster](ManualDeploymentGuideScalarDBClusterOnEKS.mdx) を使用してください。 + +::: + +このドキュメントでは、ScalarDB Server デプロイメント用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するための要件と推奨事項について説明します。 ScalarDB Server を EKS クラスターにデプロイする方法の詳細については、[ScalarDB Server を Amazon EKS にデプロイする](ManualDeploymentGuideScalarDBServerOnEKS.mdx)を参照してください。 + +## あなたが始める前に + +EKS クラスターは、次の要件、推奨事項、およびプロジェクトの要件に基づいて作成する必要があります。 EKS クラスターの作成方法の詳細については、Amazon の公式ドキュメント [Creating an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html) を参照してください。 + +## 要件 + +ScalarDB Server を展開するときは、次のことを行う必要があります。 + +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して EKS クラスターを作成します。 +* Kubernetes のバージョンとプロジェクトの要件に基づいて EKS クラスターを構成します。 + +## 推奨事項 (オプション) + +以下に、ScalarDB Server を展開するための推奨事項をいくつか示します。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 + +### 少なくとも 3 つのワーカーノードと 3 つのポッドを作成します + +EKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardb-custom-values.yaml) を参照できます。 + +:::note + +ワーカーノードを異なる [availability zones](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-regions-availability-zones.html) (AZ) に配置すると、AZ の障害に耐えることができます。 + +::: + +### ScalarDB Server ノード グループのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します。 + +商用ライセンスの観点から、ScalarDB Server を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDB Server ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 + +* ScalarDB Server ポッド (2vCPU / 4GB) +* Envoy プロキシ +* アプリケーション ポッド (同じワーカーノード上でアプリケーションのポッドを実行することを選択した場合) +* 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) +* Kubernetes コンポーネント + +これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 + +ただし、運用環境では、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが最小条件となります。 システムのワークロードに応じて、EKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDB Server ポッド、アプリケーションのポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 + +### EKS でクラスター オートスケーラーを構成する + +[Horizontal Pod Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html) を使用して ScalarDB Server ポッドを自動的にスケーリングする場合は、EKS でクラスター オートスケーラーも構成する必要があります。 詳細については、Amazon の公式ドキュメント [Autoscaling](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler) を参照してください。 + +さらに、クラスター オートスケーラーを構成する場合は、プレフィックス (`/24` など) を付けて EKS 用の Amazon Virtual Private Cloud (VPC) にサブネットを作成し、十分な数の IP が存在することを確認して、EKS がクラスター オートスケーラーなしで動作できるようにする必要があります。 スケーリング後のネットワークの問題。 + +### プライベート ネットワーク上に EKS クラスターを作成する + +ScalarDB Server はインターネット アクセス経由でユーザーにサービスを直接提供しないため、プライベート ネットワーク (VPC 内のプライベート サブネット) 上に EKS クラスターを作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDB Server にアクセスすることをお勧めします。 + +### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する + +ScalarDB Server では未使用の接続を制限する必要があります。 未使用の接続を制限するには、[security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) や [network access control lists](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html) など、AWS のいくつかのセキュリティ機能を使用できます。 + +ScalarDB Server がデフォルトで使用する接続 (ポート) は次のとおりです。 + +* ScalarDB Server + * 60051/TCP (クライアントからのリクエストを受け付ける) + * 8080/TCP (監視リクエストを受け付ける) +* Scalar Envoy (ScalarDB Server とともに使用) + * 60051/TCP (ScalarDB Server の負荷分散) + * 9001/TCP (Scalar Envoy 自体の監視リクエストを受け入れます) + +:::note + +- 構成ファイル (`database.properties`) で ScalarDB Server のデフォルトのリスニング ポートを変更する場合は、構成したポートを使用して接続を許可する必要があります。 +- EKS 自体が使用する接続も許可する必要があります。 Amazon EKS セキュリティグループの要件の詳細については、[Amazon EKS security group requirements and considerations](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html) を参照してください。 + +::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDBCluster.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDBCluster.mdx new file mode 100644 index 00000000..66f32e34 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDBCluster.mdx @@ -0,0 +1,89 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# ScalarDB Cluster 用の EKS クラスターを作成するためのガイドライン + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このドキュメントでは、ScalarDB Cluster 展開用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するための要件と推奨事項について説明します。 ScalarDB Cluster を EKS クラスターにデプロイする方法の詳細については、[Amazon EKS に ScalarDB Cluster をデプロイする](ManualDeploymentGuideScalarDBClusterOnEKS.mdx) を参照してください。 + +## あなたが始める前に + +EKS クラスターは、次の要件、推奨事項、およびプロジェクトの要件に基づいて作成する必要があります。 EKS クラスターの作成方法の詳細については、Amazon の公式ドキュメント [Creating an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html) を参照してください。 + +## 要件 + +ScalarDB Cluster をデプロイする場合は、次のことを行う必要があります。 + +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して EKS クラスターを作成します。 +* Kubernetes のバージョンとプロジェクトの要件に基づいて EKS クラスターを構成します。 + +## 推奨事項 (オプション) + +以下は、ScalarDB Cluster をデプロイするための推奨事項の一部です。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 + +### 少なくとも 3 つのワーカーノードと 3 つのポッドを作成します + +EKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardb-cluster-custom-values-indirect-mode.yaml) を参照できます。 + +:::note + +ワーカーノードを異なる [availability zones](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-regions-availability-zones.html) (AZ) に配置すると、AZ の障害に耐えることができます。 + +::: + +### ScalarDB Cluster ノード グループのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します。 + +商用ライセンスの観点から、ScalarDB Cluster を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDB Cluster ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 + +* ScalarDB Cluster ポッド (2vCPU / 4GB) +* Envoy プロキシ (`indirect` クライアント モードを使用する場合、または Java 以外のプログラミング言語を使用する場合) +* アプリケーション ポッド (同じワーカーノード上でアプリケーションのポッドを実行することを選択した場合) +* 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) +* Kubernetes コンポーネント + +:::note + +`direct-kubernetes` モードを使用する場合は、Envoy ポッドをデプロイする必要はありません。 + +::: + +これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 + +ただし、運用環境では、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが最小条件となります。 システムのワークロードに応じて、EKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDB Cluster ポッド、アプリケーションのポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 + +### EKS でクラスター オートスケーラーを構成する + +[Horizontal Pod Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html) を使用して ScalarDB Cluster ポッドを自動的にスケーリングする場合は、EKS でもクラスター オートスケーラーを構成する必要があります。 詳細については、Amazon の公式ドキュメント [Autoscaling](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler) を参照してください。 + +さらに、クラスター オートスケーラーを構成する場合は、プレフィックス (`/24` など) を付けて EKS 用の Amazon Virtual Private Cloud (VPC) にサブネットを作成し、十分な数の IP が存在することを確認して、EKS がクラスター オートスケーラーなしで動作できるようにする必要があります。 スケーリング後のネットワークの問題。 + +### プライベート ネットワーク上に EKS クラスターを作成する + +ScalarDB Cluster はインターネット アクセス経由でユーザーにサービスを直接提供しないため、EKS クラスターはプライベート ネットワーク (VPC 内のプライベート サブネット) 上に作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDB Cluster にアクセスすることをお勧めします。 + +### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する + +ScalarDB Cluster で未使用の接続を制限する必要があります。 未使用の接続を制限するには、[security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) や [network access control lists](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html) など、AWS のいくつかのセキュリティ機能を使用できます。 + +ScalarDB Cluster がデフォルトで使用する接続 (ポート) は次のとおりです。 + +* ScalarDB Cluster + * 60053/TCP (クライアントからの gRPC または SQL リクエストを受け入れます) + * 8080/TCP (クライアントからの GraphQL リクエストを受け入れます) + * 9080/TCP (監視リクエストを受け付ける) +* Scalar Envoy (ScalarDB Cluster の `間接` モードで使用) + * 60053/TCP (ScalarDB Cluster の負荷分散) + * 9001/TCP (Scalar Envoy 自体の監視リクエストを受け入れます) + +:::note + +- 構成ファイル (`scalardb-cluster-node.properties`) で ScalarDB Clusterのデフォルトのリスニング ポートを変更する場合は、構成したポートを使用して接続を許可する必要があります。 +- EKS 自体が使用する接続も許可する必要があります。 Amazon EKS セキュリティグループの要件の詳細については、[Amazon EKS security group requirements and considerations](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html) を参照してください。 + +::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDL.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDL.mdx new file mode 100644 index 00000000..c244507f --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDL.mdx @@ -0,0 +1,87 @@ +--- +--- + +# ScalarDL Ledger の EKS クラスターを作成するためのガイドライン + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このドキュメントでは、ScalarDL Ledger デプロイ用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するための要件と推奨事項について説明します。 ScalarDL Ledger を EKS クラスターにデプロイする方法の詳細については、[ScalarDL Ledger を Amazon EKS にデプロイする](ManualDeploymentGuideScalarDLOnEKS.mdx)を参照してください。 + +## あなたが始める前に + +EKS クラスターは、次の要件、推奨事項、およびプロジェクトの要件に基づいて作成する必要があります。 EKS クラスターの作成方法の詳細については、Amazon の公式ドキュメント [Creating an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html) を参照してください。 + +## 要件 + +ScalarDL Ledger を展開するときは、次のことを行う必要があります。 + +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して EKS クラスターを作成します。 +* Kubernetes のバージョンとプロジェクトの要件に基づいて EKS クラスターを構成します。 + +:::warning + +ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger デプロイメントと同じ EKS クラスターにアプリケーション ポッドをデプロイしないでください。 + +::: + +## 推奨事項 (オプション) + +以下は、ScalarDL Ledger を展開するための推奨事項の一部です。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 + +### 少なくとも 3 つのワーカーノードと 3 つのポッドを作成します + +EKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml) を参照できます。 + +:::note + +ワーカーノードを異なる [availability zones](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-regions-availability-zones.html) (AZ) に配置すると、AZ の障害に耐えることができます。 + +::: + +### ScalarDL Ledger ノード グループのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します + +商用ライセンスの観点から、ScalarDL Ledger を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDL Ledger ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 + +* ScalarDL Ledger ポッド (2vCPU / 4GB) +* Envoy プロキシ +* 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) +* Kubernetes コンポーネント + +これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 + +ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが運用環境の最小環境となります。 システムのワークロードに応じて、EKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 + +### EKS でクラスター オートスケーラーを構成する + +[Horizontal Pod Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html) を使用して ScalarDL Ledger ポッドを自動的にスケーリングする場合は、EKS でクラスター オートスケーラーも構成する必要があります。 詳細については、Amazon の公式ドキュメント [Autoscaling](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler) を参照してください。 + +さらに、クラスター オートスケーラーを構成する場合は、プレフィックス (`/24`など) を付けて EKS 用の Amazon Virtual Private Cloud (VPC) にサブネットを作成し、十分な数の IP が存在することを確認して、EKS がクラスター オートスケーラーなしで動作できるようにする必要があります。 スケーリング後のネットワークの問題。 + +### プライベート ネットワーク上に EKS クラスターを作成する + +ScalarDL Ledger はインターネット アクセス経由でユーザーにサービスを直接提供しないため、プライベート ネットワーク (VPC 内のプライベート サブネット) 上に EKS クラスターを作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDL Ledger にアクセスすることをお勧めします。 + +### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する + +ScalarDL Ledger では未使用の接続を制限する必要があります。 未使用の接続を制限するには、[security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) や [network access control lists](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html) など、AWS のいくつかのセキュリティ機能を使用できます。 + +ScalarDL Ledger がデフォルトで使用する接続 (ポート) は次のとおりです。 + +* ScalarDL Ledger + * 50051/TCP (クライアントからのリクエストを受け付ける) + * 50052/TCP (クライアントからの特権リクエストを受け入れます) + * 50053/TCP (scalar-admin クライアント ツールからの一時停止および一時停止解除リクエストを受け入れます) + * 8080/TCP (監視リクエストを受け付ける) +* Scalar Envoy (ScalarDL Ledger とともに使用) + * 50051/TCP (ScalarDL Ledger の負荷分散) + * 50052/TCP (ScalarDL Ledger の負荷分散) + * 9001/TCP (Scalar Envoy 自体の監視リクエストを受け入れます) + +:::note + +- 設定ファイル (`ledger.properties`) で ScalarDL Ledger のデフォルトのリスニング ポートを変更する場合は、設定したポートを使用して接続を許可する必要があります。 +- EKS 自体が使用する接続も許可する必要があります。 Amazon EKS セキュリティグループの要件の詳細については、[Amazon EKS security group requirements and considerations](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html) を参照してください。 + +::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDLAuditor.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDLAuditor.mdx new file mode 100644 index 00000000..4c86194a --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDLAuditor.mdx @@ -0,0 +1,106 @@ +--- +--- + +# ScalarDL Ledger および ScalarDL Auditor 用の EKS クラスターを作成するためのガイドライン + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このドキュメントでは、ScalarDL Ledger および ScalarDL Auditor のデプロイ用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するための要件と推奨事項について説明します。 ScalarDL Ledger と ScalarDL Auditor を EKS クラスターにデプロイする方法の詳細については、[ScalarDL Ledger と ScalarDL Auditor を Amazon EKS にデプロイする](ManualDeploymentGuideScalarDLAuditorOnEKS.mdx) を参照してください。 + +## あなたが始める前に + +EKS クラスターは、次の要件、推奨事項、およびプロジェクトの要件に基づいて作成する必要があります。 EKS クラスターの作成方法の詳細については、Amazon の公式ドキュメント [Creating an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html) を参照してください。 + +## 要件 + +ScalarDL Ledger と ScalarDL Auditor を展開する場合は、次のことを行う必要があります。 + +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して 2 つの EKS クラスターを作成します。 + * ScalarDL Ledger 用の 1 つの EKS クラスター + * ScalarDL Auditor 用の 1 つの EKS クラスター +* Kubernetes のバージョンとプロジェクトの要件に基づいて EKS クラスターを構成します。 + ※ Amazon Virtual Private Cloud (VPC) は次のように設定します。 + * **EKS の VPC (Ledger 用)** と **EKS の VPC (Auditor 用)** を [VPC peering](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html) を使用して接続します。 これを行うには、VPC の作成時に **EKS の VPC (Ledger 用)** と **EKS の VPC (Auditor 用)** に異なる IP 範囲を指定する必要があります。 + * ScalarDL (Auditor モード) が適切に動作するように **Ledger と Auditor 間の接続**を許可します。 + * これらのネットワーク要件の詳細については、[ScalarDL Auditor Mode のネットワーク ピアリングの構成](NetworkPeeringForScalarDLAuditor.mdx) を参照してください。 + +:::warning + +ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger および ScalarDL Auditor のデプロイメントと同じ EKS クラスターにアプリケーション ポッドをデプロイしないでください。 + +::: + +## 推奨事項 (オプション) + +以下は、ScalarDL Ledger および ScalarDL Auditor を展開するための推奨事項の一部です。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 + +### EKS クラスターごとに少なくとも 3 つのワーカーノードと 3 つのポッドを作成します + +EKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つの Pod をワーカーノードに分散させるための `podAntiAffinity` の [ScalarDL Ledger サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml) と [ScalarDL Auditor サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-audit-custom-values.yaml) を参照できます。 + +:::note + +ワーカーノードを異なる [availability zones](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-regions-availability-zones.html) (AZ) に配置すると、AZ の障害に耐えることができます。 + +::: + +### ScalarDL Ledger および ScalarDL Auditor ノード グループのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します。 + +商用ライセンスの観点から、ScalarDL Ledger または ScalarDL Auditor を実行する各ポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDL Ledger および ScalarDL Auditor ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 + +* ScalarDL Ledger 用の EKS クラスター + * ScalarDL Ledger ポッド (2vCPU / 4GB) + * Envoy プロキシ + * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) + * Kubernetes コンポーネント +* ScalarDL Auditor 用の EKS クラスター + * ScalarDL Auditor ポッド (2vCPU / 4GB) + * Envoy プロキシ + * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) + * Kubernetes コンポーネント + +これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods-per-eks-cluster) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 また、ビザンチン障害検出が適切に機能するには、ScalarDL Ledger および ScalarDL Auditor のデプロイメントと同じ EKS クラスターにアプリケーション ポッドをデプロイできないことを覚えておいてください。 + +ただし、実稼働環境としては、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを持つ 3 つのノードが必要です。 システムのワークロードに応じて、EKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッド、ScalarDL Auditor ポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 + +### EKS でクラスター オートスケーラーを構成する + +[Horizontal Pod Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html) を使用して ScalarDL Ledger または ScalarDL Auditor ポッドを自動的にスケーリングする場合は、EKS でクラスター オートスケーラーも構成する必要があります。 詳細については、Amazon の公式ドキュメント [Autoscaling](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler) を参照してください。 + +さらに、クラスター オートスケーラーを構成する場合は、スケーリング後にネットワークの問題なく EKS が動作できるように、十分な数の IP が存在することを確認するために、プレフィックス (`/24` など) を付けて EKS 用の VPC にサブネットを作成する必要があります。 + +### プライベート ネットワーク上に EKS クラスターを作成する + +ScalarDL Ledger と ScalarDL Auditor はインターネット アクセス経由でユーザーに直接サービスを提供しないため、プライベート ネットワーク (VPC 内のプライベート サブネット) 上に EKS クラスターを作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDL Ledger および ScalarDL Auditor にアクセスすることをお勧めします。 + +### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する + +ScalarDL Ledger および ScalarDL Auditor で未使用の接続を制限する必要があります。 未使用の接続を制限するには、[security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) や [network access control lists](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html) など、AWS のいくつかのセキュリティ機能を使用できます。 + +ScalarDL Ledger および ScalarDL Auditor がデフォルトで使用する接続 (ポート) は次のとおりです。 + +* ScalarDL Ledger + * 50051/TCP (クライアントおよび ScalarDL Auditor からのリクエストを受け入れる) + * 50052/TCP (クライアントおよび ScalarDL Auditor からの特権リクエストを受け入れます) + * 50053/TCP (scalar-admin クライアント ツールからの一時停止および一時停止解除リクエストを受け入れます) + * 8080/TCP (監視リクエストを受け付ける) +* ScalarDL Auditor + * 40051/TCP (クライアントからのリクエストを受け付ける) + * 40052/TCP (クライアントからの特権リクエストを受け入れます) + * 40053/TCP (scalar-admin クライアント ツールからの一時停止および一時停止解除リクエストを受け入れます) + * 8080/TCP (監視リクエストを受け付ける) +* Scalar Envoy (ScalarDL Ledger および ScalarDL Auditor とともに使用) + * 50051/TCP (ScalarDL Ledger の負荷分散) + * 50052/TCP (ScalarDL Ledger の負荷分散) + * 40051/TCP (ScalarDL Auditor の負荷分散) + * 40052/TCP (ScalarDL Auditor の負荷分散) + * 9001/TCP (Scalar Envoy 自体の監視リクエストを受け入れます) + +:::note + +- 設定ファイル (それぞれ `ledger.properties` と `auditor.properties`) で ScalarDL Ledger と ScalarDL Auditor のデフォルトのリスニング ポートを変更する場合は、設定したポートを使用して接続を許可する必要があります。 +- EKS 自体が使用する接続も許可する必要があります。 Amazon EKS セキュリティグループの要件の詳細については、[Amazon EKS security group requirements and considerations](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html) を参照してください。 + +::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx new file mode 100644 index 00000000..2568646a --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx @@ -0,0 +1,24 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +Scalar 製品用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するには、以下を参照してください。 + +* [ScalarDB Cluster 用の EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarDBCluster.mdx) +* [(非推奨) ScalarDB Server 用の EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarDB.mdx) +* [ScalarDL Ledger 用の EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarDL.mdx) +* [ScalarDL Ledger および ScalarDL Auditor 用の EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarDLAuditor.mdx) + +Scalar 製品を Amazon EKS にデプロイするには、以下を参照してください。 + +* [ScalarDB Server を Amazon EKS (Amazon Elastic Kubernetes Service) にデプロイする](ManualDeploymentGuideScalarDBServerOnEKS.mdx) +* [ScalarDL Ledger を Amazon EKS (Amazon Elastic Kubernetes Service) にデプロイする](ManualDeploymentGuideScalarDLOnEKS.mdx) +* [ScalarDL Ledger と ScalarDL Auditor を Amazon EKS (Amazon Elastic Kubernetes Service) にデプロイする](ManualDeploymentGuideScalarDLAuditorOnEKS.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx new file mode 100644 index 00000000..8f60e768 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx @@ -0,0 +1,150 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# Scalar 製品で TLS 接続に利用する秘密鍵と証明書ファイルを作成する方法 + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このガイドでは、ScalarDB Cluster および ScalarDL で TLS 接続に利用する秘密鍵と証明書ファイルを作成する方法について説明します。TLS 機能を有効にする場合は、秘密鍵と証明書ファイルを準備する必要があります。 + +## 証明書の要件 + +* 秘密鍵と証明書ファイルのアルゴリズムとしては `RSA` または `ECDSA` のみ使用可能です。 + +## サンプルの秘密キーと証明書ファイルを作成する手順の例 + +[`cfssl` および `cfssljson`](https://github.com/cloudflare/cfssl) を使用して、サンプルの秘密キーと証明書ファイルを作成できます。 `cfssl` と `cfssljson` をまだインストールしていない場合は、まずインストールしてください。 + +:::note + +* `openssl` などの他のツールを使用して、秘密鍵と証明書ファイルを作成することもできます。 あるいは、サードパーティ CA またはプライベート CA の管理者に本番環境用の秘密キーと証明書の作成を依頼することもできます。 +* この例では自己署名証明書を作成します。 ただし、これらの証明書を運用環境では使用しないことを強くお勧めします。 セキュリティ要件に基づいて実稼働環境用の証明書ファイルを作成するように、信頼できる発行者 (パブリック CA またはプライベート CA) に依頼してください。 + +::: + +1. 作業ディレクトリを作成します。 + + ```console + mkdir -p ${HOME}/scalar/example/certs/ + ``` + +1. 作業ディレクトリを `${HOME}/scalar/example/certs/` ディレクトリに変更します。 + + ```console + cd ${HOME}/scalar/example/certs/ + ``` + +1. CA の情報を含む JSON ファイルを作成します。 + + ```console + cat << 'EOF' > ${HOME}/scalar/example/certs/ca.json + { + "CN": "scalar-example-ca", + "key": { + "algo": "ecdsa", + "size": 256 + }, + "names": [ + { + "C": "JP", + "ST": "Tokyo", + "L": "Shinjuku", + "O": "Scalar Example CA" + } + ] + } + EOF + ``` + +1. CA の秘密鍵と証明書ファイルを作成します。 + + ```console + cfssl gencert -initca ca.json | cfssljson -bare ca + ``` + +1. CA の設定情報を含む JSON ファイルを作成します。 + + ```console + cat << 'EOF' > ${HOME}/scalar/example/certs/ca-config.json + { + "signing": { + "default": { + "expiry": "87600h" + }, + "profiles": { + "scalar-example-ca": { + "expiry": "87600h", + "usages": [ + "signing", + "key encipherment", + "server auth" + ] + } + } + } + } + EOF + ``` + +1. サーバーの情報を含む JSON ファイルを作成します。 + + ```console + cat << 'EOF' > ${HOME}/scalar/example/certs/server.json + { + "CN": "scalar-example-server", + "hosts": [ + "server.scalar.example.com", + "localhost" + ], + "key": { + "algo": "ecdsa", + "size": 256 + }, + "names": [ + { + "C": "JP", + "ST": "Tokyo", + "L": "Shinjuku", + "O": "Scalar Example Server" + } + ] + } + EOF + ``` + +1. サーバーの秘密キーと証明書ファイルを作成します。 + + ```console + cfssl gencert -ca ca.pem -ca-key ca-key.pem -config ca-config.json -profile scalar-example-ca server.json | cfssljson -bare server + ``` + +1. 秘密キーと証明書ファイルが作成されたことを確認します。 + + ```console + ls -1 + ``` + + [コマンド実行結果] + + ```console + ca-config.json + ca-key.pem + ca.csr + ca.json + ca.pem + server-key.pem + server.csr + server.json + server.pem + ``` + + この場合: + + * `server-key.pem` は秘密鍵ファイルです。 + * `server.pem` は証明書ファイルです。 + * `ca.pem` はルート CA 証明書ファイルです。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToGetContainerImages.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToGetContainerImages.mdx new file mode 100644 index 00000000..ed530433 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToGetContainerImages.mdx @@ -0,0 +1,27 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# Scalar 製品のコンテナイメージの取得方法 + +import Tabs from '@theme/Tabs'; +import TabItem from '@theme/TabItem'; +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +Scalar 製品のコンテナ イメージは、いくつかの方法で取得できます。 以下のいずれかの方法をお選びください。 + + + + 商用ライセンスをお持ちの場合は、パブリックコンテナーリポジトリからコンテナイメージを取得できます。 コンテナイメージの使用方法の詳細については、[コンテナイメージの使用方法](./HowToUseContainerImages.mdx) を参照してください。 + + + Scalar 製品は AWS Marketplace から入手できます。 AWS Marketplace の詳細については、[AWS Marketplace 経由で Scalar 製品をインストールする方法](./AwsMarketplaceGuide.mdx) を参照してください。 + + + 現在、Azure Marketplace の Scalar 製品は利用できません。 代わりに他の方法を使用してください。 + + diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToScaleScalarDB.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToScaleScalarDB.mdx new file mode 100644 index 00000000..53cc076b --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToScaleScalarDB.mdx @@ -0,0 +1,48 @@ +--- +tags: + - Community + - Enterprise Standard + - Enterprise Premium +--- + +# ScalarDB をスケーリングする方法 + +import Tabs from '@theme/Tabs'; +import TabItem from '@theme/TabItem'; +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このガイドでは、ScalarDB をスケーリングする方法について説明します。ここでは、[Scalar Helm Chart](https://github.com/scalar-labs/helm-charts) (推奨されているデプロイ方法) を使用して ScalarDB Cluster をデプロイしていることを前提としています。 + +:::note + +ScalarDB Cluster 側にボトルネックがある場合は、ScalarDB Cluster をスケーリングすることでパフォーマンスの問題を解決できる場合があります。ただし、パフォーマンスの問題はバックエンドデータベースのボトルネックによって発生することがあります。このような場合、ScalarDB Cluster をスケーリングしてもパフォーマンスの問題は解決されません。 + +代わりに、ボトルネックが存在する場所を確認してください。ボトルネックがバックエンドデータベースに存在する場合は、バックエンドデータベースのスケーリングを検討してください。 + +::: + + + + + 1. カスタム値ファイルに以下を追加します。`` を、スケーリングするポッドの数に置き換えます。 + + ```yaml + scalardbCluster: + replicaCount: + ``` + + 1. 更新されたカスタム値ファイルを使用する次の `helm upgrade` コマンドを実行して、ScalarDB Cluster のデプロイメントをアップグレードします。説明に従って、山括弧内の内容を必ず置き換えてください。 + + ```console + helm upgrade scalar-labs/scalardb-cluster -n -f / --version + ``` + + + + + ScalarDB Core は Java ライブラリとして提供されます。そのため、アプリケーションをスケールさせると、ScalarDB もアプリケーションに合わせてスケールされます。 + + + diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToScaleScalarDL.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToScaleScalarDL.mdx new file mode 100644 index 00000000..6268fb01 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToScaleScalarDL.mdx @@ -0,0 +1,55 @@ +--- +--- + +# ScalarDL をスケーリングする方法 + +import Tabs from '@theme/Tabs'; +import TabItem from '@theme/TabItem'; +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このガイドでは、ScalarDL をスケーリングする方法について説明します。ここでは、[Scalar Helm Chart](https://github.com/scalar-labs/helm-charts) (推奨されているデプロイ方法) を使用して ScalarDL をデプロイしていることを前提としています。 + +:::note + +ScalarDL 側にボトルネックがある場合は、ScalarDL をスケーリングすることでパフォーマンスの問題を解決できる場合があります。ただし、パフォーマンスの問題はバックエンドデータベースのボトルネックによって発生することがあります。このような場合、ScalarDL をスケーリングしてもパフォーマンスの問題は解決されません。 + +代わりに、ボトルネックが存在する場所を確認してください。ボトルネックがバックエンドデータベースに存在する場合は、バックエンドデータベースのスケーリングを検討してください。 + +::: + + + + + 1. カスタム値ファイルに以下を追加します。`` を、スケーリングするポッドの数に置き換えます。 + + ```yaml + ledger: + replicaCount: + ``` + + 1. 更新されたカスタム値ファイルを使用する次の `helm upgrade` コマンドを実行して、ScalarDL Ledger のデプロイメントをアップグレードします。説明に従って、山括弧内の内容を必ず置き換えてください。 + + ```console + helm upgrade scalar-labs/scalardl -n -f / --version + ``` + + + + + 1. カスタム値ファイルに以下を追加します。`` を、スケーリングするポッドの数に置き換えます。 + + ```yaml + auditor: + replicaCount: + ``` + + 1. 更新されたカスタム値ファイルを使用する次の `helm upgrade` コマンドを実行して、ScalarDL Auditor のデプロイメントをアップグレードします。説明に従って、山括弧内の内容を必ず置き換えてください。 + + ```console + helm upgrade scalar-labs/scalardl-audit -n -f / --version + ``` + + + diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUpgradeScalarDB.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUpgradeScalarDB.mdx new file mode 100644 index 00000000..fec1e03a --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUpgradeScalarDB.mdx @@ -0,0 +1,88 @@ +--- +tags: + - Community + - Enterprise Standard + - Enterprise Premium +--- + +# ScalarDB のアップグレード方法 + +import Tabs from '@theme/Tabs'; +import TabItem from '@theme/TabItem'; +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このガイドでは、ScalarDB を新しいバージョンにアップグレードする方法について説明します。 + +## 始める前に + +新しいバージョンにアップグレードする前に、[ScalarDB Cluster 互換性マトリックス](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/compatibility/)をチェックして、ScalarDB Cluster とクライアント SDK 間の互換性を確認してください。 + +## アップグレード + +ScalarDB のバージョンのアップグレードについて詳しくは、実行するアップグレードの種類を選択してください。 + + + + メジャーバージョンでは下位互換性が維持されません。そのため、あるメジャーバージョンから別のメジャーバージョンにアップグレードするときには、特別な操作が必要になる場合があります。例: + + - バックエンドデータベース側のデータベーススキーマを更新します。 + - アプリケーションの API を更新します。 + + メジャーバージョンにアップグレードするときに必要なものの詳細については、アップグレードするメジャーバージョンのリリースノートを参照してください。 + + + マイナーバージョンは下位互換性を維持します。そのため、特別な操作を行わなくても、ScalarDB を同じメジャーバージョン内のマイナーバージョンから別のマイナーバージョンにアップグレードできます。たとえば、バックエンドデータベース側のデータベーススキーマを更新したり、アプリケーション内の API を更新したりする必要はありません。 + + + + [Scalar Helm Chart](https://github.com/scalar-labs/helm-charts) を使用して ScalarDB Cluster をデプロイする場合は、次のようにして ScalarDB Cluster のデプロイをアップグレードできます。 + + 1. ScalarDB Cluster Helm Chart のバージョンを環境変数として設定します。これを行うには、次のコマンドを実行して、チャートのバージョンを環境変数 `SCALAR_DB_CLUSTER_CHART_VERSION` に設定します。 + + ```console + SCALAR_DB_CLUSTER_CHART_VERSION=1.5.0 + ``` + + :::tip + + ScalarDB Cluster バージョンに対応するチャートバージョンを検索するには、次のコマンドを実行します。 + + ```console + helm search repo scalar-labs/scalardb-cluster -l + ``` + + 次のコマンドは役に立つかもしれませんが、山括弧内の内容を ScalarDB Cluster のバージョンに置き換えてください。 + + ```console + SCALAR_DB_CLUSTER_VERSION=..; SCALAR_DB_CLUSTER_CHART_VERSION=$(helm search repo scalar-labs/scalardb-cluster -l | grep -F "${SCALAR_DB_CLUSTER_VERSION}" | awk '{print $2}' | sort --version-sort -r | head -n 1) + ``` + + ::: + + 1. 次のように山括弧内の内容を置き換えて、ScalarDB Cluster のデプロイメントをアップグレードします。 + + ```console + helm upgrade scalar-labs/scalardb-cluster -n -f / --version ${SCALAR_DB_CLUSTER_CHART_VERSION} + ``` + + ScalarDB Cluster のデプロイメントをアップグレードした後は、アプリケーション側の [ScalarDB Cluster Java Client SDK](https://mvnrepository.com/artifact/com.scalar-labs/scalardb-cluster-java-client-sdk) または [ScalarDB Cluster .NET Client SDK](https://www.nuget.org/packages/ScalarDB.Net.Client) のバージョンをアップグレードすることを検討する必要があります。 + + + ScalarDB Core は Java ライブラリとして提供されます。そのため、Java プロジェクトの依存関係を更新し、アプリケーションを再構築して ScalarDB のバージョンをアップグレードできます。 + + + + + パッチバージョンは下位互換性を維持します。そのため、特別な操作を行わなくても、メジャーバージョンとマイナーバージョンが同じであれば、ScalarDB をあるパッチバージョンから別のパッチバージョンにアップグレードできます。たとえば、バックエンドデータベース側でデータベーススキーマを更新したり、アプリケーションで API を更新したりする必要はありません。 + + パッチバージョンへのアップグレード方法は、マイナーバージョンへのアップグレード方法と同様です。アップグレード方法の詳細については、[マイナーバージョンへのアップグレード](?versions=upgrade-minor-version)タブを参照してください。 + + + +:::warning + +ScalarDB は、以前のバージョン (メジャー、マイナー、またはパッチ) へのダウングレードをサポートしていません。新しいバージョンへのアップグレードのみ可能です。 + +::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUpgradeScalarDL.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUpgradeScalarDL.mdx new file mode 100644 index 00000000..7881896b --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUpgradeScalarDL.mdx @@ -0,0 +1,114 @@ +--- +--- + +# ScalarDL のアップグレード方法 + +import Tabs from '@theme/Tabs'; +import TabItem from '@theme/TabItem'; +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このガイドでは、ScalarDL の新しいバージョンにアップグレードする方法について説明します。 + +## 始める前に + +新しいバージョンにアップグレードする前に、[ScalarDL 互換性マトリックス](https://scalardl.scalar-labs.com/docs/latest/compatibility/)をチェックして、ScalarDL とクライアント SDK 間の互換性を確認してください。 + +## アップグレード + +ScalarDL のバージョンのアップグレードについて詳しくは、実行するアップグレードの種類を選択してください。 + + + + メジャーバージョンでは下位互換性が維持されません。そのため、あるメジャーバージョンから別のメジャーバージョンにアップグレードするときには、特別な操作が必要になる場合があります。例: + + - バックエンドデータベース側のデータベーススキーマを更新します。 + - アプリケーションの API を更新します。 + + メジャーバージョンにアップグレードするときに必要なものの詳細については、アップグレードするメジャーバージョンのリリースノートを参照してください。 + + + マイナーバージョンは下位互換性を維持します。そのため、特別な操作を行わなくても、ScalarDL を同じメジャーバージョン内のマイナーバージョンから別のマイナーバージョンにアップグレードできます。たとえば、バックエンドデータベース側のデータベーススキーマを更新したり、アプリケーション内の API を更新したりする必要はありません。 + + + + [Scalar Helm Chart](https://github.com/scalar-labs/helm-charts) を使用して ScalarDL Ledger をデプロイする場合は、次のようにして ScalarDL Ledger のデプロイをアップグレードできます。 + + 1. ScalarDL Ledger Helm Chart のバージョンを環境変数として設定します。これを行うには、次のコマンドを実行して、チャートのバージョンを環境変数 `SCALAR_DL_LEDGER_CHART_VERSION` に設定します。 + + ```console + SCALAR_DL_LEDGER_CHART_VERSION=4.8.0 + ``` + + :::tip + + ScalarDL Ledger バージョンに対応するチャートバージョンは、次のように検索できます。 + + ```console + helm search repo scalar-labs/scalardl -l + ``` + + 次のコマンドは役に立つかもしれませんが、山括弧内の内容を ScalarDL Ledger のバージョンに置き換えてください。 + + ```console + SCALAR_DL_VERSION=..; SCALAR_DL_LEDGER_CHART_VERSION=$(helm search repo scalar-labs/scalardl -l | grep -v -e "scalar-labs/scalardl-audit" | grep -F "${SCALAR_DL_VERSION}" | awk '{print $2}' | sort --version-sort -r | head -n 1) + ``` + + ::: + + 1. 次のように山括弧内の内容を置き換えて、ScalarDL Ledger デプロイメントをアップグレードします。 + + ```console + helm upgrade scalar-labs/scalardl -n -f / --version ${SCALAR_DL_LEDGER_CHART_VERSION} + ``` + + ScalarDL Ledger デプロイメント (および Auditor モードを使用している場合は ScalarDL Auditor デプロイメント) をアップグレードした後、アプリケーション側で [ScalarDL Java Client SDK](https://mvnrepository.com/artifact/com.scalar-labs/scalardl-java-client-sdk) のバージョンをアップグレードすることを検討する必要があります。 + + + [Scalar Helm Chart](https://github.com/scalar-labs/helm-charts) を使用して ScalarDL Auditor をデプロイする場合は、次のようにして ScalarDL Auditor のデプロイをアップグレードできます。 + + 1. ScalarDL Auditor Helm Chart のバージョンを環境変数として設定します。これを行うには、次のコマンドを実行して、チャートのバージョンを環境変数 `SCALAR_DL_AUDITOR_CHART_VERSION` に設定します。 + + ```console + SCALAR_DL_AUDITOR_CHART_VERSION=2.8.0 + ``` + + :::tip + + ScalarDL Auditor バージョンに対応するチャートバージョンは、次のように検索できます。 + + ```console + helm search repo scalar-labs/scalardl-audit -l + ``` + + 次のコマンドは役に立つかもしれませんが、山括弧内の内容を ScalarDL Auditor のバージョンに置き換えてください。 + + ```console + SCALAR_DL_VERSION=..; SCALAR_DL_AUDITOR_CHART_VERSION=$(helm search repo scalar-labs/scalardl-audit -l | grep -F "${SCALAR_DL_VERSION}" | awk '{print $2}' | sort --version-sort -r | head -n 1) + ``` + + ::: + + 1. 次のように山括弧内の内容を置き換えて、ScalarDL Auditor のデプロイメントをアップグレードします。 + + ```console + helm upgrade scalar-labs/scalardl-audit -n -f / --version ${SCALAR_DL_AUDITOR_CHART_VERSION} + ``` + + ScalarDL Auditor デプロイメントと ScalarDL Ledger デプロイメントをアップグレードした後、アプリケーション側で [ScalarDL Java Client SDK](https://mvnrepository.com/artifact/com.scalar-labs/scalardl-java-client-sdk) のバージョンをアップグレードすることを検討する必要があります。 + + + + + パッチバージョンは下位互換性を維持します。そのため、特別な操作を行わなくても、メジャーバージョンとマイナーバージョンが同じであれば、ScalarDL を 1つのパッチバージョンから別のパッチバージョンにアップグレードできます。たとえば、バックエンドデータベース側でデータベーススキーマを更新したり、アプリケーションで API を更新したりする必要はありません。 + + パッチバージョンへのアップグレード方法は、マイナーバージョンへのアップグレード方法と同様です。アップグレード方法の詳細については、[マイナーバージョンへのアップグレード](?versions=upgrade-minor-version)タブを参照してください。 + + + +:::warning + +ScalarDL は、以前のバージョン (メジャー、マイナー、またはパッチ) へのダウングレードをサポートしていません。新しいバージョンへのアップグレードのみ可能です。 + +::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUseContainerImages.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUseContainerImages.mdx new file mode 100644 index 00000000..d585d943 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUseContainerImages.mdx @@ -0,0 +1,138 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# コンテナイメージの使用方法 + +import Tabs from '@theme/Tabs'; +import TabItem from '@theme/TabItem'; +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +パブリックコンテナリポジトリからコンテナイメージをプルできます。 コンテナイメージを使用する場合は、`.properties` ファイルにライセンスキーと証明書を設定する必要があります。 + +## 前提条件 + +パブリックコンテナイメージは、次の製品とバージョンで利用できます。 + +* ScalarDB Cluster v3.12 以降 +* ScalarDL v3.9 以降 + +## パブリックコンテナリポジトリからコンテナイメージをプルします。 + +各製品のコンテナイメージをパブリックコンテナリポジトリからプルできます。コンテナイメージをプルするには、Scalar 製品を選択して、コンテナイメージへのリンクを表示します。 + + + + ScalarDB Enterprise のエディションを選択します。 + + + https://github.com/orgs/scalar-labs/packages/container/package/scalardb-cluster-node-byol-standard + + + https://github.com/orgs/scalar-labs/packages/container/package/scalardb-cluster-node-byol-premium + + + + + https://github.com/orgs/scalar-labs/packages/container/package/scalardl-ledger-byol + + + https://github.com/orgs/scalar-labs/packages/container/package/scalardl-auditor-byol + + + +Scalar Helm Chart を使用する場合は、カスタム値ファイルに `*.image.repository` を次のように設定してください。Scalar 製品を選択して、`*.image.repository` を設定する方法を確認してください。 + + + + ScalarDB Enterprise のエディションを選択します。 + + + ```yaml + scalardbCluster: + image: + repository: "ghcr.io/scalar-labs/scalardb-cluster-node-byol-standard" + ``` + + + ```yaml + scalardbCluster: + image: + repository: "ghcr.io/scalar-labs/scalardb-cluster-node-byol-premium" + ``` + + + + + ```yaml + ledger: + image: + repository: "ghcr.io/scalar-labs/scalardl-ledger-byol" + ``` + + + ```yaml + auditor: + image: + repository: "ghcr.io/scalar-labs/scalardl-auditor-byol" + ``` + + + +## `.properties` ファイルにライセンスキーを設定します + +コンテナイメージを実行するには、`.properties` ファイルに `ライセンスキー` と `証明書` を設定する必要があります。Scalar 製品を選択して、`license key` と `certificate` を設定する方法を確認してください。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact) までご連絡ください。 + + + + ```properties + scalar.db.cluster.node.licensing.license_key= + scalar.db.cluster.node.licensing.license_check_cert_pem= + ``` + + + ```properties + scalar.dl.licensing.license_key= + scalar.dl.licensing.license_check_cert_pem= + ``` + + + ```properties + scalar.dl.licensing.license_key= + scalar.dl.licensing.license_check_cert_pem= + ``` + + + +Scalar Helm Chart を使用する場合は、カスタム値ファイルのプロパティを次のように設定してください。Scalar 製品を選択して、カスタム値ファイルでプロパティを設定する方法を確認します。 + + + + ```yaml + scalardbCluster: + scalardbClusterNodeProperties: | + scalar.db.cluster.node.licensing.license_key= + scalar.db.cluster.node.licensing.license_check_cert_pem= + ``` + + + ```yaml + ledger: + ledgerProperties: | + scalar.dl.licensing.license_key= + scalar.dl.licensing.license_check_cert_pem= + ``` + + + ```yaml + auditor: + auditorProperties: | + scalar.dl.licensing.license_key= + scalar.dl.licensing.license_check_cert_pem= + ``` + + diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/K8sLogCollectionGuide.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/K8sLogCollectionGuide.mdx new file mode 100644 index 00000000..2e86c17c --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/K8sLogCollectionGuide.mdx @@ -0,0 +1,185 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# Kubernetes クラスター上の Scalar 製品からのログの収集 + +import Tabs from '@theme/Tabs'; +import TabItem from '@theme/TabItem'; +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このドキュメントでは、Helm を使用して Grafana Loki と Promtail を Kubernetes にデプロイする方法について説明します。 このドキュメントに従うと、Kubernetes 環境で Scalar 製品のログを収集できます。 + +マネージド Kubernetes クラスターを使用しており、監視とログ記録にクラウド サービス機能を使用したい場合は、次のドキュメントを参照してください。 + +* [Logging and monitoring on Amazon EKS](https://docs.aws.amazon.com/prescriptive-guidance/latest/implementing-logging-monitoring-cloudwatch/amazon-eks-logging-monitoring.html) +* [Monitoring Azure Kubernetes Service (AKS) with Azure Monitor](https://learn.microsoft.com/en-us/azure/aks/monitor-aks) + +## 前提条件 + +* Kubernetes クラスターを作成します。 + * [Scalar 製品用の EKS クラスターを作成する](CreateEKSClusterForScalarProducts.mdx) + * [Scalar 製品用の AKS クラスターを作成する](CreateAKSClusterForScalarProducts.mdx) +* 要塞サーバーを作成し、`kubeconfig` を設定します。 + * [要塞サーバーの作成](CreateBastionServer.mdx) +* Prometheus Operator をデプロイします (収集されたログを調査するために Grafana を使用します) + * [Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) + +## Grafana helm リポジトリを追加します + +このドキュメントでは、Prometheus Operator のデプロイメントに Helm を使用します。 + +```console +helm repo add grafana https://grafana.github.io/helm-charts +``` +```console +helm repo update +``` + +## カスタム値ファイルを準備する + +loki-stack のサンプルファイル [scalar-loki-stack-custom-values.yaml](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalar-loki-stack-custom-values.yaml) を入手してください。 Scalar 製品のロギングには、このサンプル ファイルの構成をお勧めします。 + +### カスタム値ファイルで nodeSelector を設定する (オプション) + +Kubernetes ワーカーノードにラベルを追加している場合は、次のようにカスタム値ファイル (scalar-loki-stack-custom-values.yaml) で nodeSelector を設定する必要がある場合があります。使用している製品に応じて、次の例を参照してください。 + + + + 使用している ScalarDB 製品を選択します。 + + + ```yaml + promtail: + nodeSelector: + scalar-labs.com/dedicated-node: scalardb-cluster + ``` + + + ```yaml + promtail: + nodeSelector: + scalar-labs.com/dedicated-node: scalardb + ``` + + + + + 使用している ScalarDL 製品を選択します。 + + + ```yaml + promtail: + nodeSelector: + scalar-labs.com/dedicated-node: scalardl-ledger + ``` + + + ```yaml + promtail: + nodeSelector: + scalar-labs.com/dedicated-node: scalardl-auditor + ``` + + + + + +### カスタム値ファイルで許容値を設定する (オプション) + +Kubernetes ワーカーノードにテイントを追加している場合は、次のようにカスタム値ファイル (scalar-loki-stack-custom-values.yaml) で許容値を設定する必要がある場合があります。使用している製品に応じて、次の例を参照してください。 + + + + 使用している ScalarDB 製品を選択します。 + + + ```yaml + promtail: + tolerations: + - effect: NoSchedule + key: scalar-labs.com/dedicated-node + operator: Equal + value: scalardb-cluster + ``` + + + ```yaml + promtail: + tolerations: + - effect: NoSchedule + key: scalar-labs.com/dedicated-node + operator: Equal + value: scalardb + ``` + + + + + 使用している ScalarDL 製品を選択します。 + + + ```yaml + promtail: + tolerations: + - effect: NoSchedule + key: scalar-labs.com/dedicated-node + operator: Equal + value: scalardl-ledger + ``` + + + ```yaml + promtail: + tolerations: + - effect: NoSchedule + key: scalar-labs.com/dedicated-node + operator: Equal + value: scalardl-auditor + ``` + + + + + +## Loki と Promtail をデプロイする + +Loki と Promtail は、Prometheus や Grafana と同じ名前空間 `Monitoring` にデプロイすることをお勧めします。 `Monitoring` 名前空間は、ドキュメント [Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) ですでに作成済みです。 + +```console +helm install scalar-logging-loki grafana/loki-stack -n monitoring -f scalar-loki-stack-custom-values.yaml +``` + +## Loki と Promtail がデプロイされているかどうかを確認する + +Loki および Promtail ポッドが適切にデプロイされている場合は、次のコマンドを使用して、`STATUS` が `Running` であることが確認できます。 promtail ポッドは DaemonSet としてデプロイされるため、promtail ポッドの数は Kubernetes ノードの数によって異なります。 次の例では、Kubernetes クラスター内に Scalar 製品のワーカーノードが 3 つあります。 + +```console +kubectl get pod -n monitoring +``` + +次のような結果が表示されます: + +```console +NAME READY STATUS RESTARTS AGE +scalar-logging-loki-0 1/1 Running 0 35m +scalar-logging-loki-promtail-2fnzn 1/1 Running 0 32m +scalar-logging-loki-promtail-2pwkx 1/1 Running 0 30m +scalar-logging-loki-promtail-gfx44 1/1 Running 0 32m +``` + +## Grafana ダッシュボードでログを表示する + +収集されたログは、次のように Grafana ダッシュボードで確認できます。 + +1. Grafana ダッシュボードにアクセスします。 +1. `Explore` ページに移動します。 +1. 左上のプルダウンから `Loki` を選択します。 +1. ログを問い合わせる条件を設定する。 +1. 右上の `Run query` ボタンを選択します。 + +Grafana ダッシュボードへのアクセス方法の詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) を参照してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/K8sMonitorGuide.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/K8sMonitorGuide.mdx new file mode 100644 index 00000000..c0604fe8 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/K8sMonitorGuide.mdx @@ -0,0 +1,159 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# Kubernetes クラスター上の Scalar 製品の監視 + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このドキュメントでは、Helm を使用して Prometheus Operator を Kubernetes にデプロイする方法について説明します。 このドキュメントに従うと、Prometheus、Alertmanager、および Grafana を使用して、Kubernetes 環境上の Scalar 製品を監視できるようになります。 + +マネージド Kubernetes クラスターを使用しており、監視とログ記録にクラウド サービス機能を使用したい場合は、次のドキュメントを参照してください。 + +* [Logging and monitoring on Amazon EKS](https://docs.aws.amazon.com/prescriptive-guidance/latest/implementing-logging-monitoring-cloudwatch/amazon-eks-logging-monitoring.html) +* [Monitoring Azure Kubernetes Service (AKS) with Azure Monitor](https://learn.microsoft.com/en-us/azure/aks/monitor-aks) + +## 前提条件 + +* Kubernetes クラスターを作成します。 + * [Scalar 製品用の EKS クラスターを作成する](CreateEKSClusterForScalarProducts.mdx) + * [Scalar 製品用の AKS クラスターを作成する](CreateAKSClusterForScalarProducts.mdx) +* 要塞サーバーを作成し、`kubeconfig`を設定します。 + * [要塞サーバーの作成](CreateBastionServer.mdx) + +## prometheus-community helm リポジトリを追加します + +このドキュメントでは、Prometheus Operator のデプロイメントに Helm を使用します。 + +```console +helm repo add prometheus-community https://prometheus-community.github.io/helm-charts +``` +```console +helm repo update +``` + +## カスタム値ファイルを準備する + +kube-prometheus-stack のサンプル ファイル [scalar-prometheus-custom-values.yaml](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalar-prometheus-custom-values.yaml) を取得してください。 Scalar 製品の監視には、このサンプル ファイルの構成をお勧めします。 + +このサンプル ファイルでは、サービス リソースは Kubernetes クラスターの外部からのアクセスに公開されていません。 Kubernetes クラスターの外部からダッシュボードにアクセスしたい場合は、`*.service.type` を `LoadBalancer` に設定するか、`*.ingress.enabled` を `true` に設定する必要があります。 + +kube-prometheus-stackの設定の詳細については、以下の公式ドキュメントを参照してください。 + +* [kube-prometheus-stack - Configuration](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack#configuration) + +## Prometheus Operator をデプロイする + +Scalar 製品は、Prometheus Operator がデフォルトで `monitoring` 名前空間にデプロイされていることを前提としています。 したがって、`monitoring` 名前空間を作成し、`monitoring` 名前空間に Prometheus Operator をデプロイしてください。 + +1. Kubernetes 上に名前空間 `monitoring` を作成します。 + ```console + kubectl create namespace monitoring + ``` + +1. kube-prometheus-stack をデプロイします。 + ```console + helm install scalar-monitoring prometheus-community/kube-prometheus-stack -n monitoring -f scalar-prometheus-custom-values.yaml + ``` + +## Prometheus Operator がデプロイされているかどうかを確認する + +Prometheus Operator (Prometheus、Alertmanager、Grafana を含む) ポッドが適切にデプロイされている場合は、次のコマンドを使用して `STATUS` が `Running` であることを確認できます。 + +```console +kubectl get pod -n monitoring +``` + +次のような結果が表示されます: + +```console +NAME READY STATUS RESTARTS AGE +alertmanager-scalar-monitoring-kube-pro-alertmanager-0 2/2 Running 0 55s +prometheus-scalar-monitoring-kube-pro-prometheus-0 2/2 Running 0 55s +scalar-monitoring-grafana-cb4f9f86b-jmkpz 3/3 Running 0 62s +scalar-monitoring-kube-pro-operator-865bbb8454-9ppkc 1/1 Running 0 62s +``` + +## Helm Chart を使用して Scalar 製品をデプロイ (またはアップグレード) + +1. Scalar 製品の Prometheus 監視を有効にするには、カスタム値ファイルの次の構成に `true` を設定する必要があります。 + + * 構成 + * `*.prometheusRule.enabled` + * `*.grafanaDashboard.enabled` + * `*.serviceMonitor.enabled` + + 各Scalar製品のカスタム値ファイルの詳細については、以下のドキュメントを参照してください。 + + * [ScalarDB Cluster](../helm-charts/configure-custom-values-scalardb-cluster.mdx#prometheus-および-grafana-構成-実稼働環境で推奨) + * [(Deprecated) ScalarDB Server](../helm-charts/configure-custom-values-scalardb.mdx#prometheusgrafana-構成-運用環境で推奨) + * [(Deprecated) ScalarDB GraphQL](../helm-charts/configure-custom-values-scalardb-graphql.mdx#prometheusgrafana-構成-運用環境で推奨) + * [ScalarDL Ledger](../helm-charts/configure-custom-values-scalardl-ledger.mdx#prometheusgrafana-構成-運用環境で推奨) + * [ScalarDL Auditor](../helm-charts/configure-custom-values-scalardl-auditor.mdx#prometheusgrafana-構成-運用環境で推奨) + +1. 上記のカスタム値ファイルを含む Helm Chart を使用して、Scalar 製品をデプロイ (またはアップグレード) します。 + + Scalar 製品の導入/アップグレード方法の詳細については、次のドキュメントを参照してください。 + + * [ScalarDB Cluster](../helm-charts/how-to-deploy-scalardb-cluster.mdx) + * [(Deprecated) ScalarDB Server](../helm-charts/how-to-deploy-scalardb.mdx) + * [(Deprecated) ScalarDB GraphQL](../helm-charts/how-to-deploy-scalardb-graphql.mdx) + * [ScalarDL Ledger](../helm-charts/how-to-deploy-scalardl-ledger.mdx) + * [ScalarDL Auditor](../helm-charts/how-to-deploy-scalardl-auditor.mdx) + +## ダッシュボードにアクセスする方法 + +`*.service.type` を `LoadBalancer` に設定するか、`*.ingress.enabled` を `true` に設定すると、Kubernetes の Service または Ingress 経由でダッシュボードにアクセスできます。 具体的な実装とアクセス方法はKubernetesクラスタに依存します。 マネージド Kubernetes クラスターを使用する場合、詳細についてはクラウド プロバイダーの公式ドキュメントを参照してください。 + +* EKS + * [Network load balancing on Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/network-load-balancing.html) + * [Application load balancing on Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/alb-ingress.html) +* AKS + * [Use a public standard load balancer in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/load-balancer-standard) + * [Create an ingress controller in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/ingress-basic) + +## ローカル マシンからダッシュボードにアクセスします (テスト目的のみ / 運用環境では推奨されません) + +`kubectl port-forward` コマンドを使用して、ローカル マシンから各ダッシュボードにアクセスできます。 + +1. ローカル マシンから各サービスへのポート転送。 + * Prometheus + ```console + kubectl port-forward -n monitoring svc/scalar-monitoring-kube-pro-prometheus 9090:9090 + ``` + * Alertmanager + ```console + kubectl port-forward -n monitoring svc/scalar-monitoring-kube-pro-alertmanager 9093:9093 + ``` + * Grafana + ```console + kubectl port-forward -n monitoring svc/scalar-monitoring-grafana 3000:3000 + ``` + +1. 各ダッシュボードにアクセスします。 + * Prometheus + ```console + http://localhost:9090/ + ``` + * Alertmanager + ```console + http://localhost:9093/ + ``` + * Grafana + ```console + http://localhost:3000/ + ``` + * 注記: + * Grafanaのユーザーとパスワードは以下で確認できます。 + * ユーザー + ```console + kubectl get secrets scalar-monitoring-grafana -n monitoring -o jsonpath='{.data.admin-user}' | base64 -d + ``` + * パスワード + ```console + kubectl get secrets scalar-monitoring-grafana -n monitoring -o jsonpath='{.data.admin-password}' | base64 -d + ``` diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBClusterOnEKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBClusterOnEKS.mdx new file mode 100644 index 00000000..6b4e5a92 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBClusterOnEKS.mdx @@ -0,0 +1,69 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# Amazon Elastic Kubernetes Service (EKS) に ScalarDB Cluster をデプロイする + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このガイドでは、ScalarDB Cluster を Amazon Elastic Kubernetes Service (EKS) にデプロイする方法について説明します。 + +このガイドでは、AWS 環境に次の 2 つの環境のいずれかを作成します。 環境は、使用する [client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#client-modes) によって異なります。 + +* **[`direct-kubernetes` client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#direct-kubernetes-client-mode).** このモードでは、ScalarDB Cluster のデプロイメントと同じ EKS クラスターにアプリケーションをデプロイします。 + + ![image](./images/png/EKS_ScalarDB_Cluster_Direct_Kubernetes_Mode.drawio.png) + +* **[`indirect` client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#indirect-client-mode).** このモードでは、ScalarDB Cluster のデプロイメントを含む EKS クラスターとは異なる環境にアプリケーションをデプロイします。 + + ![image](./images/png/EKS_ScalarDB_Cluster_Indirect_Mode.drawio.png) + +## ステップ 1. AWS Marketplace で ScalarDB Cluster にサブスクライブする + +ScalarDB Cluster コンテナ イメージを取得するには、AWS Marketplace にアクセスし、[ScalarDB Cluster Standard Edition (Pay-As-You-Go)](https://aws.amazon.com/marketplace/pp/prodview-jx6qxatkxuwm4) または [ScalarDB Cluster Premium Edition (Pay-As-You-Go)](https://aws.amazon.com/marketplace/pp/prodview-djqw3zk6dwyk6) をサブスクライブする必要があります。 AWS Marketplace で ScalarDB Cluster をサブスクライブする方法の詳細については、[AWS Marketplace から Scalar 製品を購読する](AwsMarketplaceGuide.mdx#aws-marketplace-から-scalar-製品を購読する) を参照してください。 + +## ステップ 2. EKS クラスターを作成する + +ScalarDB Cluster のデプロイメント用の EKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx) を参照してください。 + +## ステップ 3. ScalarDB Cluster のデータベースをセットアップする + +ScalarDB Cluster をデプロイする前にデータベースを準備する必要があります。 ScalarDB がサポートするデータベースのタイプを確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 + +データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) を参照してください。 + +## ステップ 4. 要塞サーバーを作成する + +EKS 上で ScalarDB Cluster をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ 2** で作成した EKS クラスターの同じ Amazon Virtual Private Cloud (VPC) 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 + +## ステップ 5. Scalar Helm Chart のカスタム値ファイルを準備する + +**ステップ 3** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDB Cluster の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 + +**注意:** ScalarDB Cluster がデプロイされている EKS クラスターとは異なる環境にアプリケーションをデプロイする場合 (つまり、`indirect` クライアント モードを使用する場合)、`envoy.enabled` パラメーターを次のように設定する必要があります。 アプリケーションから Scalar Envoy にアクセスするには、`true` と `envoy.service.type` パラメータを `LoadBalancer` に設定します。 + +## ステップ 6. Scalar Helm Chart を使用して ScalarDB Cluster をデプロイする + +ScalarDB Cluster の Helm Chart を使用して、EKS クラスターに ScalarDB Cluster をデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 + +**注意:** `kubectl create ns scalardb-cluster` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardb-cluster` オプションを使用して名前空間に ScalarDB Cluster をデプロイすることをお勧めします。 + +## ステップ 7. ScalarDB Cluster のデプロイメントのステータスを確認する + +EKS クラスターに ScalarDB Cluster をデプロイした後、各コンポーネントのステータスを確認する必要があります。 詳細については、[Kubernetes 環境で実行するときに定期的に確認するコンポーネント](./ RegularCheck.mdx) を参照してください。 + +## ステップ 8. ScalarDB Cluster のデプロイメントを監視する + +EKS クラスターに ScalarDB Cluster をデプロイした後、特に本番環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 + +## ステップ 9. アプリケーションをデプロイする + +[`direct-kubernetes` client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#direct-kubernetes-client-mode) を使用する場合は、追加の Kubernetes リソースをデプロイする必要があります。 詳細については、[Deploy your client application on Kubernetes with `direct-kubernetes` mode](../helm-charts/how-to-deploy-scalardb-cluster.mdx#direct-kubernetes-モードを使用してクライアント-アプリケーションを-kubernetes-にデプロイします) を参照してください。 + +## EKS から ScalarDB Cluster を削除 + +作成した環境を削除する場合は、作成時とは逆の順序ですべてのリソースを削除してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnAKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnAKS.mdx new file mode 100644 index 00000000..d8fcd074 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnAKS.mdx @@ -0,0 +1,66 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium + - Deprecated +--- + +# [非推奨] Azure Kubernetes Service (AKS) に ScalarDB Server をデプロイする + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このガイドでは、ScalarDB Server を Azure Kubernetes Service (AKS) にデプロイする方法について説明します。 + +このガイドでは、Azure 環境に次の 2 つの環境のいずれかを作成します。 2 つの環境の違いは、アプリケーションのデプロイをどのように計画するかです。 + +* アプリケーションを ScalarDB Server デプロイメントと同じ AKS クラスターにデプロイします。 この場合、アプリケーションから Scalar Envoy にアクセスするために Azure が提供するロード バランサーを使用する必要はありません。 + + ![image](./images/png/AKS_ScalarDB_Server_App_In_Cluster.drawio.png) + +* ScalarDB Server デプロイを含む AKS クラスターとは異なる環境にアプリケーションをデプロイします。 この場合、アプリケーションから Scalar Envoy にアクセスするには、Azure が提供するロード バランサーを使用する必要があります。 + + ![image](./images/png/AKS_ScalarDB_Server_App_Out_Cluster.drawio.png) + +## ステップ 1. Azure Marketplace で ScalarDB Server にサブスクライブする + +[Azure Marketplace](https://azuremarketplace.microsoft.com/en/marketplace/apps/scalarinc.scalardb) にアクセスし、ScalarDB Server をサブスクライブして、ScalarDB Server コンテナー イメージを取得する必要があります。 Azure Marketplace で ScalarDB Server をサブスクライブする方法の詳細については、[Microsoft Azure Marketplace から Scalar 製品を入手する](AzureMarketplaceGuide.mdx#microsoft-azure-marketplace-から-scalar-製品を入手する) を参照してください。 + +## ステップ 2. AKS クラスターを作成する + +ScalarDB Server デプロイ用の AKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarProducts.mdx) を参照してください。 + +## ステップ 3. ScalarDB Server のデータベースをセットアップする + +ScalarDB Server を展開する前にデータベースを準備する必要があります。 ScalarDB がサポートするデータベースのタイプを確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 + +データベースのセットアップの詳細については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAzure.mdx) を参照してください。 + +## ステップ 4. 要塞サーバーを作成する + +AKS 上で ScalarDB Server をデプロイおよび管理するためのいくつかのツールを実行するには、**手順 2** で作成した AKS クラスターの同じ Azure Virtual Networks (VNet) 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 + +## ステップ 5. Scalar Helm Chart のカスタム値ファイルを準備する + +**ステップ 3** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDB Server の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file of Scalar Helm Chart](../helm-charts/configure-custom-values-file.mdx) を参照してください。 + +**注:** ScalarDB Server がデプロイされている AKS クラスターとは異なる環境にアプリケーションをデプロイする場合、Scalar Envoy にアクセスするには、`envoy.service.type` パラメーターを `LoadBalancer` に設定する必要があります。 応用。 + +## ステップ 6. Scalar Helm Chart を使用して ScalarDB Server をデプロイする + +ScalarDB Server の Helm Chart を使用して、AKS クラスターに ScalarDB Server をデプロイします。 詳細については、[Deploy Scalar Products using Scalar Helm Chart](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 + +**注意:** `kubectl create ns scalardb` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardb` オプションを使用して名前空間に ScalarDB Server をデプロイすることをお勧めします。 + +## ステップ 7. ScalarDB Server デプロイメントのステータスを確認する + +ScalarDB Server を AKS クラスターにデプロイした後、各コンポーネントの状態を確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 + +## ステップ 8. ScalarDB Server の展開を監視する + +ScalarDB Server を AKS クラスターにデプロイした後、特に運用環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および[Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 + +## ScalarDB Server を AKS から削除します + +作成した環境を削除する場合は、作成時とは逆の順序ですべてのリソースを削除してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnEKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnEKS.mdx new file mode 100644 index 00000000..ee9d3e25 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnEKS.mdx @@ -0,0 +1,66 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium + - Deprecated +--- + +# ScalarDB Server を Amazon Elastic Kubernetes Service (EKS) にデプロイする + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このガイドでは、Amazon Elastic Kubernetes Service (EKS) に ScalarDB Server をデプロイする方法について説明します。 + +このガイドでは、AWS 環境に次の 2 つの環境のいずれかを作成します。 2 つの環境の違いは、アプリケーションのデプロイをどのように計画するかです。 + +* アプリケーションを ScalarDB Server デプロイメントと同じ EKS クラスターにデプロイします。 この場合、アプリケーションから Scalar Envoy にアクセスするために AWS が提供するロードバランサーを使用する必要はありません。 + + ![image](./images/png/EKS_ScalarDB_Server_App_In_Cluster.drawio.png) + +* ScalarDB Server デプロイメントを含む EKS クラスターとは異なる環境にアプリケーションをデプロイします。 この場合、アプリケーションから Scalar Envoy にアクセスするには、AWS が提供するロードバランサーを使用する必要があります。 + + ![image](./images/png/EKS_ScalarDB_Server_App_Out_Cluster.drawio.png) + +## ステップ 1. AWS Marketplace で ScalarDB Server にサブスクライブする + +[AWS Marketplace](https://aws.amazon.com/marketplace/pp/prodview-rzbuhxgvqf4d2) にアクセスし、ScalarDB Server をサブスクライブして、ScalarDB Server コンテナ イメージを取得する必要があります。 AWS Marketplace で ScalarDB Server をサブスクライブする方法の詳細については、[AWS Marketplace から Scalar 製品を購読する](AwsMarketplaceGuide.mdx#aws-marketplace-から-scalar-製品を購読する) を参照してください。 + +## ステップ 2. EKS クラスターを作成する + +ScalarDB Server デプロイメント用の EKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx) を参照してください。 + +## ステップ 3. ScalarDB Server のデータベースをセットアップする + +ScalarDB Server を展開する前にデータベースを準備する必要があります。 ScalarDB がサポートするデータベースのタイプを確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 + +データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) を参照してください。 + +## ステップ 4. 要塞サーバーを作成する + +EKS 上で ScalarDB Server をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ 2** で作成した EKS クラスターの同じ Amazon Virtual Private Cloud (VPC) 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 + +## ステップ 5. Scalar Helm Chartのカスタム値ファイルを準備する + +**ステップ 3** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDB Server の Scalar Helm Chartのカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 + +**注意:** ScalarDB Server がデプロイされている EKS クラスターとは異なる環境にアプリケーションをデプロイする場合は、`envoy.service.type` パラメーターを `LoadBalancer` に設定して、ユーザーから Scalar Envoy にアクセスする必要があります。 応用。 + +## ステップ 6. Scalar Helm Chart を使用して ScalarDB Server をデプロイする + +ScalarDB Server の Helm Chart を使用して、ScalarDB Server を EKS クラスターにデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 + +**注意:** `kubectl create ns scalardb` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardb` オプションを使用して名前空間に ScalarDB Server をデプロイすることをお勧めします。 + +## ステップ 7. ScalarDB Server デプロイメントのステータスを確認する + +EKS クラスターに ScalarDB Server をデプロイした後、各コンポーネントのステータスを確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 + +## ステップ 8. ScalarDB Server の展開を監視する + +EKS クラスターに ScalarDB Server をデプロイした後、特に本番環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 + +## ScalarDB Server を EKS から削除する + +作成した環境を削除する場合は、作成時とは逆の順序ですべてのリソースを削除してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnAKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnAKS.mdx new file mode 100644 index 00000000..3cba2672 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnAKS.mdx @@ -0,0 +1,102 @@ +--- +--- + +# ScalarDL Ledger と ScalarDL Auditor を Azure Kubernetes Service (AKS) にデプロイする + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このガイドでは、Azure Kubernetes Service (AKS) に ScalarDL Ledger と ScalarDL Auditor をデプロイする方法について説明します。 + +このガイドでは、Azure 環境に次の 3 つの環境のいずれかを作成します。 ビザンチン障害検出を適切に機能させるには、ScalarDL Ledger と ScalarDL Auditor を異なる管理ドメイン (つまり、別の環境) に展開することをお勧めします。 + +* 別の Azure アカウントを使用する (最も推奨される方法) + + ![image](./images/png/AKS_ScalarDL_Auditor_Multi_Account.drawio.png) + +* 別の Azure Virtual Networks (VNet) を使用する (2 番目に推奨される方法) + + ![image](./images/png/AKS_ScalarDL_Auditor_Multi_VNet.drawio.png) + +* 異なる名前空間を使用する (3 番目に推奨される方法) + + ![image](./images/png/AKS_ScalarDL_Auditor_Multi_Namespace.drawio.png) + +**注意:** このガイドは、2 番目に推奨される方法「別の VNet を使用する」に従います。 + +## ステップ 1. ScalarDL Ledger および ScalarDL Auditor コンテナー イメージを取得する + +ScalarDL Ledger および ScalarDL Auditor コンテナー イメージを取得する必要があります。 Scalar 製品のコンテナ リポジトリの詳細については、[Scalar 製品のコンテナ イメージを取得する方法](HowToGetContainerImages.mdx) を参照してください。 + +## ステップ 2. ScalarDL Ledger の AKS クラスターを作成する + +ScalarDL Ledger デプロイ用の AKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarProducts.mdx) を参照してください。 + +## ステップ 3. ScalarDL Auditor の AKS クラスターを作成する + +ScalarDL Auditor デプロイ用の AKS クラスターも作成する必要があります。 詳細については、[Scalar 製品用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarProducts.mdx) を参照してください。 + +## ステップ 4. ScalarDL Ledger のデータベースをセットアップする + +ScalarDL Ledger を展開する前にデータベースを準備する必要があります。 ScalarDL Ledger は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 + +データベースのセットアップの詳細については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAzure.mdx) を参照してください。 + +## ステップ 5. ScalarDL Auditor のデータベースをセットアップする + +ScalarDL Auditor を展開する前にデータベースを準備する必要もあります。 ScalarDL Auditor は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 + +データベースのセットアップの詳細については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAzure.mdx) を参照してください。 + +## ステップ 6. ScalarDL Ledger の要塞サーバーを作成する + +AKS で ScalarDL Ledger をデプロイおよび管理するためのいくつかのツールを実行するには、**手順 2** で作成した AKS クラスターの同じ VNet に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 + +## ステップ 7. ScalarDL Auditor の要塞サーバーを作成する + +AKS で ScalarDL Auditor をデプロイおよび管理するためのいくつかのツールを実行するには、**手順 3** で作成した AKS クラスターの同じ VNet に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 + +## ステップ 8. 2 つの AKS クラスター間のネットワーク ピアリングを作成する + +ScalarDL を適切に動作させるには、ScalarDL Ledger と ScalarDL Auditor が相互に接続する必要があります。 [仮想ネットワーク ピアリング](https://docs.microsoft.com/en-us/azure/virtual-network/virtual-network-peering-overview) を使用して 2 つの VNet を接続する必要があります。 詳細については、[ScalarDL Auditor モードのネットワーク ピアリングの構成](NetworkPeeringForScalarDLAuditor.mdx) を参照してください。 + +## ステップ 9. ScalarDL Ledger と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する + +**ステップ 4** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Ledger と ScalarDL Schema Loader (Ledger 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx を参照してください。 + +## ステップ 10. Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする + +ScalarDL Ledger の Helm Chart を使用して、ScalarDL Ledger を AKS クラスターにデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 + +**注意:** `kubectl create ns scalardl-ledger` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardl-ledger` オプションを使用して名前空間に ScalarDL Ledger をデプロイすることをお勧めします。 + +## ステップ 11. ScalarDL Auditor と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する + +**ステップ 5** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Auditor と ScalarDL Schema Loader (Auditor 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要もあります 。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 + +## ステップ 12. Scalar Helm Chart を使用して ScalarDL Auditor をデプロイする + +ScalarDL Auditor の Helm Chart を使用して、AKS クラスターに ScalarDL Auditor をデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 + +**注意:** `kubectl create ns scalardl-auditor` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardl-auditor` オプションを使用して名前空間に ScalarDL Auditor をデプロイすることをお勧めします。 + +## ステップ 13. ScalarDL Ledger 導入のステータスを確認する + +ScalarDL Ledger を AKS クラスターにデプロイした後、各コンポーネントの状態を確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 + +## ステップ 14. ScalarDL Auditor デプロイメントのステータスを確認する + +ScalarDL Auditor を AKS クラスターにデプロイした後、各コンポーネントの状態を確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 + +## ステップ 15. ScalarDL Ledger の展開を監視する + +AKS クラスターに ScalarDL Ledger をデプロイした後、特に運用環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 + +## ステップ 16. ScalarDL Auditor の展開を監視する + +AKS クラスターに ScalarDL Auditor をデプロイした後、特に運用環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視(./K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 + +## ScalarDL Ledger と ScalarDL Auditor を AKS から削除します + +作成した環境を削除する場合は、作成時とは逆の順序ですべてのリソースを削除してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnEKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnEKS.mdx new file mode 100644 index 00000000..b49bd983 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnEKS.mdx @@ -0,0 +1,102 @@ +--- +--- + +# ScalarDL Ledger と ScalarDL Auditor を Amazon Elastic Kubernetes Service (EKS) にデプロイする + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このガイドでは、ScalarDL Ledger と ScalarDL Auditor を Amazon Elastic Kubernetes Service (EKS) にデプロイする方法について説明します。 + +このガイドでは、AWS 環境に次の 3 つの環境のいずれかを作成します。 ビザンチン障害検出を適切に機能させるには、ScalarDL Ledger と ScalarDL Auditor を異なる管理ドメイン (つまり、別の環境) に展開することをお勧めします。 + +* 別の AWS アカウントを使用する (最も推奨される方法) + + ![image](./images/png/EKS_ScalarDL_Auditor_Multi_Account.drawio.png) + +* 異なる Amazon Virtual Private Cloud (VPC) を使用する (2 番目に推奨される方法) + + ![image](./images/png/EKS_ScalarDL_Auditor_Multi_VPC.drawio.png) + +* 異なる名前空間を使用する (3 番目に推奨される方法) + + ![image](./images/png/EKS_ScalarDL_Auditor_Multi_Namespace.drawio.png) + +**注記:** このガイドは、2 番目に推奨される方法「別の VPC を使用する」に従います。 + +## ステップ 1. AWS Marketplace で ScalarDL Ledger と ScalarDL Auditor を購読する + +[AWS Marketplace](https://aws.amazon.com/marketplace/seller-profile?id=bd4cd7de-49cd-433f-97ba-5cf71d76ec7b) から ScalarDL Ledger および ScalarDL Auditor コンテナ イメージを取得し、ScalarDL Ledger および ScalarDL Auditor をサブスクライブする必要があります。 AWS Marketplace で ScalarDL Ledger および ScalarDL Auditor を購読する方法の詳細については、[AWS Marketplace から Scalar 製品を購読する](AwsMarketplaceGuide.mdx#aws-marketplace-から-scalar-製品を購読する) を参照してください。 + +## ステップ 2. ScalarDL Ledger の EKS クラスターを作成する + +ScalarDL Ledger デプロイメント用の EKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx) を参照してください。 + +## ステップ 3. ScalarDL Auditor 用の EKS クラスターを作成する + +ScalarDL Auditor デプロイメント用の EKS クラスターも作成する必要があります。 詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx) を参照してください。 + +## ステップ 4. ScalarDL Ledger のデータベースをセットアップする + +ScalarDL Ledger を展開する前にデータベースを準備する必要があります。 ScalarDL Ledger は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 + +データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) を参照してください。 + +## ステップ 5. ScalarDL Auditor のデータベースをセットアップする + +ScalarDL Auditor を展開する前にデータベースを準備する必要もあります。 ScalarDL Auditor は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 + +データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) を参照してください。 + +## ステップ 6. ScalarDL Ledger の要塞サーバーを作成する + +EKS 上で ScalarDL Ledger をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ 2** で作成した EKS クラスターの同じ VPC 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 + +## ステップ 7. ScalarDL Auditor の要塞サーバーを作成する + +EKS 上で ScalarDL Auditor をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ 3** で作成した EKS クラスターの同じ VPC 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 + +## ステップ 8. 2 つの EKS クラスター間のネットワーク ピアリングを作成する + +ScalarDL を適切に動作させるには、ScalarDL Ledger と ScalarDL Auditor が相互に接続する必要があります。 [VPC peering](https://docs.aws.amazon.com/vpc/latest/peering/create-vpc-peering-connection.html) を使用して 2 つの VPC を接続する必要があります。 詳細については、[ScalarDL Auditor モードのネットワーク ピアリングの構成](NetworkPeeringForScalarDLAuditor.mdx) を参照してください。 + +## ステップ 9. ScalarDL Ledger および ScalarDL Schema Loader の Scalar Helm Chart のカスタム値ファイルを準備する + +**ステップ 4** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Ledger および ScalarDL Schema Loader (Ledger 用) の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 + +## ステップ 10. Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする + +ScalarDL Ledger の Helm Chart を使用して、ScalarDL Ledger を EKS クラスターにデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 + +**注記:** `kubectl create ns scalardl-ledger` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardl-ledger` オプションを使用して名前空間に ScalarDL Ledger をデプロイすることをお勧めします。 + +## ステップ 11. ScalarDL Auditor と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する + +**ステップ 5** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Auditor と ScalarDL Schema Loader (Auditor 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 + +## ステップ 12. Scalar Helm Chart を使用して ScalarDL Auditor をデプロイする + +ScalarDL Auditor の Helm Chart を使用して、ScalarDL Auditor を EKS クラスターにデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 + +**注記:** `kubectl create ns scalardl-auditor` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardl-auditor` オプションを使用して名前空間に ScalarDL Auditor をデプロイすることをお勧めします。 + +## ステップ 13. ScalarDL Ledger 導入のステータスを確認する + +EKS クラスターに ScalarDL Ledger をデプロイした後、各コンポーネントのステータスを確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 + +## ステップ 14. ScalarDL Auditor デプロイメントのステータスを確認する + +EKS クラスターに ScalarDL Auditor をデプロイした後、各コンポーネントのステータスを確認する必要があります。 詳細については、[Kubernetes 環境で実行するときに定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 + +## ステップ 15. ScalarDL Ledger の展開を監視する + +EKS クラスターに ScalarDL Ledger をデプロイした後、特に本番環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 + +## ステップ 16. ScalarDL Auditor の展開を監視する + +EKS クラスターに ScalarDL Auditor をデプロイした後、特に運用環境で、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 + +## EKS から ScalarDL Ledger と ScalarDL Auditor を削除 + +作成した環境を削除する場合は、作成時とは逆の順序ですべてのリソースを削除してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLOnAKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLOnAKS.mdx new file mode 100644 index 00000000..06762f9b --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLOnAKS.mdx @@ -0,0 +1,54 @@ +--- +--- + +# Azure Kubernetes Service (AKS) に ScalarDL Ledger をデプロイする + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このドキュメントでは、**ScalarDL Ledger** を Azure Kubernetes Service (AKS) にデプロイする方法について説明します。 + +このガイドでは、Azure 環境に次の環境を作成します。 + +![image](./images/png/AKS_ScalarDL_Ledger.drawio.png) + +## ステップ 1. ScalarDL Ledger コンテナー イメージを取得する + +ScalarDL Ledger コンテナー イメージを取得する必要があります。 Scalar 製品のコンテナ リポジトリの詳細については、[Scalar 製品のコンテナ イメージを取得する方法](HowToGetContainerImages.mdx) を参照してください。 + +## ステップ 2. AKS クラスターを作成する + +ScalarDL Ledger デプロイ用の AKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarProducts.mdx) を参照してください。 + +## ステップ 3. ScalarDL Ledger のデータベースをセットアップする + +ScalarDL Ledger を展開する前にデータベースを準備する必要があります。 ScalarDL Ledger は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 + +データベースのセットアップの詳細については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAzure.mdx) を参照してください。 + +## ステップ 4. 要塞サーバーを作成する + +AKS で ScalarDL Ledger をデプロイおよび管理するためのいくつかのツールを実行するには、**手順 2** で作成した AKS クラスターの同じ Azure Virtual Network (VNet) 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 + +## ステップ 5. ScalarDL Ledger と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する + +**ステップ 3** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Ledger と ScalarDL Schema Loader (Ledger 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 + +## ステップ 6. Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする + +ScalarDL Ledger の Helm Chart を使用して、AKS クラスターに ScalarDL Ledger をデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 + +**注記:** `kubectl create ns scalardl-ledger` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardl-ledger` オプションを使用して名前空間に ScalarDL Ledger をデプロイすることをお勧めします。 + +## ステップ 7. ScalarDL Ledger 導入のステータスを確認する + +ScalarDL Ledger を AKS クラスターにデプロイした後、各コンポーネントの状態を確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 + +## ステップ 8. ScalarDL Ledger の展開を監視する + +AKS クラスターに ScalarDL Ledger をデプロイした後、特に運用環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 + +## ScalarDL Ledger を AKS から削除する + +作成した環境を削除する場合は、作成時とは逆の順序ですべてのリソースを削除してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLOnEKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLOnEKS.mdx new file mode 100644 index 00000000..37f1c047 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLOnEKS.mdx @@ -0,0 +1,54 @@ +--- +--- + +# ScalarDL Ledger を Amazon Elastic Kubernetes Service (EKS) にデプロイする + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このドキュメントでは、**ScalarDL Ledger** を Amazon Elastic Kubernetes Service (EKS) にデプロイする方法について説明します。 + +このガイドでは、AWS 環境アカウントに次の環境を作成します。 + +![image](./images/png/EKS_ScalarDL_Ledger.drawio.png) + +## ステップ 1. AWS Marketplace で ScalarDL Ledger を購読する + +[AWS Marketplace](https://aws.amazon.com/marketplace/pp/prodview-3jdwfmqonx7a2) から ScalarDL Ledger コンテナ イメージを取得し、ScalarDL にサブスクライブする必要があります。 AWS Marketplace で ScalarDL Ledger を購読する方法の詳細については、[AWS Marketplace から Scalar 製品を購読する](AwsMarketplaceGuide.mdx#aws-marketplace-から-scalar-製品を購読する) を参照してください。 + +## ステップ 2. EKS クラスターを作成する + +ScalarDL Ledger デプロイメント用の EKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx) を参照してください。 + +## ステップ 3. ScalarDL Ledger のデータベースをセットアップする + +ScalarDL Ledger を展開する前にデータベースを準備する必要があります。 ScalarDL Ledger は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 + +データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) を参照してください。 + +## ステップ 4. 要塞サーバーを作成する + +EKS で ScalarDL Ledger をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ 2** で作成した EKS クラスターの同じ Amazon Virtual Private Cloud (VPC) 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 + +## ステップ 5. ScalarDL Ledger と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する + +**ステップ 3** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Ledger と ScalarDL Schema Loader (Ledger 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 + +## ステップ 6. Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする + +ScalarDL Ledger の Helm Chart を使用して、ScalarDL Ledger を EKS クラスターにデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 + +**注記:** `kubectl create ns scalardl-ledger` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardl-ledger` オプションを使用して名前空間に ScalarDL Ledger をデプロイすることをお勧めします。 + +## ステップ 7. ScalarDL Ledger 導入のステータスを確認する + +EKS クラスターに ScalarDL Ledger をデプロイした後、各コンポーネントのステータスを確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 + +## ステップ 8. ScalarDL Ledger の展開を監視する + +EKS クラスターに ScalarDL Ledger をデプロイした後、特に本番環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 + +## EKS から ScalarDL Ledger を削除 + +作成した環境を削除する場合は、作成時とは逆の順序ですべてのリソースを削除してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/NetworkPeeringForScalarDLAuditor.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/NetworkPeeringForScalarDLAuditor.mdx new file mode 100644 index 00000000..1a6f1144 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/NetworkPeeringForScalarDLAuditor.mdx @@ -0,0 +1,58 @@ +--- +--- + +# ScalarDL Auditor モード用にネットワーク ピアリングを構成する + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このドキュメントでは、ScalarDL Auditor モードで複数のプライベート ネットワークを接続し、ネットワーク ピアリングを実行する方法について説明します。 ScalarDL Auditor モードが正しく動作するには、ScalarDL Ledger を ScalarDL Auditor に接続する必要があります。 + +## 接続する必要があるネットワーク + +ScalarDL Auditor モード (ビザンチン障害検出) を正しく機能させるには、3 つのプライベート ネットワークを接続する必要があります。 + +* [ScalarDL Ledger ネットワーク] ↔ [ScalarDL Auditor ネットワーク] +* [ScalarDL Ledger ネットワーク] ↔ [アプリケーション(クライアント)ネットワーク] +* [ScalarDL Auditor ネットワーク] ↔ [アプリケーション (クライアント) ネットワーク] + +## ネットワーク要件 + +### IP アドレス範囲 + +プライベート ネットワーク間で IP アドレスが競合しないようにするには、異なる IP アドレス範囲を持つプライベート ネットワークが必要です。 例えば: + +* **ScalarDL Ledger のプライベート ネットワーク:** 10.1.0.0/16 +* **ScalarDL Auditor のプライベート ネットワーク:** 10.2.0.0/16 +* **アプリケーション (クライアント) のプライベート ネットワーク:** 10.3.0.0/16 + +### 接続 + +ScalarDL Ledger、ScalarDL Auditor、およびアプリケーション(クライアント)を接続するためのデフォルトのネットワークポートは、デフォルトでは次のとおりです。 各プライベート ネットワーク間でこれらの接続を許可する必要があります。 + +* **ScalarDL Ledger** + * **50051/TCP:** アプリケーション (クライアント) および Scalar Envoy 経由の ScalarDL Auditor からのリクエストを受け入れます。 + * **50052/TCP:** アプリケーション (クライアント) および Scalar Envoy 経由の ScalarDL Auditor からの特権リクエストを受け入れます。 +* **ScalarDL Auditor** + * **40051/TCP:** Scalar Envoy を介してアプリケーション (クライアント) および ScalarDL Ledger からのリクエストを受け入れます。 + * **40052/TCP:** アプリケーション (クライアント) および Scalar Envoy 経由の ScalarDL Ledger からの特権リクエストを受け入れます。 +* **Scalar Envoy** (ScalarDL Ledger および ScalarDL Auditor とともに使用) + * **50051/TCP:** アプリケーション (クライアント) および ScalarDL Auditor からの ScalarDL Ledger に対するリクエストを受け入れます。 + * **50052/TCP:** アプリケーション (クライアント) および ScalarDL Auditor からの ScalarDL Ledger に対する特権リクエストを受け入れます。 + * **40051/TCP:** アプリケーション (クライアント) および ScalarDL Ledger からの ScalarDL Auditor のリクエストを受け入れます。 + * **40052/TCP:** アプリケーション (クライアント) および ScalarDL Ledger からの ScalarDL Auditor に対する特権リクエストを受け入れます。 + +構成ファイル (ledger.properties または auditor.properties) で ScalarDL のリスニング ポートをデフォルトから変更する場合は、構成したポートを使用して接続を許可する必要があることに注意してください。 + +## プライベートネットワークピアリング + +各クラウドのプライベートネットワークの接続方法については公式ドキュメントを参照してください。 + +### Amazon VPC ピアリング + +アマゾン ウェブ サービス (AWS) 環境で Virtual Private Cloud (VPC) をピアリングする方法の詳細については、Amazon の公式ドキュメント [Create a VPC peering connection](https://docs.aws.amazon.com/vpc/latest/peering/create-vpc-peering-connection.html) を参照してください。 + +### Azure VNet ピアリング + +Azure 環境で仮想ネットワークをピアリングする方法の詳細については、Microsoft の公式ドキュメント [Virtual network peering](https://learn.microsoft.com/en-us/azure/virtual-network/virtual-network-peering-overview) を参照してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDBCluster.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDBCluster.mdx new file mode 100644 index 00000000..d69283a8 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDBCluster.mdx @@ -0,0 +1,156 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# ScalarDB Cluster の制作チェックリスト + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このチェックリストは、実稼働環境に ScalarDB Cluster をデプロイする際の推奨事項を提供します。 + +## あなたが始める前に + +このチェックリストでは、推奨される管理対象 Kubernetes クラスターに ScalarDB Cluster をデプロイしていることを前提としています。 + +## 実稼働チェックリスト: ScalarDB Cluster + +以下は、運用環境で ScalarDB Cluster をセットアップする際の推奨事項のチェックリストです。 + +### ポッドと Kubernetes ワーカーノードの数 + +Kubernetes クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardb-cluster-custom-values-indirect-mode.yaml) を参照できます。 + +:::note + +ワーカーノードを異なるアベイラビリティ ゾーン (AZ) に配置すると、AZ の障害に耐えることができます。 + +::: + +### ワーカーノードの仕様 + +商用ライセンスの観点から、ScalarDB Cluster を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 また、ScalarDB Cluster ポッド以外の一部のポッドがワーカーノード上に存在します。 + +つまり、次のコンポーネントは 1 つのワーカーノード上で実行できます。 + +* ScalarDB Cluster ポッド (2vCPU / 4GB) +* Envoy プロキシ (`indirect` クライアント モードを使用する場合、または Java 以外のプログラミング言語を使用する場合) +* アプリケーション ポッド (同じワーカーノード上でアプリケーションのポッドを実行することを選択した場合) +* 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) +* Kubernetes コンポーネント + +:::note + +`direct-kubernetes` モードを使用する場合は、Envoy ポッドをデプロイする必要はありません。 + +::: + +これを念頭に置いて、[ポッドと Kubernetes ワーカーノードの数](ProductionChecklistForScalarDBCluster.mdx#ポッドと-kubernetes-ワーカーノードの数) で説明されているように、少なくとも 4vCPU / 8GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 + +ただし、実稼働環境では、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが最小限です。 システムのワークロードに応じて、Kubernetes クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDB Cluster ポッド、アプリケーションのポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングすることを計画している場合は、ワーカーノード上のポッドの最大数を考慮してワーカーノードのリソースを決定する必要があります。 + +#### 通信網 + +ScalarDB Cluster はインターネット アクセス経由でユーザーに直接サービスを提供しないため、Kubernetes クラスターはプライベート ネットワーク上に作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDB Cluster にアクセスすることをお勧めします。 + +### 監視とログ記録 + +デプロイされたコンポーネントを監視し、そのログを収集する必要があります。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および `Kubernetes クラスター上の Scalar 製品からのログの収集](./K8sLogCollectionGuide.mdx) を参照してください。 + +### バックアップと復元 + +バックエンド データベースで自動バックアップ機能とポイントインタイム リカバリ (PITR) 機能を有効にする必要があります。 詳細については、[ScalarDB/ScalarDL 導入用のデータベースのセットアップ](SetupDatabase.mdx) を参照してください。 + +## 運用チェックリスト: ScalarDB Cluster にアクセスするクライアント アプリケーション + +以下は、実稼働環境で ScalarDB Cluster にアクセスするクライアント アプリケーションをセットアップする際の推奨事項のチェックリストです。 + +### クライアント モード (Java クライアント ライブラリのみ) + +アプリケーションに Java を使用する場合、公式の Java クライアント ライブラリを使用できます。 この場合、[`direct-kubernetes mode`](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#direct-kubernetes-client-mode) または [`indirect mode`](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#indirect-client-mode) の 2 つのクライアント モードのいずれかを選択できます。 + +パフォーマンスの観点から、`direct-kubernetes` モードの使用をお勧めします。 `direct-kubernetes` モードを使用するには、アプリケーション ポッドを ScalarDB Cluster ポッドと同じ Kubernetes クラスターにデプロイする必要があります。 この場合、Envoy ポッドをデプロイする必要はありません。 + +何らかの理由で Java アプリケーション ポッドを ScalarDB Cluster ポッドと同じ Kubernetes クラスターにデプロイできない場合は、`indirect` モードを使用する必要があります。 この場合、Envoy ポッドをデプロイする必要があります。 + +:::note + +クライアント モード設定は Java クライアント ライブラリ専用です。 アプリケーションに Java 以外のプログラミング言語を使用する場合 (基本的に、[gRPC API](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/scalardb-cluster-grpc-api-guide) または [gRPC SQL API](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/scalardb-cluster-sql-grpc-api-guide) をプログラミング言語から直接使用する場合)、そのような構成は存在しません。 この場合、Envoy ポッドをデプロイする必要があります。 + +::: + +### トランザクション マネージャーの構成 (Java クライアント ライブラリのみ) + +クライアント アプリケーションは、常に ScalarDB Cluster を通じてデータベースにアクセスする必要があります。 リクエストが適切に実行されていることを確認するには、クライアント アプリケーションのプロパティ ファイルをチェックし、CRUD API の使用時に `scalar.db.transaction_manager=cluster` が設定されていることを確認します。 + +#### 実稼働環境に推奨 + +```mermaid +flowchart LR + app["アプリ
gRPC を使用した ScalarDB Cluster ライブラリ"] + server["ScalarDB Cluster
Consensus Commit を備えた
ScalarDBライブラリ"] + db[(基盤となるストレージまたはデータベース)] + app --> server --> db +``` + +#### Not recommended for production environments (for testing purposes only) + +```mermaid +flowchart LR + app["アプリ
Consensus Commit を備えた
ScalarDB Cluster ライブラリ"] + db[(基盤となるストレージまたはデータベース)] + app --> db +``` + +### SQL 接続構成 (Java クライアント ライブラリのみ) + +クライアント アプリケーションは、常に ScalarDB Cluster を通じてデータベースにアクセスする必要があります。 リクエストが適切に実行されていることを確認するには、クライアント アプリケーションのプロパティ ファイルをチェックし、SQL API を使用するときに `scalar.db.sql.connection_mode=cluster` が設定されていることを確認します。 + +#### 実稼働環境に推奨 + +```mermaid +flowchart LR + app["アプリ
ScalarDB SQL ライブラリ (クラスター モード)"] + server["ScalarDB Cluster
Consensus Commit を備えた
ScalarDB ライブラリ"] + db[(基盤となるストレージまたはデータベース)] + app --> server --> db +``` + +#### 運用環境では推奨されません (テスト目的のみ) + +```mermaid +flowchart LR + app["アプリ
ScalarDB SQL ライブラリ (ダイレクト モード)"] + db[(基盤となるストレージまたはデータベース)] + app --> db +``` + +### `direct-kubernetes` クライアント モードを使用する場合のクライアント アプリケーションのデプロイメント (Java クライアント ライブラリのみ) + +[`direct-kubernetes` client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#direct-kubernetes-client-mode) を使用する場合は、クライアント アプリケーションを ScalarDB Cluster デプロイメントと同じ Kubernetes クラスターにデプロイする必要があります。 + +また、`direct-kubernetes` クライアント モードを使用する場合は、クライアント アプリケーションが適切に動作するように追加の Kubernetes リソースをデプロイする必要があります。 詳細については、[Deploy your client application on Kubernetes with `direct-kubernetes` mode](../helm-charts/how-to-deploy-scalardb-cluster.mdx#direct-kubernetes-モードを使用してクライアント-アプリケーションを-kubernetes-にデプロイします) を参照してください。 + +### トランザクション処理 (Java クライアント ライブラリと gRPC API) + +トランザクションを [`begin()`](https://scalardb.scalar-labs.com/docs/latest/api-guide#begin-or-start-a-transaction) した後、アプリケーションが常に [`commit()`](https://scalardb.scalar-labs.com/docs/latest/api-guide#commit-a-transaction) または [`rollback()`](https://scalardb.scalar-labs.com/docs/latest/api-guide#roll-back-or-abort-a-transaction) を実行するようにする必要があります。 アプリケーションが `commit()` または `rollback()` を実行しない場合、アプリケーションで予期しない問題が発生したり、バックエンド データベースから一貫性のないデータが読み取られる可能性があります。 + +:::note + +[gRPC API](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/scalardb-cluster-grpc-api-guide) または [SQL gRPC API](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/scalardb-cluster-sql-grpc-api-guide) を使用する場合、アプリケーションは、`Begin` サービスを呼び出してトランザクションを開始した後、`Commit` サービスまたは `Rollback` サービスを呼び出す必要があります。 + +::: + +### 例外処理 (Java クライアント ライブラリと gRPC API) + +アプリケーションがトランザクション例外を処理することを確認する必要があります。 詳細については、使用している API のドキュメントを参照してください。 + +* [Handle exceptions (Transactional API)](https://scalardb.scalar-labs.com/docs/latest/api-guide#handle-exceptions). +* [Handle exceptions (two-phase commit transactions API)](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions#handle-exceptions) +* [Execute transactions (ScalarDB SQL API)](https://scalardb.scalar-labs.com/docs/latest/scalardb-sql/sql-api-guide#execute-transactions) +* [Handle SQLException (ScalarDB JDBC)](https://scalardb.scalar-labs.com/docs/latest/scalardb-sql/jdbc-guide#handle-sqlexception) +* [Error handling (ScalarDB Cluster gRPC API)](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/scalardb-cluster-grpc-api-guide#error-handling-1) +* [Error handling (ScalarDB Cluster SQL gRPC API)](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/scalardb-cluster-sql-grpc-api-guide#error-handling-1) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDLAuditor.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDLAuditor.mdx new file mode 100644 index 00000000..f3f1e0ff --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDLAuditor.mdx @@ -0,0 +1,173 @@ +--- +--- + +# ScalarDL Auditor の制作チェックリスト + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このチェックリストは、ScalarDL Auditor を運用環境に展開する際の推奨事項を提供します。 + +## あなたが始める前に + +このチェックリストでは、推奨される管理対象 Kubernetes クラスターに ScalarDL Auditor をデプロイしていることを前提としています。 + +## プロダクションチェックリスト: ScalarDL Auditor + +以下は、運用環境で ScalarDL Auditor をセットアップする際の推奨事項のチェックリストです。 + +### ScalarDL の可用性 + +Kubernetes クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-audit-custom-values.yaml) を参照できます。 + +:::note + +ワーカーノードを異なるアベイラビリティ ゾーン (AZ) に配置すると、AZ の障害に耐えることができます。 + +::: + +### リソース + +商用ライセンスの観点から、ScalarDL Auditor を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDL Auditor ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 + +* ScalarDL Auditor ポッド (2vCPU / 4GB) +* Envoy プロキシ +* 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) +* Kubernetes コンポーネント + +これを念頭に置いて、[ScalarDL の可用性](#scalardl-availability) で説明されているように、少なくとも 4vCPU / 8GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 + +ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが運用環境の最小環境となります。 システムのワークロードに応じて、Kubernetes クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Auditor ポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 + +### 通信網 + +ScalarDL Auditor はインターネット アクセス経由でユーザーにサービスを直接提供しないため、Kubernetes クラスターはプライベート ネットワーク上に作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDL Auditor にアクセスすることをお勧めします。 + +### 監視とログ記録 + +デプロイされたコンポーネントを監視し、そのログを収集する必要があります。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 + +### バックアップと復元 + +バックエンド データベースで自動バックアップ機能とポイントインタイム リカバリ (PITR) 機能を有効にする必要があります。 詳細については、[ScalarDB/ScalarDL 導入用のデータベースのセットアップ](SetupDatabase.mdx) を参照してください。 + +### ScalarDL Auditor の展開 + +ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger デプロイメントと同じ Kubernetes クラスターに ScalarDL Auditor ポッドをデプロイしないでください。 代わりに、ScalarDL Ledger デプロイメントの管理ドメイン以外の環境 (Kubernetes クラスター以外) に ScalarDL Auditor ポッドをデプロイする必要があります。 + +#### 実稼働環境に必要 + +```mermaid +graph LR + subgraph "ScalarDL" + subgraph "管理ドメイン 1" + subgraph "Ledger 用の Kubernetes クラスター" + B-1[ScalarDL Ledger] + end + end + subgraph "管理ドメイン 2" + subgraph "Auditor 用の Kubernetes クラスター" + C-1[ScalarDL Auditor] + end + end + end +``` + +#### 運用環境では推奨されません (テスト目的のみ) + +```mermaid +graph LR + subgraph "Kubernetes クラスター" + direction LR + A-1[ScalarDL Ledger] + A-2[ScalarDL Auditor] + end +``` + +### ScalarDL Ledger と ScalarDL Auditor 間の接続 + +ScalarDL Auditor モードが正しく動作するには、ScalarDL Ledger と ScalarDL Auditor 間の接続を許可する必要があります。 + +```mermaid +graph LR + subgraph "Ledger 用の Kubernetes クラスター" + A-1[ScalarDL Ledger] + end + subgraph "Auditor 用の Kubernetes クラスター" + B-1[ScalarDL Auditor] + end + A-1 --- B-1 +``` + +ScalarDL は、ScalarDL Ledger と ScalarDL Auditor 間の接続に次のポートを使用します。 ScalarDL Ledger と ScalarDL Auditor の間で次の接続を許可する必要があります。 + +* ScalarDL Ledger + * 50051/TCP + * 50052/TCP +* ScalarDL Auditor + * 40051/TCP + * 40052/TCP + +### 秘密鍵と証明書 + +認証に PKI を使用する場合は、ScalarDL Ledger および ScalaDL Auditor に登録する秘密鍵と証明書が次の要件を満たしていることを確認する必要があります。 + +```console +Algorithm : ECDSA +Hash function : SHA256 +Curve parameter : P-256 +``` + +詳しくは [How to get a certificate](https://scalardl.scalar-labs.com/ja-jp/docs/latest/ca/caclient-getting-started) をご覧ください。 + +## 実稼働チェックリスト: ScalarDL Auditor にアクセスするクライアント アプリケーション + +以下は、運用環境で ScalarDL Auditor にアクセスするクライアント アプリケーションをセットアップする際の推奨事項のチェックリストです。 + +### クライアント アプリケーションのデプロイメント + +ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL デプロイメントと同じ Kubernetes クラスターにアプリケーション ポッドをデプロイしないでください。 代わりに、ScalarDL デプロイメントの管理ドメイン以外の環境 (Kubernetes クラスター以外) にアプリケーションをデプロイする必要があります。 + +#### 実稼働環境に必要 + +```mermaid +graph LR + subgraph "管理ドメイン 1" + subgraph "別の環境" + A-1[ユーザーアプリケーション] + end + end + subgraph "ScalarDL" + subgraph "管理ドメイン 2" + subgraph "Ledger 用の Kubernetes クラスター" + B-1[ScalarDL Ledger] + end + end + subgraph "管理ドメイン 3" + subgraph "Auditor 用の Kubernetes クラスター" + C-1[ScalarDL Auditor] + end + end + end + A-1 --> B-1 + A-1 --> C-1 +``` + +#### 運用環境では推奨されません (テスト目的のみ) + +```mermaid +graph LR + subgraph "Kubernetes クラスター" + direction LR + A-1[ユーザーアプリケーション] + A-2[ScalarDL Ledger] + A-3[ScalarDL Auditor] + end + A-1 --> A-2 + A-1 --> A-3 +``` + +### クライアント アプリケーションのチェックリスト + +また、[運用チェックリスト: ScalarDL Ledger にアクセスするクライアントアプリケーション](ProductionChecklistForScalarDLLedger.mdx#運用チェックリスト-scalardl-ledger-にアクセスするクライアントアプリケーション) を満たしていることも確認する必要があります。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDLLedger.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDLLedger.mdx new file mode 100644 index 00000000..4f1a8941 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDLLedger.mdx @@ -0,0 +1,159 @@ +--- +--- + +# ScalarDL Ledgerの制作チェックリスト + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このチェックリストは、実稼働環境に ScalarDL Ledger を展開する際の推奨事項を提供します。 + +## あなたが始める前に + +このチェックリストでは、推奨される管理対象 Kubernetes クラスターに ScalarDL Ledger をデプロイしていることを前提としています。 + +## プロダクションチェックリスト: ScalarDL Ledger + +以下は、運用環境で ScalarDL Ledger をセットアップする際の推奨事項のチェックリストです。 + +### ScalarDL の可用性 + +Kubernetes クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml) を参照できます。 + +:::note + +ワーカーノードを異なるアベイラビリティ ゾーン (AZ) に配置すると、AZ の障害に耐えることができます。 + +::: + +### リソース + +商用ライセンスの観点から、ScalarDL Ledger を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDL Ledger ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 + +* ScalarDL Ledger ポッド (2vCPU / 4GB) +* Envoy プロキシ +* 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) +* Kubernetes コンポーネント + +これを念頭に置いて、[ScalarDL の可用性](#scalardl-availability) で説明されているように、少なくとも 4vCPU / 8GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 + +ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが運用環境の最小環境となります。 システムのワークロードに応じて、Kubernetes クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 + +### 通信網 + +ScalarDL Ledger はインターネット アクセス経由でユーザーにサービスを直接提供しないため、Kubernetes クラスターはプライベート ネットワーク上に作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDL Ledger にアクセスすることをお勧めします。 + +### 監視とログ記録 + +デプロイされたコンポーネントを監視し、そのログを収集する必要があります。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 + +### バックアップと復元 + +バックエンド データベースで自動バックアップ機能とポイントインタイム リカバリ (PITR) 機能を有効にする必要があります。 詳細については、[ScalarDB/ScalarDL 導入用のデータベースのセットアップ](SetupDatabase.mdx) を参照してください。 + +## 運用チェックリスト: ScalarDL Ledger にアクセスするクライアントアプリケーション + +以下は、運用環境で ScalarDL Ledger にアクセスするクライアント アプリケーションをセットアップする際の推奨事項のチェックリストです。 + +### クライアント アプリケーションのデプロイメント + +ScalarDL でのビザンチン障害検出が適切に機能するには、アプリケーション ポッドを ScalarDL Ledger デプロイメントと同じ Kubernetes クラスターにデプロイしないでください。 代わりに、ScalarDL Ledger デプロイメントの管理ドメイン以外の環境 (Kubernetes クラスター以外) にアプリケーションをデプロイする必要があります。 + +#### 実稼働環境に必要 + +```mermaid +graph LR + subgraph "管理ドメイン 1" + subgraph "別の環境" + A-1[ユーザーアプリケーション] + end + end + subgraph "管理ドメイン 2" + subgraph "Kubernetes クラスター" + B-1[ScalarDL Ledger] + end + end + A-1 --> B-1 +``` + +#### 運用環境では推奨されません (テスト目的のみ) + +```mermaid +graph LR + subgraph "Kubernetes クラスター" + direction LR + A-1[ユーザーアプリケーション] --> A-2[ScalarDL Ledger] + end +``` + +### 契約と機能 + +契約と機能がガイドラインに従っているかどうかを確認するには、次を参照してください。 + +* [A Guide on How to Write a Good Contract for ScalarDL](https://scalardl.scalar-labs.com/ja-jp/docs/latest/how-to-write-contract) +* [A Guide on How to Write Function for ScalarDL](https://scalardl.scalar-labs.com/ja-jp/docs/latest/how-to-write-function) + +### 契約のバージョン管理 + +契約を登録した後は、既存の契約を上書きすることはできません。 したがって、契約のバージョン管理を検討する必要があります。 次の 2 つの方法のいずれかを推奨します。 + +#### `クラス名` を使用したバージョニング + +```console +Contract ID : FooV1 +Binary Name : com.example.contract.FooV1 +Class file (Class Name) : src/main/java/com/example/contract/FooV1.class +--- +Contract ID : FooV2 +Binary Name : com.example.contract.FooV2 +Class file (Class Name) : src/main/java/com/example/contract/FooV2.class +``` + +#### `Package Name` を使用したバージョニング + +```console +Contract ID : FooV3 +Binary Name : com.example.contract.v3.Foo +Class file (Class Name) : src/main/java/com/example/contract/v3/Foo.class +--- +Contract ID : FooV4 +Binary Name : com.example.contract.v4.Foo +Class file (Class Name) : src/main/java/com/example/contract/v4/Foo.class +``` + +### 契約上の制限 + +コントラクト登録時にバイナリ名、パッケージ名、クラス名が異なる場合、登録後にそのコントラクトを実行することはできません。 + +#### バイナリ名とクラス名が異なります(このコントラクトは実行できません) + +```console +Contract ID : FooV5 +Binary Name : com.example.contract.FooV5 +Class file (Class Name) : src/main/java/com/example/contract/FooV6.class +``` + +#### バイナリ名とパッケージ名が異なります(本契約は実行できません) + +```console +Contract ID : FooV7 +Binary Name : com.example.contract.v7.Foo +Class file (Class Name) : src/main/java/com/example/contract/v8/Foo.class +``` + +### 秘密鍵と証明書 + +認証に PKI を使用する場合、ScalarDL Ledger に登録する秘密キーと証明書が次の要件を満たしていることを確認する必要があります。 + +```console +Algorithm : ECDSA +Hash function : SHA256 +Curve parameter : P-256 +``` + +詳しくは [How to get a certificate](https://scalardl.scalar-labs.com/ja-jp/docs/latest/ca/caclient-getting-started) をご覧ください。 + +### 例外処理 + +アプリケーションが例外を処理することを確認する必要があります。 詳細については、[A Guide on How to Handle Errors in ScalarDL](https://scalardl.scalar-labs.com/ja-jp/docs/latest/how-to-handle-errors) を参照してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarProducts.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarProducts.mdx new file mode 100644 index 00000000..ab141ab5 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarProducts.mdx @@ -0,0 +1,17 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# Scalar 製品の制作チェックリスト + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +デプロイメントを本番環境に向けて準備するには、次を参照してください。 + +* [ScalarDB Cluster の制作チェックリスト](ProductionChecklistForScalarDBCluster.mdx) +* [ScalarDL Ledger の制作チェックリスト](ProductionChecklistForScalarDLLedger.mdx) +* [ScalarDL Auditor の制作チェックリスト](ProductionChecklistForScalarDLAuditor.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/RegularCheck.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/RegularCheck.mdx new file mode 100644 index 00000000..92a05664 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/RegularCheck.mdx @@ -0,0 +1,98 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# Kubernetes 環境で実行するときに定期的にチェックするコンポーネント + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +手動デプロイメント ガイドによってデプロイされたコンポーネントのほとんどは、マネージド Kubernetes サービスと Kubernetes 自己修復機能の助けを借りて自己修復されます。 予期しない動作が発生したときに発生するアラートも設定されています。 したがって、マネージド Kubernetes クラスターに Scalar 製品をデプロイするために毎日行うべきことはそれほど多くありません。 ただし、システムのステータスを定期的にチェックして、すべてが正常に動作しているかどうかを確認することをお勧めします。 ここでは、定期的に実行しておきたいことのリストを示します。 + +## Kubernetes リソース + +### ポッドがすべて正常なスタチューであるかどうかを確認する + +Kubernetes 名前空間を確認してください。 + +* Scalar 製品デプロイメントの `default` (または Scalar 製品をデプロイするときに指定された名前空間) +* Prometheus Operator と Loki の `monitoring` + +確認すべき内容: + +* `STATUS` はすべて `Running` です。 +* ポッドはさまざまなノードに均等に分散されます。 + +```console +kubectl get pod -o wide -n +``` + +次のような結果が表示されます: + +```console +NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES +scalardb-7876f595bd-2jb28 1/1 Running 0 2m35s 10.244.2.6 k8s-worker2 +scalardb-7876f595bd-rfvk6 1/1 Running 0 2m35s 10.244.1.8 k8s-worker +scalardb-7876f595bd-xfkv4 1/1 Running 0 2m35s 10.244.3.8 k8s-worker3 +scalardb-envoy-84c475f77b-cflkn 1/1 Running 0 2m35s 10.244.1.7 k8s-worker +scalardb-envoy-84c475f77b-tzmc9 1/1 Running 0 2m35s 10.244.3.7 k8s-worker3 +scalardb-envoy-84c475f77b-vztqr 1/1 Running 0 2m35s 10.244.2.5 k8s-worker2 +``` + +```console +kubectl get pod -n monitoring -o wide +``` + +次のような結果が表示されます: + +```console +NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES +alertmanager-scalar-monitoring-kube-pro-alertmanager-0 2/2 Running 1 (11m ago) 12m 10.244.2.4 k8s-worker2 +prometheus-scalar-monitoring-kube-pro-prometheus-0 2/2 Running 0 12m 10.244.1.5 k8s-worker +scalar-logging-loki-0 1/1 Running 0 13m 10.244.2.2 k8s-worker2 +scalar-logging-loki-promtail-2c4k9 0/1 Running 0 13m 10.244.0.5 k8s-control-plane +scalar-logging-loki-promtail-8r48b 1/1 Running 0 13m 10.244.3.2 k8s-worker3 +scalar-logging-loki-promtail-b26c6 1/1 Running 0 13m 10.244.2.3 k8s-worker2 +scalar-logging-loki-promtail-sks56 1/1 Running 0 13m 10.244.1.2 k8s-worker +scalar-monitoring-grafana-77c4dbdd85-4mrn7 3/3 Running 0 12m 10.244.3.4 k8s-worker3 +scalar-monitoring-kube-pro-operator-7575dd8bbd-bxhrc 1/1 Running 0 12m 10.244.1.3 k8s-worker +``` + +### ノードがすべて正常なステータスであるかどうかを確認します + +確認すべき内容: + +* `STATUS` はすべて `Ready` です。 + +```console +kubectl get nodes +``` + +次のような結果が表示されます: + +```console +NAME STATUS ROLES AGE VERSION +k8s-control-plane Ready control-plane 16m v1.25.3 +k8s-worker Ready 15m v1.25.3 +k8s-worker2 Ready 15m v1.25.3 +k8s-worker3 Ready 15m v1.25.3 +``` + +## Prometheus ダッシュボード (Scalar 製品のアラート) + +ドキュメント [Kubernetes クラスター上の Scalar 製品のモニタリング](K8sMonitorGuide.mdx) に従って、Prometheus ダッシュボードにアクセスします。 [**アラート**] タブで、アラートのステータスを確認できます。 + +確認すべき内容: + +* すべてのアラートは **緑色 (非アクティブ)** + +何らかの問題が発生している場合は、**赤色 (起動中)** のステータスが表示されます。 + +## Grafana ダッシュボード (Scalar 製品のメトリクス) + +ドキュメント [Kubernetes クラスター上の Scalar 製品のモニタリング](K8sMonitorGuide.mdx) に従って、Grafana ダッシュボードにアクセスします。 [**ダッシュボード**] タブには、Scalar 製品のダッシュボードが表示されます。 これらのダッシュボードでは、Scalar 製品のいくつかのメトリクスを確認できます。 + +これらのダッシュボードは問題に直接対処することはできませんが、通常からの変化 (トランザクション エラーの増加など) を確認して、問題を調査するためのヒントを得ることができます。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/RestoreDatabase.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/RestoreDatabase.mdx new file mode 100644 index 00000000..dfe134a2 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/RestoreDatabase.mdx @@ -0,0 +1,163 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# Kubernetes 環境でデータベースを復元する + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このガイドでは、ScalarDB または ScalarDL が Kubernetes 環境で使用するデータベースを復元する方法について説明します。 このガイドは、クラウド サービス プロバイダーのマネージド データベースを ScalarDB または ScalarDL のバックエンド データベースとして使用していることを前提としていることに注意してください。 + +## データベースをリストアする手順 + +1. ScalarDB または ScalarDL ポッドを **0** にスケールインして、バックエンド データベースへのリクエストを停止します。 Helm コマンドで `--set *.replicaCount=0` フラグを使用すると、ポッドを **0** にスケールインできます。 + * ScalarDB Server + ```console + helm upgrade scalar-labs/scalardb -n -f /path/to/ --set scalardb.replicaCount=0 + ``` + * ScalarDL Ledger + ```console + helm upgrade scalar-labs/scalardl -n -f /path/to/ --set ledger.replicaCount=0 + ``` + * ScalarDL Auditor + ```console + helm upgrade scalar-labs/scalardl-audit -n -f /path/to/ --set auditor.replicaCount=0 + ``` +2. ポイントインタイムリカバリ (PITR) 機能を使用してデータベースを復元します。 + + 管理データベースに基づいてデータベースを復元する方法の詳細については、このガイドの [管理されたデータベースに基づいてデータを復元するための補足手順](RestoreDatabase.mdx#管理されたデータベースに基づいてデータを復元するための補足手順) セクションを参照してください。 + + NoSQL または複数のデータベースを使用している場合は、[Kubernetes 環境での NoSQL データベースのバックアップ](BackupNoSQL.mdx) のバックアップ手順に従うときに作成した一時停止期間の中間点を指定する必要があります。 +3. 新しく復元されたデータベースに基づいて **database.properties**、**ledger.properties**、または **auditor.properties** を更新します。 + + PITR 機能はデータベースを別のインスタンスとして復元するため、新しく復元されたデータベースにアクセスするには、ScalarDB または ScalarDL のカスタム値ファイル内のエンドポイント情報を更新する必要があります。 カスタム値ファイルの設定方法の詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 + + Amazon DynamoDB を使用している場合、データは別のインスタンスではなく別のテーブル名で復元されることに注意してください。 つまり、データの復元後にエンドポイントは変更されません。 代わりに、Amazon DynamoDB 内のテーブルの名前を変更してデータを復元する必要があります。 同じテーブル名でデータを復元する方法の詳細については、このガイドの [Amazon DynamoDB](RestoreDatabase.mdx#amazon-dynamodb) セクションを参照してください。 +4. Helm コマンドの `--set *.replicaCount=N` フラグを使用して、ScalarDB または ScalarDL ポッドを **1** 以上にスケールアウトし、クライアントからのリクエストの受け入れを開始します。 + * ScalarDB Server + ```console + helm upgrade scalar-labs/scalardb -n -f /path/to/ --set scalardb.replicaCount=3 + ``` + * ScalarDL Ledger + ```console + helm upgrade scalar-labs/scalardl -n -f /path/to/ --set ledger.replicaCount=3 + ``` + * ScalarDL Auditor + ```console + helm upgrade scalar-labs/scalardl-audit -n -f /path/to/ --set auditor.replicaCount=3 + ``` + +## 管理されたデータベースに基づいてデータを復元するための補足手順 + +### Amazon DynamoDB + +PITR 機能を使用すると、Amazon DynamoDB は別のテーブル名でデータを復元します。 したがって、同じテーブル名でデータを復元するには、追加の手順に従う必要があります。 + +#### ステップ + +1. バックアップを作成します。 + 1. 一時停止期間の中間点を復元ポイントとして選択します。 + 2. PITR を使用してテーブル A をテーブル B に復元します。 + 3. 復元されたテーブル B のバックアップを実行します。次に、バックアップの名前がバックアップ B に適切であることを確認します。 + 4. テーブル B を取り外します。 + + PITR を使用して DynamoDB テーブルを復元する方法、および DynamoDB テーブルのバックアップを手動で実行する方法の詳細については、Amazon の次の公式ドキュメントを参照してください。 + + * [Restoring a DynamoDB table to a point in time](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/PointInTimeRecovery.Tutorial.html) + * [Backing up a DynamoDB table](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/Backup.Tutorial.html) + + この **バックアップの作成** ステップは、[Kubernetes 環境で NoSQL データベースをバックアップする](BackupNoSQL.mdx#データを復元する期間を作成しバックアップを実行します) のバックアップ操作の一部として実行できます。 + +2. バックアップから復元します。 + 1. テーブル A を取り外します。 + 2. バックアップ B を使用して、A という名前のテーブルを作成します。 + +3. 環境に応じて、必要に応じてテーブル構成を更新します。 + + 自動スケーリング ポリシーなどの一部の構成は復元後に設定されないため、必要に応じてこれらの構成を手動で設定する必要がある場合があります。 詳細については、Amazon の公式ドキュメント[Backing up and restoring DynamoDB tables with DynamoDB: How it works](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/CreateBackup.html) を参照してください。 + + たとえば、ScalarDB Schema Loader または ScalarDL Schema Loader を使用してテーブルを作成している場合、自動スケーリングはデフォルトで有効になります。 したがって、DynamoDB で復元されたテーブルの自動スケーリングを手動で有効にする必要があります。 DynamoDB で自動スケーリングを有効にする方法の詳細については、Amazon の公式ドキュメント [Enabling DynamoDB auto scaling on existing tables](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/AutoScaling.Console.html#AutoScaling.Console.ExistingTable) を参照してください。 + + さらに、データベースを復元した後は、PITR 機能が無効になり、読み取り/書き込み容量モードがデフォルト値にリセットされます。 環境に応じて、必要に応じてこれらの構成を手動で設定する必要があります。 復元されたテーブルの一部の構成については、[AWS (Amazon DynamoDB) での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ](SetupDatabaseForAWS.mdx#amazon-dynamodb) を参照してください。 + +### NoSQL 用 Azure Cosmos DB + +PITR 機能を使用する場合、Azure Cosmos DB は別のアカウントを使用してデータを復元します。 したがって、カスタム値ファイル内のエンドポイント構成を更新する必要があります。 + +#### ステップ + +1. アカウントを復元します。 PITR を使用して Azure Cosmos DB アカウントを復元する方法の詳細については、[Restore an Azure Cosmos DB account that uses continuous backup mode](https://learn.microsoft.com/en-us/azure/cosmos-db/restore-account-continuous-backup) を参照してください。 + +2. 復元されたアカウントの **デフォルトの整合性レベル** をデフォルト値から **Strong** に変更します。 この値の変更方法の詳細については、Microsoft の公式ドキュメント [Configure the default consistency level](https://learn.microsoft.com/en-us/azure/cosmos-db/nosql/how-to-manage-consistency#configure-the-default-consistency-level) を参照してください。 + +3. 新しく復元されたアカウントに基づいて、ScalarDB Schema Loader または ScalarDL Schema Loader の **database.properties** を更新します。 + + ScalarDB は、ScalarDB Schema Loader または ScalarDL Schema Loader を使用してスキーマを作成するときにインストールされるストアド プロシージャを使用して Cosmos DB アダプターを実装します。 ただし、Cosmos DB の PITR 機能はストアド プロシージャを復元しないため、復元後にすべてのテーブルに必要なストアド プロシージャを再インストールする必要があります。 ScalarDB Schema Loader または ScalarDL Schema Loader の `--repair-all` オプションを使用して、必要なストアド プロシージャを再インストールできます。 + * **ScalarDB テーブル:** ScalarDB Schema Loader の **database.properties** を構成する方法の詳細については、[Configure ScalarDB for Cosmos DB for NoSQL](https://scalardb.scalar-labs.com/docs/latest/getting-started-with-scalardb#set-up-your-database-for-scalardb) を参照してください。 + + * **ScalarDL テーブル:** ScalarDL Schema Loader のカスタム値ファイルの設定方法の詳細については、[Configure a custom values file for ScalarDL Schema Loader](../helm-charts/configure-custom-values-scalardl-schema-loader.mdx) を参照してください。 + +4. 次のように、ScalarDB Schema Loader または ScalarDL Schema Loader で `--repair-all` フラグを使用してストアド プロシージャを再作成します。 + + * ScalarDB テーブル + ```console + java -jar scalardb-schema-loader-.jar --config /path/to/ -f /path/to/ [--coordinator] --repair-all + ``` + * ScalarDL Ledger テーブル + ```console + helm install repair-schema-ledger scalar-labs/schema-loading -n -f /path/to/ --set "schemaLoading.commandArgs={--repair-all}" + ``` + * ScalarDL Auditor テーブル + ```console + helm install repair-schema-auditor scalar-labs/schema-loading -n -f /path/to/ --set "schemaLoading.commandArgs={--repair-all}" + ``` + + ScalarDB Schema Loader でのテーブルの修復の詳細については、[Repair tables](https://scalardb.scalar-labs.com/docs/latest/schema-loader#repair-tables) を参照してください。 + +5. 環境に応じて、必要に応じてテーブル構成を更新します。 復元されたアカウントの構成については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ (Azure Cosmos DB for NoSQL)](SetupDatabaseForAzure.mdx#azure-cosmos-db-for-nosql) を参照してください。 + +### Amazon RDS + +PITR 機能を使用する場合、Amazon RDS は別のデータベース インスタンスを使用してデータを復元します。 したがって、カスタム値ファイル内のエンドポイント構成を更新する必要があります。 + +#### ステップ + +1. データベース インスタンスを復元します。 PITR を使用して Amazon RDS インスタンスを復元する方法の詳細については、Amazon の次の公式ドキュメントを参照してください。 + * [Restoring a DB instance to a specified time](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PIT.html) + * [Restoring a Multi-AZ DB cluster to a specified time](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PIT.MultiAZDBCluster.html) + +2. 環境に応じて、必要に応じてテーブル構成を更新します。 復元されたデータベース インスタンスの構成については、[AWS での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ (Amazon RDS for MySQL、PostgreSQL、Oracle、および SQL Server)](SetupDatabaseForAWS.mdx#mysqlpostgresqloraclesql-server-用の-amazon-rds) を参照してください。 + +### Amazon Aurora + +PITR 機能を使用する場合、Amazon Aurora は別のデータベースクラスターを使用してデータを復元します。 したがって、カスタム値ファイル内のエンドポイント構成を更新する必要があります。 + +#### ステップ + +1. データベースクラスターを復元します。 PITR を使用して Amazon Aurora クラスターを復元する方法の詳細については。 Amazon の公式ドキュメント [Restoring a DB cluster to a specified time](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/aurora-pitr.html) を参照してください。 + +2. 環境に応じて、必要に応じてレプリカ (リーダー) を追加してデータベース クラスターをマルチ AZ クラスターにします。 + + Amazon Aurora の PITR 機能は、マルチ AZ 構成を使用してデータベースクラスターを復元できません。 データベース クラスターをマルチ AZ クラスターとして復元する場合は、データベース クラスターの復元後にリーダーを追加する必要があります。 リーダーの追加方法の詳細については、Amazon の公式ドキュメント [Adding Aurora Replicas to a DB cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/aurora-replicas-adding.html) を参照してください。 + +3. 環境に応じて、必要に応じてテーブル構成を更新します。 復元されたデータベースクラスターの構成については、[AWS での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ (Amazon Aurora MySQL および Amazon Aurora PostgreSQL)](SetupDatabaseForAWS.mdx#amazon-aurora-mysql-と-amazon-aurora-postgresql) を参照してください。 + +### Azure Database for MySQL/PostgreSQL + +PITR 機能を使用する場合、Azure Database for MySQL/PostgreSQL は別のサーバーを使用してデータを復元します。 したがって、カスタム値ファイル内のエンドポイント構成を更新する必要があります。 + +#### ステップ + +1. データベースサーバーを復元します。 PITR を使用して Azure Database for MySQL/PostgreSQL サーバーを復元する方法の詳細については、次を参照してください。 + + * [Point-in-time restore of a Azure Database for MySQL Flexible Server using Azure portal](https://learn.microsoft.com/en-us/azure/mysql/flexible-server/how-to-restore-server-portal) + * [Backup and restore in Azure Database for PostgreSQL - Flexible Server](https://learn.microsoft.com/en-us/azure/postgresql/flexible-server/concepts-backup-restore) + +2. 環境に応じて、必要に応じてテーブル構成を更新します。 復元されたデータベース サーバーの構成については、次を参照してください。 + + * [Azure 上で ScalarDB/ScalarDL デプロイ用のデータベースをセットアップする (Azure Database for MySQL)](SetupDatabaseForAzure.mdx#azure-database-for-mysql) + * [Azure 上で ScalarDB/ScalarDL デプロイ用のデータベースをセットアップする (Azure Database for PostgreSQL)](SetupDatabaseForAzure.mdx#azure-database-for-postgresql) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabase.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabase.mdx new file mode 100644 index 00000000..139c74f0 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabase.mdx @@ -0,0 +1,16 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# ScalarDB/ScalarDL デプロイメント用のデータベースをセットアップする + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このガイドでは、クラウド サービス上で ScalarDB/ScalarDL を展開するためのデータベースをセットアップする方法について説明します。 + +* [AWS での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) +* [Azure 上で ScalarDB/ScalarDL デプロイメント用のデータベースをセットアップする](SetupDatabaseForAzure.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabaseForAWS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabaseForAWS.mdx new file mode 100644 index 00000000..dfc16ae4 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabaseForAWS.mdx @@ -0,0 +1,185 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# AWS で ScalarDB/ScalarDL デプロイメント用のデータベースをセットアップする + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このガイドでは、AWS で ScalarDB/ScalarDL をデプロイするためのデータベースをセットアップする方法について説明します。 + +## Amazon DynamoDB + +### 認証方法 + +DynamoDB を使用する場合、ScalarDB/ScalarDL プロパティ ファイルに `REGION`、`ACCESS_KEY_ID`、および `SECRET_ACCESS_KEY` を次のように設定する必要があります。 + +```properties +scalar.db.contact_points= +scalar.db.username= +scalar.db.password= +scalar.db.storage=dynamo +``` + +DynamoDB のプロパティの詳細については、次のドキュメントを参照してください。 + +* [Configure ScalarDB for DynamoDB](https://scalardb.scalar-labs.com/docs/latest/getting-started-with-scalardb#set-up-your-database-for-scalardb) + +### 必要な構成/手順 + +DynamoDB はデフォルトで AWS で使用できます。 使用するために手動で何かを設定する必要はありません。 + +### オプションの構成/手順 + +#### ポイントインタイムリカバリを有効にする (運用環境で推奨) + +DynamoDB のバックアップ/復元方法として PITR を有効にすることができます。 [ScalarDB Schema Loader](https://scalardb.scalar-labs.com/docs/latest/schema-loader) を使用してスキーマを作成すると、デフォルトでテーブルの PITR 機能が有効になります。 詳細については公式ドキュメントを参照してください。 + +* [Point-in-time recovery for DynamoDB](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/PointInTimeRecovery.html) + +ポイントインタイム リカバリ機能により自動的かつ継続的にバックアップが作成されるため、バックアップ操作のダウンタイム (一時停止期間) を短縮できるため、この機能をお勧めします。 Scalar 製品データのバックアップ/復元方法の詳細については、次のドキュメントを参照してください。 + +* [Scalar 製品のバックアップ復元ガイド](BackupRestoreGuide.mdx) + +#### 監視を構成する (運用環境で推奨) + +DynamoDB のネイティブ機能を使用して、DynamoDB のモニタリングとロギングを設定できます。 詳細については公式ドキュメントを参照してください。 + +* [Monitoring and logging](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/monitoring.html) + +メトリクスとログは、運用環境で問題が発生したときにそれを調査するのに役立つため、これをお勧めします。 + +#### VPC エンドポイントを使用する (本番環境で推奨) + +// この機能は Scalar 製品ではまだテストされていないことに注意してください。 +// TODO: この機能を Scalar 製品でテストする必要があります。 + +* [Using Amazon VPC endpoints to access DynamoDB](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/vpc-endpoints-dynamodb.html) + +WAN 経由ではないプライベート内部接続によりシステムの安全性が高まるため、これをお勧めします。 + +#### 読み取り/書き込み容量の構成 (環境に応じてオプション) + +要件に基づいて、DynamoDB テーブルの **読み取り/書き込み容量** を構成できます。 読み取り/書き込み容量の詳細については、公式ドキュメントを参照してください。 + +* [Read/write capacity mode](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/HowItWorks.ReadWriteCapacityMode.html) + +テーブルの作成時に、ScalarDB/DL Schema Loader を使用して読み取り/書き込み容量を構成できます。 ScalarDB/DL Schema Loader を使用して読み取り/書き込み容量 (RU) を構成する方法の詳細については、次のドキュメントを参照してください。 + +* [ScalarDB Schema Loader](https://scalardb.scalar-labs.com/docs/latest/schema-loader) + +## MySQL、PostgreSQL、Oracle、SQL Server 用の Amazon RDS + +### 認証方法 + +RDS を使用する場合、ScalarDB/ScalarDL プロパティ ファイルに `JDBC_URL`、`USERNAME`、および `PASSWORD` を次のように設定する必要があります。 + +```properties +scalar.db.contact_points= +scalar.db.username= +scalar.db.password= +scalar.db.storage=jdbc +``` + +RDS(JDBCデータベース)のプロパティの詳細については、以下のドキュメントを参照してください。 + +* [Configure ScalarDB for JDBC databases](https://scalardb.scalar-labs.com/docs/latest/getting-started-with-scalardb#set-up-your-database-for-scalardb) + +### 必要な構成/手順 + +#### RDS データベース インスタンスを作成する + +RDS データベース インスタンスを作成する必要があります。 詳細については公式ドキュメントを参照してください。 + +* [Configuring an Amazon RDS DB instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_RDS_Configuring.html) + +### オプションの構成/手順 + +#### 自動バックアップを有効にする (運用環境で推奨) + +自動バックアップを有効にすることができます。 詳細については公式ドキュメントを参照してください。 + +* [Working with backups](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_WorkingWithAutomatedBackups.html) + +自動バックアップ機能によりポイントインタイムリカバリ機能が有効になるため、これをお勧めします。 データを特定の時点まで復元できます。 Scalar 製品で複数のデータベースを使用する場合、バックアップ操作のダウンタイム (一時停止時間) を短縮できます。 Scalar 製品データのバックアップ/復元方法の詳細については、次のドキュメントを参照してください。 + +* [Scalar 製品のバックアップ復元ガイド](BackupRestoreGuide.mdx) + +#### 監視を構成する (運用環境で推奨) + +RDS のネイティブ機能を使用して、RDS の監視とログ記録を構成できます。 詳細については公式ドキュメントを参照してください。 + +* [Monitoring metrics in an Amazon RDS instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Monitoring.html) +* [Monitoring events, logs, and streams in an Amazon RDS DB instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Monitor_Logs_Events.html) + +メトリクスとログは、運用環境で問題が発生したときにそれを調査するのに役立つため、これをお勧めします。 + +#### パブリック アクセスを無効にする (運用環境で推奨) + +パブリックアクセスはデフォルトでは無効になっています。 次のように、EKS クラスター上の Scalar 製品ポッドから RDS データベース インスタンスにアクセスできます。 + +* EKS クラスターと同じ VPC 上に RDS データベース インスタンスを作成します。 +* [VPC peering](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html) を使用して、Scalar 製品デプロイの RDS 用 VPC と EKS クラスター用 VPC を接続します。 (// TODO: この機能を Scalar 製品でテストする必要があります。) + +WAN 経由ではないプライベート内部接続によりシステムの安全性が高まるため、これをお勧めします。 + +## Amazon Aurora MySQL と Amazon Aurora PostgreSQL + +### 認証方法 + +Amazon Aurora を使用する場合、ScalarDB/ScalarDL プロパティ ファイルに `JDBC_URL`、`USERNAME`、および `PASSWORD` を次のように設定する必要があります。 + +```properties +scalar.db.contact_points= +scalar.db.username= +scalar.db.password= +scalar.db.storage=jdbc +``` + +Amazon Aurora (JDBC データベース) のプロパティの詳細については、次のドキュメントを参照してください。 + +* [Configure ScalarDB for JDBC databases](https://scalardb.scalar-labs.com/docs/latest/getting-started-with-scalardb#set-up-your-database-for-scalardb) + +### 必要な構成/手順 + +#### Amazon Aurora DB クラスターを作成する + +Amazon Aurora DB クラスターを作成する必要があります。 詳細については公式ドキュメントを参照してください。 + +* [Configuring your Amazon Aurora DB cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/CHAP_AuroraSettingUp.html) + +### オプションの構成/手順 + +#### バックアップ構成を構成します (環境に応じてオプション) + +Amazon Aurora はデフォルトで自動的にバックアップを取得します。 バックアップ機能を手動で有効にする必要はありません。 + +バックアップ保持期間やバックアップウィンドウなどのバックアップ構成を変更する場合は、それらを構成できます。 詳細については公式ドキュメントを参照してください。 + +* [Backing up and restoring an Amazon Aurora DB cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/BackupRestoreAurora.html) + +Scalar 製品データのバックアップ/復元方法の詳細については、次のドキュメントを参照してください。 + +* [Scalar 製品のバックアップ復元ガイド](BackupRestoreGuide.mdx) + +#### 監視を構成する (運用環境で推奨) + +Amazon Aurora のネイティブ機能を使用して、Amazon Aurora のモニタリングとロギングを設定できます。 詳細については公式ドキュメントを参照してください。 + +* [Monitoring metrics in an Amazon Aurora cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/MonitoringAurora.html) +* [Monitoring events, logs, and streams in an Amazon Aurora DB cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/CHAP_Monitor_Logs_Events.html) + +メトリクスとログは、運用環境で問題が発生したときにそれを調査するのに役立つため、これをお勧めします。 + +#### パブリック アクセスを無効にする (運用環境で推奨) + +パブリックアクセスはデフォルトでは無効になっています。 次のように、EKS クラスター上の Scalar 製品ポッドから Amazon Aurora DB クラスターにアクセスできます。 + +* EKS クラスターと同じ VPC 上に Amazon Aurora DB クラスターを作成します。 +* [VPC peering](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html) を使用して、Scalar 製品デプロイメント用の Amazon Aurora DB クラスターの VPC と EKS クラスターの VPC を接続します。 (// TODO: この機能を Scalar 製品でテストする必要があります。) + +WAN 経由ではないプライベート内部接続によりシステムの安全性が高まるため、これをお勧めします。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabaseForAzure.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabaseForAzure.mdx new file mode 100644 index 00000000..00f79d77 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabaseForAzure.mdx @@ -0,0 +1,209 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# Azure で ScalarDB/ScalarDL デプロイ用のデータベースをセットアップする + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このガイドでは、Azure 上で ScalarDB/ScalarDL デプロイ用のデータベースをセットアップする方法について説明します。 + +## Azure Cosmos DB for NoSQL + +### 認証方法 + +Cosmos DB for NoSQL を使用する場合は、ScalarDB/ScalarDL プロパティ ファイルで `COSMOS_DB_URI` と `COSMOS_DB_KEY` を次のように設定する必要があります。 + +```properties +scalar.db.contact_points= +scalar.db.password= +scalar.db.storage=cosmos +``` + +Cosmos DB for NoSQL のプロパティの詳細については、次のドキュメントを参照してください。 + +* [Configure ScalarDB for Cosmos DB for NoSQL](https://scalardb.scalar-labs.com/docs/latest/getting-started-with-scalardb#set-up-your-database-for-scalardb) + +### 必要な構成/手順 + +#### Azure Cosmos DB アカウントを作成する + +NoSQL (コア) API を使用して Azure Cosmos DB アカウントを作成する必要があります。 **Capacity mode**を作成するときは、**Provisioned throughput**として設定する必要があります。 詳細については公式ドキュメントを参照してください。 + +* [Quickstart: Create an Azure Cosmos DB account, database, container, and items from the Azure portal](https://learn.microsoft.com/en-us/azure/cosmos-db/nosql/quickstart-portal) + +#### デフォルトの整合性構成を構成する + +**Default consistency level**を**Strong**に設定する必要があります。 詳細については公式ドキュメントを参照してください。 + +* [Configure the default consistency level](https://learn.microsoft.com/en-us/azure/cosmos-db/nosql/how-to-manage-consistency#config/ure-the-default-consistency-level) + +### オプションの構成/手順 + +#### バックアップ構成を構成する (実稼働環境で推奨) + +PITR の **Backup modes**を **Continuous backup mode**として構成できます。 詳細については公式ドキュメントを参照してください。 + +* [Backup modes](https://learn.microsoft.com/en-us/azure/cosmos-db/online-backup-and-restore#backup-modes) + +継続バックアップ モードでは自動的かつ継続的にバックアップが取得されるため、バックアップ操作のダウンタイム (一時停止期間) を短縮できるため、このモードをお勧めします。 Scalar 製品データのバックアップ/復元方法の詳細については、次のドキュメントを参照してください。 + +* [Scalar 製品のバックアップ復元ガイド](BackupRestoreGuide.mdx) + +#### Configure monitoring (Recommended in the production environment) + +You can configure the monitoring of Cosmos DB using its native feature. Please refer to the official document for more details. + +* [Monitor Azure Cosmos DB](https://learn.microsoft.com/en-us/azure/cosmos-db/monitor) + +It is recommended since the metrics and logs help you to investigate some issues in the production environment when they happen. + +#### サービス エンドポイントを有効にする (運用環境で推奨) + +仮想ネットワーク (VNet) の特定のサブネットからのアクセスのみを許可するように Azure Cosmos DB アカウントを構成できます。 詳細については公式ドキュメントを参照してください。 + +* [Configure access to Azure Cosmos DB from virtual networks (VNet)](https://learn.microsoft.com/en-us/azure/cosmos-db/how-to-configure-vnet-service-endpoint) + +WAN 経由ではないプライベート内部接続によりシステムの安全性が高まるため、これをお勧めします。 + +#### リクエスト ユニットを構成します (環境に応じてオプション) + +要件に基づいて Cosmos DB の **Request Units** を構成できます。 リクエスト単位の詳細については公式ドキュメントを参照してください。 + +* [Request Units in Azure Cosmos DB](https://learn.microsoft.com/en-us/azure/cosmos-db/request-units) + +テーブルの作成時に、ScalarDB/DL Schema Loader を使用してリクエスト ユニットを構成できます。 ScalarDB/DL Schema Loader を使用してリクエスト ユニット (RU) を構成する方法の詳細については、次のドキュメントを参照してください。 + +* [ScalarDB Schema Loader](https://scalardb.scalar-labs.com/docs/latest/schema-loader) + +## Azure Database for MySQL + +### 認証方法 + +Azure Database for MySQL を使用する場合は、ScalarDB/ScalarDL プロパティ ファイルで `JDBC_URL`、`USERNAME`、および `PASSWORD` を次のように設定する必要があります。 + +```properties +scalar.db.contact_points= +scalar.db.username= +scalar.db.password= +scalar.db.storage=jdbc +``` + +Azure Database for MySQL (JDBC データベース) のプロパティの詳細については、次のドキュメントを参照してください。 + +* [Configure ScalarDB for JDBC databases](https://scalardb.scalar-labs.com/docs/latest/getting-started-with-scalardb#set-up-your-database-for-scalardb) + +### 必要な構成/手順 + +#### データベース サーバーを作成する + +データベースサーバーを作成する必要があります。 詳細については公式ドキュメントを参照してください。 + +* [Quickstart: Use the Azure portal to create an Azure Database for MySQL Flexible Server](https://learn.microsoft.com/en-us/azure/mysql/flexible-server/quickstart-create-server-portal) + +導入には **Single Server** または **Flexible Server** を選択できます。 ただし、Azure では Flexible Server が推奨されます。 このドキュメントは、Flexible Server の使用を前提としています。 導入モデルの詳細については、公式ドキュメントを参照してください。 + +* [What is Azure Database for MySQL?](https://learn.microsoft.com/en-us/azure/mysql/single-server/overview#deployment-models) + +### オプションの構成/手順 + +#### バックアップ構成を構成します (環境に応じてオプション) + +Azure Database for MySQL は、既定でバックアップを取得します。 バックアップ機能を手動で有効にする必要はありません。 + +バックアップの保持期間など、一部のバックアップ構成を変更する場合は、それを構成できます。 詳細については公式ドキュメントを参照してください。 + +* [Backup and restore in Azure Database for MySQL Flexible Server](https://learn.microsoft.com/en-us/azure/mysql/flexible-server/concepts-backup-restore) + +Scalar 製品データのバックアップ/復元方法の詳細については、次のドキュメントを参照してください。 + +* [Scalar 製品のバックアップ復元ガイド](BackupRestoreGuide.mdx) + +#### 監視を構成する (運用環境で推奨) + +Azure Database for MySQL のネイティブ機能を使用して、その監視を構成できます。 詳細については公式ドキュメントを参照してください。 + +* [Monitor Azure Database for MySQL Flexible Server](https://learn.microsoft.com/en-us/azure/mysql/flexible-server/concepts-monitoring) + +メトリクスとログは、運用環境で問題が発生したときにそれを調査するのに役立つため、これをお勧めします。 + +#### パブリック アクセスを無効にする (運用環境で推奨) + +**Private access (VNet Integration)** を **Connectivity method** として構成できます。 詳細については公式ドキュメントを参照してください。 + +* [Connectivity and networking concepts for Azure Database for MySQL - Flexible Server](https://learn.microsoft.com/en-us/azure/mysql/flexible-server/concepts-networking) + +次のように、AKS クラスター上の Scalar 製品ポッドからデータベース サーバーにアクセスできます。 + +* AKS クラスターと同じ VNet 上にデータベース サーバーを作成します。 +* [Virtual network peering](https://learn.microsoft.com/en-us/azure/virtual-network/virtual-network-peering-overview) を使用して、Scalar 製品デプロイのデータベース サーバー用の VNet と AKS クラスター用の VNet を接続します。 (// TODO: この機能を Scalar 製品でテストする必要があります。) + +WAN 経由ではないプライベート内部接続によりシステムの安全性が高まるため、これをお勧めします。 + +## Azure Database for PostgreSQL + +### 認証方法 + +Azure Database for PostgreSQL を使用する場合は、ScalarDB/ScalarDL プロパティ ファイルで `JDBC_URL`、`USERNAME`、および `PASSWORD` を次のように設定する必要があります。 + +```properties +scalar.db.contact_points= +scalar.db.username= +scalar.db.password= +scalar.db.storage=jdbc +``` + +Azure Database for PostgreSQL (JDBC データベース) のプロパティの詳細については、次のドキュメントを参照してください。 + +* [Configure ScalarDB for JDBC databases](https://scalardb.scalar-labs.com/docs/latest/getting-started-with-scalardb#set-up-your-database-for-scalardb) + +### 必要な構成/手順 + +#### データベース サーバーを作成する + +データベースサーバーを作成する必要があります。 詳細については公式ドキュメントを参照してください。 + +* [Quickstart: Create an Azure Database for PostgreSQL - Flexible Server in the Azure portal](https://learn.microsoft.com/en-us/azure/postgresql/flexible-server/quickstart-create-server-portal) + +導入には **Single Server** または **Flexible Server** を選択できます。 ただし、Azure では Flexible Server が推奨されます。 このドキュメントは、Flexible Server の使用を前提としています。 導入モデルの詳細については、公式ドキュメントを参照してください。 + +* [What is Azure Database for PostgreSQL?](https://learn.microsoft.com/en-us/azure/postgresql/single-server/overview#deployment-models) + +### オプションの構成/手順 + +#### バックアップ構成を構成します (環境に応じてオプション) + +Azure Database for PostgreSQL は、既定でバックアップを取得します。 バックアップ機能を手動で有効にする必要はありません。 + +バックアップの保持期間など、一部のバックアップ構成を変更する場合は、それを構成できます。 詳細については公式ドキュメントを参照してください。 + +* [Backup and restore in Azure Database for PostgreSQL - Flexible Server](https://learn.microsoft.com/en-us/azure/postgresql/flexible-server/concepts-backup-restore) + +Scalar 製品データのバックアップ/復元方法の詳細については、次のドキュメントを参照してください。 + +* [Scalar 製品のバックアップ復元ガイド](BackupRestoreGuide.mdx) + +#### 監視を構成する (運用環境で推奨) + +Azure Database for PostgreSQL のネイティブ機能を使用して、その監視を構成できます。 詳細については公式ドキュメントを参照してください。 + +* [Monitor metrics on Azure Database for PostgreSQL - Flexible Server](https://learn.microsoft.com/en-us/azure/postgresql/flexible-server/concepts-monitoring) + +メトリクスとログは、運用環境で問題が発生したときにそれを調査するのに役立つため、これをお勧めします。 + +#### パブリック アクセスを無効にする (運用環境で推奨) + +**Private access (VNet Integration)** を **Connectivity method** として構成できます。 詳細については公式ドキュメントを参照してください。 + +* [Networking overview for Azure Database for PostgreSQL - Flexible Server](https://learn.microsoft.com/en-us/azure/postgresql/flexible-server/concepts-networking) + +次のように、AKS クラスター上の Scalar 製品ポッドからデータベース サーバーにアクセスできます。 + +* AKS クラスターと同じ VNet 上にデータベース サーバーを作成します。 +* [Virtual network peering](https://learn.microsoft.com/en-us/azure/virtual-network/virtual-network-peering-overview) を使用して、Scalar 製品デプロイのデータベース サーバー用の VNet と AKS クラスター用の VNet を接続します。 (// TODO: この機能を Scalar 製品でテストする必要があります。) + +WAN 経由ではないプライベート内部接続によりシステムの安全性が高まるため、これをお勧めします。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/Envoy.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/Envoy.mdx new file mode 100644 index 00000000..441ba8b6 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/Envoy.mdx @@ -0,0 +1,156 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# Envoy アラート + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +## EnvoyClusterDown + +これは最も重要なアラートであり、Envoy クラスターがリクエストを処理できないことを示します。 このアラートは最優先で処理する必要があります。 + +### アラートの例 + +#### ファイアリング + +``` +[FIRING:1] EnvoyClusterDown - critical +Alert: Envoy cluster is down - critical + Description: Envoy cluster is down, no resquest can be process + Details: + • alertname: EnvoyClusterDown + • deployment: prod-scalardl-envoy +``` + +#### 解決済み + +``` +[RESOLVED] EnvoyClusterDown - critical +Alert: Envoy cluster is down - critical + Description: Envoy cluster is down, no resquest can be process + Details: + • alertname: EnvoyClusterDown + • deployment: prod-scalardl-envoy +``` + +### 必要なアクション + +* `kubectl get deployments. prod-scalardl-envoy` で設定されたレプリカの数を確認します。 +* `kubectl describe deployments. prod-scalardl-envoy` はデプロイメントを説明するために設定されたレプリカの数を確認します。 +* `kubectl get node -o wide` でノードのステータスを確認します。 +* ログ サーバーをチェックして、モニター サーバー `/log/kubernetes//-/kube.log` 上の kubernetes ログで障害の根本原因を特定します。 +* 既知の問題があるかどうかをクラウド プロバイダーに確認してください。 たとえば、Azure の彫像は [ここ](https://status.azure.com/en-us/status) で確認できます。 + +## EnvoyClusterDegraded + +このアラートは、Kubernetes クラスターが Envoy ポッドを開始できないかどうかを示します。これは、クラスターにデプロイメントを実行するための十分なリソースがない、または 1 つまたは複数の Kubernetes ノードが失われたことを意味します。 + +### アラートの例 + +#### ファイアリング + +``` +[FIRING:1] EnvoyClusterDegraded - warning +Alert: Envoy cluster is running in a degraded mode - warning + Description: Envoy cluster is running in a degraded mode, some of the Envoy pods are not healthy + Details: + • alertname: EnvoyClusterDegraded + • deployment: prod-scalardl-envoy +``` + +#### 解決済み + +``` +[RESOLVED] EnvoyClusterDegraded - warning +Alert: Envoy cluster is running in a degraded mode - warning + Description: Envoy cluster is running in a degraded mode, some of the Envoy pods are not healthy + Details: + • alertname: EnvoyClusterDegraded + • deployment: prod-scalardl-envoy +``` + +### 必要なアクション + +* ログ サーバーをチェックして、モニター サーバー `/log/kubernetes//-/kube.log` または `kubectl logs prod-scalardl-envoy-xxxx-yyyy` 上の kubernetes ログに関する障害の根本原因を特定します。 +* `kubectl describe deployments prod-scalardl-envoy` で kubernetes のデプロイメントを確認します。 +* `kubectl get replicasets.apps` でレプリカ セットを確認します。 +* `kubectl get node -o wide` でノードのステータスを確認します。 +* 既知の問題があるかどうかをクラウド プロバイダーに確認してください。 たとえば、Azure の彫像は [ここ](https://status.azure.com/en-us/status) で確認できます。 + +## EnvoyPodsPending + +このアラートは、kubernetes クラスターが Envoy ポッドを開始できないかどうか、つまりクラスターに十分なリソースがないことを示します。 + +### アラートの例 + +#### ファイアリング + +``` +[FIRING:1] EnvoyPodsPending - warning +Alert: Pod prod-scalardl-envoy-xxxx-yyyy in namespace default in pending status - warning + Description: Pod prod-scalardl-envoy-xxxx-yyyy in namespace default has been in pending status for more than 1 minute. + Details: + • alertname: EnvoyPodsPending + • deployment: prod-scalardl-envoy +``` + +#### 解決済み + +``` +[RESOLVED:1] EnvoyPodsPending - warning +Alert: Pod prod-scalardl-envoy-xxxx-yyyy in namespace default in pending status - warning + Description: Pod prod-scalardl-envoy-xxxx-yyyy in namespace default has been in pending status for more than 1 minute. + Details: + • alertname: EnvoyPodsPending + • deployment: prod-scalardl-envoy +``` + +### 必要なアクション + +* ログ サーバーをチェックして、モニター サーバー `/log/kube//*.log` 上の kubernetes ログに関する障害の根本原因を特定します。 +* `kubectl describe pod prod-scalardl-envoy-xxxx-yyyy` で Kubernetes デプロイメントを確認します。 + +## EnvoyPodsError + +このアラートは、次のいずれかの理由で Kubernetes クラスターが Envoy ポッドを開始できないかどうかを知らせます。 + +* CrashLoopBackOff +* CreateContainerConfigError +* CreateContainerError +* ErrImagePull +* ImagePullBackOff +* InvalidImageName + +### アラートの例 + +#### ファイアリング + +``` +[FIRING:1] EnvoyPodsError - warning +Alert: Pod prod-scalardl-envoy-xxxx-yyyy in namespace default has an error status - warning + Description: Pod prod-scalardl-envoy-xxxx-yyyy in namespace default has been in pending status for more than 1 minutes. + Details: + • alertname: EnvoyPodsError + • deployment: prod-scalardl-envoy +``` + +#### 解決済み + +``` +[RESOLVED:1] EnvoyPodsError - warning +Alert: Pod prod-scalardl-envoy-xxxx-yyyy in namespace default has an error status - warning + Description: Pod prod-scalardl-envoy-xxxx-yyyy in namespace default has been in pending status for more than 1 minutes. + Details: + • alertname: EnvoyPodsError + • deployment: prod-scalardl-envoy +``` + +### 必要なアクション + +* `kubectl describe pod prod-scalardl-envoy-xxxx-yyyy` で Kubernetes デプロイメントを確認します。 +* ログ サーバーをチェックして、モニター サーバー `/log/kubernetes//-/kube.log` 上の kubernetes ログで障害の根本原因を特定します。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/Ledger.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/Ledger.mdx new file mode 100644 index 00000000..5cd3fe9e --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/Ledger.mdx @@ -0,0 +1,154 @@ +--- +--- + +# Ledger アラート + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +## LedgerClusterDown + +これは最も重要なアラートであり、Ledger クラスターがリクエストを処理できないことを示します。 このアラートは最優先で処理する必要があります。 + +### アラートの例 + +#### ファイアリング + +``` +[FIRING:1] LedgerClusterDown - critical +Alert: Ledger cluster is down - critical + Description: Ledger cluster is down, no resquest can be process. + Details: + • alertname: LedgerClusterDown + • deployment: prod-scalardl-ledger +``` + +#### 解決済み + +``` +[RESOLVED] LedgerClusterDown - critical +Alert: Ledger cluster is down - critical + Description: Ledger cluster is down, no resquest can be process. + Details: + • alertname: LedgerClusterDown + • deployment: prod-scalardl-ledger +``` + +### 必要なアクション + +* `kubectl get deployments. prod-scalardl-ledger` で設定されたレプリカの数を確認します。 +* `kubectl describe deployments. prod-scalardl-ledger` はデプロイメントを説明するために設定されたレプリカの数を確認します。 +* `kubectl get node -o wide` でノードのステータスを確認します。 +* ログ サーバーをチェックして、モニター サーバー `/log/kubernetes//-/kube.log` 上の kubernetes ログで障害の根本原因を特定します。 +* 既知の問題があるかどうかをクラウド プロバイダーに確認してください。 たとえば、Azure の彫像は [ここ](https://status.azure.com/en-us/status) で確認できます。 + +## LedgerClusterDegraded + +このアラートは、Kubernetes クラスターが Ledger ポッドを開始できないかどうかを示します。これは、クラスターにデプロイメントを実行するための十分なリソースがない、または 1 つまたは複数の Kubernetes ノードが失われたことを意味します。 + +### アラートの例 + +#### ファイアリング + +``` +[FIRING:1] LedgerClusterDegraded - warning +Alert: Ledger cluster is running in a degraded mode - warning + Description: Ledger cluster is running in a degraded mode, some of the Ledger pods are not healthy. + Details: + • alertname: LedgerClusterDegraded + • deployment: prod-scalardl-ledger +``` + +#### 解決済み + +``` +[RESOLVED] LedgerClusterDegraded - warning +Alert: Ledger cluster is running in a degraded mode - warning + Description: Ledger cluster is running in a degraded mode, some of the Ledger pods are not healthy. + Details: + • alertname: LedgerClusterDegraded + • deployment: prod-scalardl-ledger +``` + +### 必要なアクション + +* ログ サーバーをチェックして、モニター サーバー `/log/kubernetes//-/kube.log` 上の kubernetes ログに関する障害の根本原因を特定します。 +* `kubectl describe deployments prod-scalardl-ledger` で kubernetes のデプロイメントを確認します。 +* `kubectl get replicasets.apps` でレプリカ セットを確認します。 +* `kubectl get node -o wide` でノードのステータスを確認します。 +* 既知の問題があるかどうかをクラウド プロバイダーに確認してください。 たとえば、Azure の彫像は [ここ](https://status.azure.com/en-us/status) で確認できます。 + +## LedgerPodsPending + +このアラートは、kubernetes クラスターが Ledger ポッドを開始できないかどうか、つまりクラスターに十分なリソースがないことを示します。 + +### アラートの例 + +#### ファイアリング + +``` +[FIRING:1] LedgerPodsPending - warning +Alert: Pod prod-scalardl-ledger-xxxx-yyyy in namespace default in pending status - warning + Description: Pod prod-scalardl-ledger-xxxx-yyyy in namespace default has been in pending status for more than 1 minute. + Details: + • alertname: LedgerPodsPending + • deployment: prod-scalardl-ledger +``` + +#### 解決済み + +``` +[RESOLVED:1] LedgerPodsPending - warning +Alert: Pod prod-scalardl-ledger-xxxx-yyyy in namespace default in pending status - warning + Description: Pod prod-scalardl-ledger-xxxx-yyyy in namespace default has been in pending status for more than 1 minute. + Details: + • alertname: LedgerPodsPending + • deployment: prod-scalardl-ledger +``` + +### 必要なアクション + +* ログ サーバーをチェックして、モニター サーバー `/log/kubernetes//-/kube.log` 上の kubernetes ログに関する障害の根本原因を特定します。 +* `kubectl describe pod prod-scalardl-ledger-xxxx-yyyy` で Kubernetes デプロイメントを確認します。 + +## LedgerPodsError + +このアラートは、次のいずれかの理由で Kubernetes クラスターが Ledger ポッドを開始できないかどうかを知らせます。 + +* CrashLoopBackOff +* CreateContainerConfigError +* CreateContainerError +* ErrImagePull +* ImagePullBackOff +* InvalidImageName + +### アラートの例 + +#### ファイアリング + +``` +[FIRING:1] LedgerPodsError - warning +Alert: Pod prod-scalardl-ledger-xxxx-yyyy in namespace default has an error status - warning + Description: Pod prod-scalardl-ledger-xxxx-yyyy in namespace default has been in pending status for more than 1 minutes. + Details: + • alertname: LedgerPodsError + • deployment: prod-scalardl-ledger +``` + +#### 解決済み + +``` +[RESOLVED:1] LedgerPodsError - warning +Alert: Pod prod-scalardl-ledger-xxxx-yyyy in namespace default has an error status - warning + Description: Pod prod-scalardl-ledger-xxxx-yyyy in namespace default has been in pending status for more than 1 minutes. + Details: + • alertname: LedgerPodsError + • deployment: prod-scalardl-ledger +``` + +### 必要なアクション + +* `kubectl describe pod prod-scalardl-ledger-xxxx-yyyy` で Kubernetes デプロイメントを確認します。 +* ログ サーバーをチェックして、モニター サーバー +* `/log/kubernetes//-/kube.log` 上の kubernetes ログで障害の根本原因を特定します。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/README.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/README.mdx new file mode 100644 index 00000000..72f56b37 --- /dev/null +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/README.mdx @@ -0,0 +1,16 @@ +--- +tags: + - Enterprise Standard + - Enterprise Premium +--- + +# Scalar アラート + +import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; + + + +このセクションでは、アラートの種類と実行する必要があるアクションについて説明します。 + +* [Envoy アラート](Envoy.mdx) +* [Ledger アラート](Ledger.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDB_Cluster_Direct_Kubernetes_Mode.drawio.png b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDB_Cluster_Direct_Kubernetes_Mode.drawio.png new file mode 100644 index 00000000..5ceef088 Binary files /dev/null and b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDB_Cluster_Direct_Kubernetes_Mode.drawio.png differ diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDB_Cluster_Indirect_Mode.drawio.png b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDB_Cluster_Indirect_Mode.drawio.png new file mode 100644 index 00000000..feef0d81 Binary files /dev/null and b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDB_Cluster_Indirect_Mode.drawio.png differ diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDB_Server_App_In_Cluster.drawio.png b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDB_Server_App_In_Cluster.drawio.png new file mode 100644 index 00000000..c6c9e06e Binary files /dev/null and b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDB_Server_App_In_Cluster.drawio.png differ diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDB_Server_App_Out_Cluster.drawio.png b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDB_Server_App_Out_Cluster.drawio.png new file mode 100644 index 00000000..028fbe7c Binary files /dev/null and b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDB_Server_App_Out_Cluster.drawio.png differ diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDL_Auditor_Multi_Account.drawio.png b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDL_Auditor_Multi_Account.drawio.png new file mode 100644 index 00000000..76e1aa16 Binary files /dev/null and b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDL_Auditor_Multi_Account.drawio.png differ diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDL_Auditor_Multi_Namespace.drawio.png b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDL_Auditor_Multi_Namespace.drawio.png new file mode 100644 index 00000000..026b4a2d Binary files /dev/null and b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDL_Auditor_Multi_Namespace.drawio.png differ diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDL_Auditor_Multi_VNet.drawio.png b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDL_Auditor_Multi_VNet.drawio.png new file mode 100644 index 00000000..92eba96d Binary files /dev/null and b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDL_Auditor_Multi_VNet.drawio.png differ diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDL_Ledger.drawio.png b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDL_Ledger.drawio.png new file mode 100644 index 00000000..9ee4fd22 Binary files /dev/null and b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/AKS_ScalarDL_Ledger.drawio.png differ diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDB_Cluster_Direct_Kubernetes_Mode.drawio.png b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDB_Cluster_Direct_Kubernetes_Mode.drawio.png new file mode 100644 index 00000000..00fef239 Binary files /dev/null and b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDB_Cluster_Direct_Kubernetes_Mode.drawio.png differ diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDB_Cluster_Indirect_Mode.drawio.png b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDB_Cluster_Indirect_Mode.drawio.png new file mode 100644 index 00000000..db122e17 Binary files /dev/null and b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDB_Cluster_Indirect_Mode.drawio.png differ diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDB_Server_App_In_Cluster.drawio.png b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDB_Server_App_In_Cluster.drawio.png new file mode 100644 index 00000000..c49fbe4f Binary files /dev/null and b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDB_Server_App_In_Cluster.drawio.png differ diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDB_Server_App_Out_Cluster.drawio.png b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDB_Server_App_Out_Cluster.drawio.png new file mode 100644 index 00000000..d8dcde16 Binary files /dev/null and b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDB_Server_App_Out_Cluster.drawio.png differ diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDL_Auditor_Multi_Account.drawio.png b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDL_Auditor_Multi_Account.drawio.png new file mode 100644 index 00000000..1d9e7889 Binary files /dev/null and b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDL_Auditor_Multi_Account.drawio.png differ diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDL_Auditor_Multi_Namespace.drawio.png b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDL_Auditor_Multi_Namespace.drawio.png new file mode 100644 index 00000000..bea249f3 Binary files /dev/null and b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDL_Auditor_Multi_Namespace.drawio.png differ diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDL_Auditor_Multi_VPC.drawio.png b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDL_Auditor_Multi_VPC.drawio.png new file mode 100644 index 00000000..30d5af46 Binary files /dev/null and b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDL_Auditor_Multi_VPC.drawio.png differ diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDL_Ledger.drawio.png b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDL_Ledger.drawio.png new file mode 100644 index 00000000..ce5fd7b5 Binary files /dev/null and b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/images/png/EKS_ScalarDL_Ledger.drawio.png differ