Skip to content

Commit ea67759

Browse files
Update all translated document pages (#655)
1 parent cc6da3d commit ea67759

Some content is hidden

Large Commits have some content hidden by default. Use the searchbox below for content that may be hidden.

78 files changed

+1904
-1821
lines changed

docs/src/content/docs/ja/extensions/ai-sdk.mdx

Lines changed: 15 additions & 13 deletions
Original file line numberDiff line numberDiff line change
@@ -7,37 +7,37 @@ import { Aside, Steps, Code } from '@astrojs/starlight/components';
77
import aiSdkSetupExample from '../../../../../../examples/docs/extensions/ai-sdk-setup.ts?raw';
88

99
<Aside type="caution">
10-
このアダプターはまだベータ版です。特に小規模なモデルプロバイダーでは問題が発生する可能性があります。問題があれば
10+
このアダプターはまだベータ版です。特に規模の小さいモデルプロバイダーでは問題が発生する可能性があります。問題があれば
1111
[GitHub issues](https://github.com/openai/openai-agents-js/issues)
1212
からご報告ください。迅速に修正します。
1313
</Aside>
1414

15-
Agents SDK は標準で OpenAI モデルに対して Responses API または Chat Completions API 経由で動作します。なお、別のモデルを使用したい場合は、[Vercel の AI SDK](https://sdk.vercel.ai/) がサポートする幅広いモデルを、このアダプターを通じて Agents SDK に組み込めます
15+
Agents SDK は標準で OpenAI のモデルに対して Responses API または Chat Completions API を通じて動作します。ただし、別のモデルを使用したい場合は、このアダプターを通じて [Vercel の AI SDK](https://sdk.vercel.ai/) がサポートする幅広いモデルを Agents SDK に取り込むことができます
1616

1717
## セットアップ
1818

1919
<Steps>
2020

21-
1. 拡張パッケージをインストールして AI SDK アダプターを導入します:
21+
1. extensions パッケージをインストールして AI SDK アダプターを導入します:
2222

2323
```bash
2424
npm install @openai/agents-extensions
2525
```
2626

27-
2. [Vercel の AI SDK](https://ai-sdk.dev/docs/foundations/providers-and-models) から使用したいモデルのパッケージを選び、インストールします:
27+
2. [Vercel の AI SDK](https://ai-sdk.dev/docs/foundations/providers-and-models) から使用したいモデルパッケージを選び、インストールします:
2828

2929
```bash
3030
npm install @ai-sdk/openai
3131
```
3232

33-
3. アダプターとモデルをインポートして、エージェントに接続します:
33+
3. アダプターとモデルをインポートしてエージェントに接続します:
3434

3535
```typescript
3636
import { openai } from '@ai-sdk/openai';
3737
import { aisdk } from '@openai/agents-extensions';
3838
```
3939

40-
4. エージェントで使用するモデルのインスタンスを初期化します:
40+
4. エージェントが使用するモデルのインスタンスを初期化します:
4141

4242
```typescript
4343
const model = aisdk(openai('gpt-5-mini'));
@@ -46,19 +46,23 @@ Agents SDK は標準で OpenAI モデルに対して Responses API または Cha
4646
</Steps>
4747

4848
<Aside type="caution">
49-
現在、ai-sdk のモデルプロバイダー v2 モジュール(Vercel AI SDK v5
50-
と互換)をサポートしています。特別な理由で v1
49+
現在、ai-sdk のモデルプロバイダー v2 モジュールに対応しており、これは Vercel
50+
AI SDK v5 と互換性があります。特別な理由で v1
5151
のモデルプロバイダーを使い続ける必要がある場合は、[examples/ai-sdk-v1](https://github.com/openai/openai-agents-js/tree/main/examples/ai-sdk-v1)
5252
からモジュールをコピーしてプロジェクトに含めてください。
5353
</Aside>
5454

5555
##
5656

57-
<Code lang="typescript" code={aiSdkSetupExample} title="AI SDK Setup" />
57+
<Code
58+
lang="typescript"
59+
code={aiSdkSetupExample}
60+
title="AI SDK のセットアップ"
61+
/>
5862

59-
## プロバイダー メタデータの指定
63+
## プロバイダーのメタデータの受け渡し
6064

61-
メッセージにプロバイダー固有のオプションを送る必要がある場合は`providerMetadata` に渡します。値は基盤となる AI SDK のモデルにそのままフォワードされます。たとえば、Agents SDK で次の `providerData`
65+
メッセージにプロバイダー固有のオプションを付与する必要がある場合は`providerMetadata` を通して渡します。値は基盤となる AI SDK のモデルにそのまま転送されます。たとえば、Agents SDK で次の `providerData`
6266

6367
```ts
6468
providerData: {
@@ -81,5 +85,3 @@ providerMetadata: {
8185
}
8286
}
8387
```
84-
85-

docs/src/content/docs/ja/extensions/cloudflare.mdx

Lines changed: 8 additions & 7 deletions
Original file line numberDiff line numberDiff line change
@@ -6,13 +6,14 @@ description: Connect your Agents SDK agents from Cloudflare Workers/workerd usin
66
import { Aside, Steps, Code } from '@astrojs/starlight/components';
77
import cloudflareBasicExample from '../../../../../../examples/docs/extensions/cloudflare-basic.ts?raw';
88

9-
Cloudflare Workers とその他の workerd ランタイムでは、グローバルな `WebSocket` コンストラクターを使った外向きの WebSocket 接続を開けません。これらの環境から リアルタイムエージェント に簡単に接続できるように、extensions パッケージは内部で `fetch()` ベースのアップグレードを行う専用のトランスポートを提供します
9+
Cloudflare Workers とその他の workerd ランタイムでは、グローバル `WebSocket` コンストラクタを使った外向き WebSocket 接続を開けません。これらの環境から Realtime Agents への接続を簡単にするため、extensions パッケージは `fetch()` ベースのアップグレードを内部で行う専用のトランスポートを提供します
1010

1111
<Aside type="caution">
12-
このアダプターはまだベータ版です。稀なケースの問題やバグに遭遇する可能性があります。
13-
問題は [GitHub issues](https://github.com/openai/openai-agents-js/issues)
14-
からご報告ください。迅速に修正します。Workers で Node.js 風の API
15-
を使いたい場合は、`nodejs_compat` の有効化を検討してください。
12+
このアダプターはまだベータ版です。まれなケースで問題やバグに遭遇する可能性があります。
13+
問題があれば [GitHub
14+
issues](https://github.com/openai/openai-agents-js/issues)
15+
からご報告ください。迅速に修正します。Workers で Node.js 風 API が必要な場合は
16+
`nodejs_compat` の有効化を検討してください。
1617
</Aside>
1718

1819
## セットアップ
@@ -39,6 +40,6 @@ Cloudflare Workers とその他の workerd ランタイムでは、グローバ
3940

4041
## 注意事項
4142

42-
- Cloudflare のトランスポートは内部で `Upgrade: websocket` 付きの `fetch()` を使用し、ソケットの `open` イベントを待たずに処理します。これは workerd の API に合わせた動作です
43+
- Cloudflare トランスポートは内部で `Upgrade: websocket` 付きの `fetch()` を使用し、ソケットの `open` イベントを待たずに進むため、workerd の API に合わせています
4344
- このトランスポートを使用しても、すべての `RealtimeSession` 機能(tools、ガードレール など)は通常どおり動作します
44-
- 開発中の詳細ログを確認するには `DEBUG=openai-agents*` を使用してください
45+
- 開発中の詳細ログの確認には `DEBUG=openai-agents*` を使用します

docs/src/content/docs/ja/extensions/twilio.mdx

Lines changed: 22 additions & 20 deletions
Original file line numberDiff line numberDiff line change
@@ -7,14 +7,15 @@ import { Aside, Steps, Code } from '@astrojs/starlight/components';
77
import twilioBasicExample from '../../../../../../examples/docs/extensions/twilio-basic.ts?raw';
88
import twilioServerExample from '../../../../../../examples/realtime-twilio/index.ts?raw';
99

10-
Twilio は、電話の通話音声の 元 audio を WebSocket サーバーへ送る [Media Streams API](https://www.twilio.com/docs/voice/media-streams) を提供しています。このセットアップを使うと[音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を Twilio に接続できます。既定の Realtime Session transport を `websocket` モードで使用して、Twilio から来るイベントを Realtime Session に接続できます。ただし、電話は Web ベースの会話よりも遅延が大きくなりがちなため、適切な音声フォーマットを設定し、割り込みタイミングを自前で調整する必要があります
10+
Twilio は、電話からの元音声を WebSocket サーバーに送信する [Media Streams API](https://www.twilio.com/docs/voice/media-streams) を提供しています。このセットアップを使って[音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を Twilio に接続できます。Twilio からのイベントを Realtime Session に接続するには、`websocket` モードのデフォルトの Realtime Session トランスポートを使用できます。ただし、電話は Web ベースの会話よりも遅延が大きくなるため、適切な音声フォーマットの設定や、割り込みタイミングの調整が必要になります
1111

12-
セットアップの体験を向上させるため、Twilio への接続や割り込み処理、音声の転送までを代わりに処理する専用のトランスポート層を用意しました
12+
セットアップ体験を改善するために、Twilio への接続、割り込み処理、音声転送を扱う専用のトランスポートレイヤーを用意しました
1313

1414
<Aside type="caution">
1515
このアダプターはまだベータ版です。レアケースの問題やバグに遭遇する可能性があります。
16-
問題は [GitHub issues](https://github.com/openai/openai-agents-js/issues)
17-
からご報告ください。迅速に修正します。
16+
問題があれば [GitHub
17+
issues](https://github.com/openai/openai-agents-js/issues)
18+
に報告してください。迅速に修正します。
1819
</Aside>
1920

2021
## セットアップ
@@ -23,14 +24,14 @@ Twilio は、電話の通話音声の 元 audio を WebSocket サーバーへ送
2324

2425
1. **Twilio アカウントと Twilio の電話番号を用意します。**
2526

26-
2. **Twilio からのイベントを受け取れる WebSocket サーバーをセットアップします。**
27+
2. **Twilio からのイベントを受信できる WebSocket サーバーをセットアップします。**
2728

28-
ローカルで開発する場合は[`ngrok`](https://ngrok.io/)
29+
ローカルで開発している場合は[`ngrok`](https://ngrok.io/)
2930
[Cloudflare Tunnel](https://developers.cloudflare.com/pages/how-to/preview-with-cloudflare-tunnel/)
30-
のようなローカルトンネルの設定が必要になり、Twilio からローカルの サーバー にアクセスできるようにします`TwilioRealtimeTransportLayer`
31+
などのローカルトンネルを設定して、ローカルサーバーを Twilio からアクセス可能にする必要があります`TwilioRealtimeTransportLayer`
3132
を使って Twilio に接続できます。
3233

33-
3. **extensions パッケージをインストールして Twilio アダプターを導入します:**
34+
3. **拡張パッケージをインストールして Twilio アダプターを導入します:**
3435

3536
```bash
3637
npm install @openai/agents-extensions
@@ -54,31 +55,32 @@ Twilio は、電話の通話音声の 元 audio を WebSocket サーバーへ送
5455

5556
</Steps>
5657

57-
`RealtimeSession` に期待されるあらゆるイベントや動作は、ツール呼び出し、ガードレールなどを含め、期待どおりに機能します`RealtimeSession` を音声エージェントで使う方法の詳細は[音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を参照してください。
58+
`RealtimeSession` から期待されるイベントや動作は、ツール呼び出しやガードレールなどを含めてそのまま機能します`RealtimeSession` を音声エージェントと併用する方法の詳細は[音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を参照してください。
5859

5960
## ヒントと考慮事項
6061

61-
1. **速度が最重要です**
62+
1. **スピードが最優先です**
6263

63-
Twilio から必要なイベントや音声をすべて受け取るために、WebSocket 接続の参照を取得したらすぐに
64-
`TwilioRealtimeTransportLayer` インスタンスを作成し、直後に `session.connect()` を呼び出してください。
64+
Twilio から必要なイベントと音声をすべて受け取るには、WebSocket 接続の参照を取得したらすぐに
65+
`TwilioRealtimeTransportLayer` インスタンスを作成し、その直後に `session.connect()` を呼び出してください。
6566

66-
2. **Twilio の 元 イベントへアクセスします**
67+
2. **Twilio の元イベントにアクセスします**
6768

68-
Twilio から送信される 元 イベントへアクセスしたい場合は、`RealtimeSession` インスタンスの
69-
`transport_event` をリッスンします。Twilio のすべてのイベントは `twilio_message` という type を持ち、 元 イベントデータを含む `message` プロパティがあります。
69+
Twilio が送信する元イベントにアクセスしたい場合は、`RealtimeSession` インスタンスの
70+
`transport_event` イベントをリッスンします。Twilio からのすべてのイベントは `twilio_message` の type を持ち、
71+
元イベントデータが入った `message` プロパティを含みます。
7072

7173
3. **デバッグログを確認します。**
7274

73-
何が起きているかの詳細が必要になることがあります。環境変数 `DEBUG=openai-agents*` を使うと Agents SDK のすべてのデバッグログが表示されます。
74-
あるいは、`DEBUG=openai-agents:extensions:twilio*` を使って Twilio アダプターのデバッグログだけを有効化できます
75+
状況の詳細が必要になることがあります。環境変数 `DEBUG=openai-agents*` を使うと Agents SDK のすべてのデバッグログが表示されます。
76+
あるいは、`DEBUG=openai-agents:extensions:twilio*` を使用して Twilio アダプターのデバッグログのみに絞ることもできます
7577

76-
## サーバーのフル例
78+
## 完全なサーバーの例
7779

78-
以下は、Twilio からのリクエストを受け取り、`RealtimeSession` に転送する WebSocket サーバーのエンドツーエンドの例です。
80+
以下は、Twilio からのリクエストを受け取り、それらを `RealtimeSession` に転送する WebSocket サーバーのエンドツーエンドの例です。
7981

8082
<Code
8183
lang="typescript"
8284
code={twilioServerExample}
83-
title="Example server using Fastify"
85+
title="Fastify を使ったサーバー例"
8486
/>

0 commit comments

Comments
 (0)