Skip to content

Commit 5cda3db

Browse files
Update all translated document pages (#508)
Co-authored-by: github-actions[bot] <github-actions[bot]@users.noreply.github.com>
1 parent acfe05c commit 5cda3db

Some content is hidden

Large Commits have some content hidden by default. Use the searchbox below for content that may be hidden.

48 files changed

+1168
-1144
lines changed

docs/src/content/docs/ja/extensions/ai-sdk.mdx

Lines changed: 13 additions & 16 deletions
Original file line numberDiff line numberDiff line change
@@ -7,12 +7,12 @@ import { Aside, Steps, Code } from '@astrojs/starlight/components';
77
import aiSdkSetupExample from '../../../../../../examples/docs/extensions/ai-sdk-setup.ts?raw';
88

99
<Aside type="caution">
10-
このアダプターはまだベータ版です。特に小規模なモデルプロバイダーでは問題が発生することがあります。問題は
10+
このアダプターはまだベータ版です。特に小規模なモデルプロバイダーでは問題が発生する可能性があります。問題があれば
1111
[GitHub issues](https://github.com/openai/openai-agents-js/issues)
12-
に報告してください。迅速に対応します
12+
から報告してください。迅速に修正します
1313
</Aside>
1414

15-
Agents SDK は標準で OpenAI モデルに対して Responses API または Chat Completions API を通じて動作します。別のモデルを使用したい場合は、[Vercel's AI SDK](https://sdk.vercel.ai/) がサポートする幅広いモデルを、このアダプターを介して Agents SDK に取り込むことができます
15+
Agents SDK は標準で Responses API または Chat Completions API を通じて OpenAI モデルで動作します。ただし、他のモデルを使用したい場合は、[VercelAI SDK](https://sdk.vercel.ai/) がサポートするさまざまなモデルをこのアダプター経由で Agents SDK に組み込めます
1616

1717
## セットアップ
1818

@@ -24,46 +24,41 @@ Agents SDK は標準で OpenAI モデルに対して Responses API または Cha
2424
npm install @openai/agents-extensions
2525
```
2626

27-
2. [Vercel's AI SDK](https://ai-sdk.dev/docs/foundations/providers-and-models) から目的のモデルパッケージを選び、インストールします:
27+
2. [VercelAI SDK](https://ai-sdk.dev/docs/foundations/providers-and-models) から目的のモデルパッケージを選んでインストールします:
2828

2929
```bash
3030
npm install @ai-sdk/openai
3131
```
3232

33-
3. アダプターとモデルをインポートして、エージェントに接続します:
33+
3. アダプターとモデルをインポートしてエージェントに接続します:
3434

3535
```typescript
3636
import { openai } from '@ai-sdk/openai';
3737
import { aisdk } from '@openai/agents-extensions';
3838
```
3939

40-
4. エージェントが使用するモデルのインスタンスを初期化します:
40+
4. エージェントで使用するモデルのインスタンスを初期化します:
4141

4242
```typescript
43-
const model = aisdk(openai('o4-mini'));
43+
const model = aisdk(openai('gpt-5-mini'));
4444
```
4545

4646
</Steps>
4747

4848
<Aside type="caution">
4949
現在、ai-sdk の model provider v2 モジュールをサポートしており、これは Vercel
5050
AI SDK v5 と互換性があります。特別な理由で v1 の model provider
51-
を使い続けたい場合は、
52-
[examples/ai-sdk-v1](https://github.com/openai/openai-agents-js/tree/main/examples/ai-sdk-v1)
51+
を使い続ける必要がある場合は、[examples/ai-sdk-v1](https://github.com/openai/openai-agents-js/tree/main/examples/ai-sdk-v1)
5352
からモジュールをコピーしてプロジェクトに含めてください。
5453
</Aside>
5554

5655
##
5756

58-
<Code
59-
lang="typescript"
60-
code={aiSdkSetupExample}
61-
title="AI SDK のセットアップ"
62-
/>
57+
<Code lang="typescript" code={aiSdkSetupExample} title="AI SDK Setup" />
6358

64-
## プロバイダーのメタデータの受け渡し
59+
## プロバイダー メタデータの受け渡し
6560

66-
メッセージにプロバイダー固有のオプションを送る必要がある場合は、`providerMetadata` を通して渡します。値は基盤となる AI SDK モデルへそのまま転送されます。例えば、Agents SDK で次の `providerData`
61+
メッセージにプロバイダー固有のオプションを送る必要がある場合は、`providerMetadata` に渡します。値は基盤となる AI SDK モデルにそのまま転送されます。たとえば、Agents SDK で次の `providerData`
6762

6863
```ts
6964
providerData: {
@@ -86,3 +81,5 @@ providerMetadata: {
8681
}
8782
}
8883
```
84+
85+
となります。

docs/src/content/docs/ja/extensions/twilio.mdx

Lines changed: 25 additions & 24 deletions
Original file line numberDiff line numberDiff line change
@@ -7,37 +7,37 @@ import { Aside, Steps, Code } from '@astrojs/starlight/components';
77
import twilioBasicExample from '../../../../../../examples/docs/extensions/twilio-basic.ts?raw';
88
import twilioServerExample from '../../../../../../examples/realtime-twilio/index.ts?raw';
99

10-
Twilio は、電話の通話音声の元オーディオを WebSocket サーバーへ送信する [Media Streams API](https://www.twilio.com/docs/voice/media-streams) を提供しています。このセットアップを使って、あなたの [音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を Twilio に接続できます。Twilio から届くイベントを Realtime Session に接続するには、`websocket` モードのデフォルトの Realtime Session transport が使えます。ただし、その場合は適切なオーディオ形式の設定や、Web ベースの会話よりも通話のほうが自然にレイテンシが大きくなるため、割り込みタイミングを自分で調整する必要があります
10+
Twilio は、電話の **raw** オーディオを WebSocket サーバーに送信する [Media Streams API](https://www.twilio.com/docs/voice/media-streams) を提供します。これを使って、[音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を Twilio に接続できます。Twilio から届くイベントを Realtime Session に接続するには、`websocket` モードのデフォルトの Realtime Session トランスポートを使用できます。ただし、通話は Web ベースの会話より遅延が大きくなるため、適切なオーディオ形式の設定と中断タイミングの調整が必要です
1111

12-
セットアップ体験を改善するために、Twilio への接続を処理し、割り込み処理や音声転送も行う専用のトランスポートレイヤーを用意しました
12+
セットアップを簡素化するため、Twilio への接続、中断処理、オーディオ転送を代行する専用のトランスポートレイヤーを用意しました
1313

1414
<Aside type="caution">
15-
このアダプターはまだベータ版です。レアケースの問題やバグに遭遇する可能性があります
16-
問題があれば [GitHub
15+
このアダプターはまだベータ版です。稀なケースで問題やバグに遭遇する場合があります
16+
問題が発生した場合は [GitHub
1717
issues](https://github.com/openai/openai-agents-js/issues)
18-
に報告してください。すぐに修正します
18+
からご報告ください。迅速に対応します
1919
</Aside>
2020

2121
## セットアップ
2222

2323
<Steps>
2424

25-
1. **Twilio アカウントと Twilio の電話番号を用意すること**
25+
1. **Twilio アカウントと Twilio の電話番号を用意します。**
2626

27-
2. **Twilio からのイベントを受け取れる WebSocket サーバーをセットアップすること**
27+
2. **Twilio からのイベントを受け取れる WebSocket サーバーを用意します。**
2828

29-
ローカル開発の場合[`ngrok`](https://ngrok.io/)
29+
ローカル開発の場合は[`ngrok`](https://ngrok.io/)
3030
[Cloudflare Tunnel](https://developers.cloudflare.com/pages/how-to/preview-with-cloudflare-tunnel/)
31-
のようなローカルトンネルの設定が必要になり、ローカルサーバーを Twilio からアクセス可能にする必要があります。`TwilioRealtimeTransportLayer`
31+
などでローカルトンネルを設定し、ローカルサーバーを Twilio からアクセス可能にする必要があります。`TwilioRealtimeTransportLayer`
3232
を使って Twilio に接続できます。
3333

34-
3. **エクステンションパッケージをインストールして Twilio アダプターを導入すること:**
34+
3. **extensions パッケージをインストールして Twilio アダプターを導入します:**
3535

3636
```bash
3737
npm install @openai/agents-extensions
3838
```
3939

40-
4. **アダプターとモデルをインポートして`RealtimeSession` に接続すること:**
40+
4. **アダプターとモデルをインポートして `RealtimeSession` に接続します:**
4141

4242
<Code
4343
lang="typescript"
@@ -47,39 +47,40 @@ Twilio は、電話の通話音声の元オーディオを WebSocket サーバ
4747
)}
4848
/>
4949

50-
5. **`RealtimeSession` を Twilio に接続すること:**
50+
5. **`RealtimeSession` を Twilio に接続します:**
5151

5252
```typescript
5353
session.connect({ apiKey: 'your-openai-api-key' });
5454
```
5555

5656
</Steps>
5757

58-
`RealtimeSession` で期待されるあらゆるイベントや挙動は、ツール呼び出しやガードレールなども含めて期待どおりに動作します`RealtimeSession` を音声エージェントと使う方法については[音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を参照してください。
58+
`RealtimeSession` に期待されるイベントや動作は、ツール呼び出しやガードレールなどを含めて、そのまま機能します`RealtimeSession` を音声エージェントで使う方法の詳細は[音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を参照してください。
5959

6060
## ヒントと考慮事項
6161

62-
1. **スピードがすべてです**
62+
1. **スピードが最重要です。**
6363

64-
Twilio から必要なイベントと音声をすべて受け取るには、WebSocket 接続の参照を取得したらすぐに
65-
`TwilioRealtimeTransportLayer` インスタンスを作成し、その直後に `session.connect()` を呼び出すべきです
64+
Twilio から必要なイベントとオーディオを受け取るには、WebSocket 接続の参照を取得したらすぐに
65+
`TwilioRealtimeTransportLayer` インスタンスを作成し、直ちに `session.connect()` を呼び出してください
6666

67-
2. **Twilio の生イベントにアクセスする**
67+
2. **Twilio の raw イベントにアクセスします。**
6868

69-
Twilio から送られてくる元のイベントにアクセスしたい場合は、`RealtimeSession` インスタンスの
70-
`transport_event` をリッスンします。Twilio からのすべてのイベントは `twilio_message` という type を持ち、元のイベントデータを含む `message` プロパティがあります。
69+
Twilio が送信する **raw** イベントにアクセスしたい場合は、`RealtimeSession` インスタンスの
70+
`transport_event` をリッスンします。Twilio からのすべてのイベントは `twilio_message` という type を持ち、
71+
**raw** イベントデータを含む `message` プロパティを持ちます。
7172

72-
3. **デバッグログを確認する**
73+
3. **デバッグログを確認します。**
7374

74-
何が起きているかについて、より多くの情報が必要になることがあります。環境変数 `DEBUG=openai-agents*` を使うとAgents SDK のすべてのデバッグログが表示されます。あるいは、Twilio アダプターのデバッグログだけを有効にするには
75-
`DEBUG=openai-agents:extensions:twilio*` を使います
75+
状況を詳しく把握したい場合は、環境変数 `DEBUG=openai-agents*` を使うと Agents SDK のすべてのデバッグログが表示されます。
76+
もしくは、`DEBUG=openai-agents:extensions:twilio*` で Twilio アダプターのデバッグログだけを有効にできます
7677

7778
## 完全なサーバー例
7879

79-
以下は、Twilio からのリクエストを受け取り、`RealtimeSession` に転送するエンドツーエンドの WebSocket サーバーの例です
80+
以下は、Twilio からのリクエストを受け取り、`RealtimeSession` に転送する WebSocket サーバーのエンドツーエンドのサンプルです
8081

8182
<Code
8283
lang="typescript"
8384
code={twilioServerExample}
84-
title="Fastify を使ったサーバー例"
85+
title="Fastify を使用したサーバー例"
8586
/>

0 commit comments

Comments
 (0)