Skip to content

Commit 624dfff

Browse files
Update all translated document pages (#457)
Co-authored-by: github-actions[bot] <github-actions[bot]@users.noreply.github.com>
1 parent 7fa0434 commit 624dfff

24 files changed

+593
-576
lines changed

docs/src/content/docs/ja/extensions/ai-sdk.mdx

Lines changed: 14 additions & 14 deletions
Original file line numberDiff line numberDiff line change
@@ -8,36 +8,36 @@ import aiSdkSetupExample from '../../../../../../examples/docs/extensions/ai-sdk
88

99
<Aside type="caution">
1010
このアダプターはまだベータ版です。特に小規模なモデルプロバイダーでは問題が発生する可能性があります。問題があれば
11-
[GitHub issues](https://github.com/openai/openai-agents-js/ja/issues)
12-
から報告してください。迅速に対応します。
11+
[GitHub issues](https://github.com/openai/openai-agents-js/issues)
12+
からご報告ください。迅速に対応します。
1313
</Aside>
1414

15-
標準で Agents SDK は Responses API または Chat Completions API を通じて OpenAI モデルで動作します。ただし、別のモデルを使いたい場合は、[Vercel の AI SDK](https://sdk.vercel.ai/) がサポートする多様なモデルを、このアダプター経由で Agents SDK に取り込むことができます
15+
デフォルトで Agents SDK は Responses API または Chat Completions API を通じて OpenAI モデルと連携します。別のモデルを使用したい場合は、[Vercel の AI SDK](https://sdk.vercel.ai/) がサポートする幅広いモデルを、このアダプターを介して Agents SDK に取り込めます
1616

1717
## セットアップ
1818

1919
<Steps>
2020

21-
1. 拡張パッケージをインストールして AI SDK アダプターを導入します:
21+
1. 拡張機能パッケージをインストールして AI SDK アダプターを導入します:
2222

2323
```bash
2424
npm install @openai/agents-extensions
2525
```
2626

27-
2. [Vercel の AI SDK](https://ai-sdk.dev/docs/foundations/providers-and-models) から使いたいモデルパッケージを選び、インストールします:
27+
2. [Vercel の AI SDK](https://ai-sdk.dev/docs/foundations/providers-and-models) から使用したいモデルのパッケージを選び、インストールします:
2828

2929
```bash
3030
npm install @ai-sdk/openai
3131
```
3232

33-
3. アダプターとモデルをインポートし、エージェントに接続します:
33+
3. アダプターとモデルをインポートして、エージェントに接続します:
3434

3535
```typescript
3636
import { openai } from '@ai-sdk/openai';
3737
import { aisdk } from '@openai/agents-extensions';
3838
```
3939

40-
4. エージェントが使用するモデルのインスタンスを初期化します:
40+
4. エージェントで使用するモデルのインスタンスを初期化します:
4141

4242
```typescript
4343
const model = aisdk(openai('o4-mini'));
@@ -46,10 +46,10 @@ import aiSdkSetupExample from '../../../../../../examples/docs/extensions/ai-sdk
4646
</Steps>
4747

4848
<Aside type="caution">
49-
現在、ai-sdk のモデルプロバイダー v2 モジュール(Vercel AI SDK v5
50-
と互換)に対応しています。特別な理由で v1
51-
のモデルプロバイダーを使い続ける必要がある場合は[examples/ai-sdk-v1](https://github.com/openai/openai-agents-js/ja/tree/main/examples/ai-sdk-v1)
52-
からモジュールをコピーして、プロジェクトに含めてください
49+
現時点では ai-sdk の model provider v2 モジュールをサポートしており、これは
50+
Vercel AI SDK v5 と互換性があります。特別な理由で v1 の model provider
51+
を使い続ける必要がある場合は[examples/ai-sdk-v1](https://github.com/openai/openai-agents-js/tree/main/examples/ai-sdk-v1)
52+
からモジュールをコピーしてプロジェクトに含めてください
5353
</Aside>
5454

5555
##
@@ -60,9 +60,9 @@ import aiSdkSetupExample from '../../../../../../examples/docs/extensions/ai-sdk
6060
title="AI SDK のセットアップ"
6161
/>
6262

63-
## プロバイダー メタデータの指定
63+
## プロバイダーのメタデータの指定
6464

65-
メッセージにプロバイダー固有のオプションを送る必要がある場合は、`providerMetadata` に渡します。値は基盤の AI SDK モデルにそのまま転送されます。たとえば、Agents SDK で次の `providerData`
65+
メッセージにプロバイダー固有のオプションを送る必要がある場合は、`providerMetadata` に渡します。値は基盤となる AI SDK モデルにそのままフォワードされます。例えば、Agents SDK で次の `providerData`
6666

6767
```ts
6868
providerData: {
@@ -74,7 +74,7 @@ providerData: {
7474
}
7575
```
7676

77-
は、AI SDK 連携を使用する場合は次のようになります
77+
は、AI SDK 連携を使用する場合は次のように
7878

7979
```ts
8080
providerMetadata: {

docs/src/content/docs/ja/extensions/twilio.mdx

Lines changed: 20 additions & 21 deletions
Original file line numberDiff line numberDiff line change
@@ -7,14 +7,15 @@ import { Aside, Steps, Code } from '@astrojs/starlight/components';
77
import twilioBasicExample from '../../../../../../examples/docs/extensions/twilio-basic.ts?raw';
88
import twilioServerExample from '../../../../../../examples/realtime-twilio/index.ts?raw';
99

10-
Twilio は、電話の通話音声の 元 オーディオを WebSocket サーバーに送る [Media Streams API](https://www.twilio.com/docs/voice/media-streams) を提供しています。このセットアップは、あなたの [音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を Twilio に接続するために使えます。Twilio から届くイベントを Realtime Session に接続するには、`websocket` モードのデフォルトの Realtime Session トランスポートを使えます。ただし、その場合は適切な音声フォーマットを設定し、Web ベースの会話よりも通話のほうが自然にレイテンシが大きくなるため、割り込みのタイミングを調整する必要があります
10+
Twilio は、通話の元音声を WebSocket サーバーへ送信する [Media Streams API](https://www.twilio.com/docs/voice/media-streams) を提供しています。このセットアップを使うと、[音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を Twilio に接続できます。Twilio からのイベントを Realtime Session に接続するには、`websocket` モードのデフォルトの Realtime Session トランスポートを使えます。ただし、通話は Web ベースの会話より遅延が大きくなりがちなため、適切な音声フォーマットの設定と、割り込みタイミングの調整が必要です
1111

12-
セットアップ体験を改善するため、Twilio への接続、割り込み処理、音声のフォワーディングまで対応する専用のトランスポートレイヤーを用意しました
12+
セットアップ体験を向上させるため、Twilio への接続、割り込み処理、音声転送を代行する専用のトランスポートレイヤーを用意しました
1313

1414
<Aside type="caution">
15-
このアダプターはまだベータ版です。エッジケースの問題やバグに遭遇する可能性があります。
16-
問題は [GitHub issues](https://github.com/openai/openai-agents-js/issues)
17-
に報告してください。すぐに修正します。
15+
このアダプターはまだベータ版です。まれにエッジケースの問題やバグに遭遇する可能性があります。
16+
問題があれば [GitHub
17+
issues](https://github.com/openai/openai-agents-js/issues)
18+
からご報告ください。迅速に修正します。
1819
</Aside>
1920

2021
## セットアップ
@@ -25,13 +26,12 @@ Twilio は、電話の通話音声の 元 オーディオを WebSocket サーバ
2526

2627
2. **Twilio からのイベントを受け取れる WebSocket サーバーを用意します。**
2728

28-
ローカル開発の場合、Twilio からローカルサーバーにアクセスできるよう、
29-
[`ngrok`](https://ngrok.io/)
29+
ローカル開発中は、[`ngrok`](https://ngrok.io/)
3030
[Cloudflare Tunnel](https://developers.cloudflare.com/pages/how-to/preview-with-cloudflare-tunnel/)
31-
などのローカルトンネルを構成する必要があります`TwilioRealtimeTransportLayer`
31+
などでローカルトンネルを設定して、ローカルサーバーを Twilio から参照できるようにする必要があります`TwilioRealtimeTransportLayer`
3232
を使って Twilio に接続できます。
3333

34-
3. **extensions パッケージをインストールして Twilio アダプターを導入します:**
34+
3. **拡張パッケージをインストールして Twilio アダプターを導入します:**
3535

3636
```bash
3737
npm install @openai/agents-extensions
@@ -55,33 +55,32 @@ Twilio は、電話の通話音声の 元 オーディオを WebSocket サーバ
5555

5656
</Steps>
5757

58-
`RealtimeSession` に期待されるあらゆるイベントや挙動(ツール呼び出し、ガードレールなど)はそのまま動作します。`RealtimeSession` を音声エージェントと併用する方法の詳細は[音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を参照してください。
58+
`RealtimeSession` に期待されるあらゆるイベントや動作は、ツール呼び出し、ガードレールなどを含め、期待どおりに動作します。音声エージェントとの併用方法は[音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を参照してください。
5959

6060
## ヒントと考慮事項
6161

6262
1. **スピードが最重要です。**
6363

64-
Twilio から必要なイベントと音声をすべて受け取るには、WebSocket 接続の参照を取得したらすぐに
64+
Twilio から必要なイベントと音声をすべて受け取るには、WebSocket 接続の参照を得たらすぐに
6565
`TwilioRealtimeTransportLayer` インスタンスを作成し、その直後に `session.connect()` を呼び出してください。
6666

67-
2. **Twilio の 元 イベントにアクセスします**
67+
2. **Twilio の元イベントにアクセスします**
6868

69-
Twilio から送られてくる 元 のイベントにアクセスしたい場合は`RealtimeSession` インスタンスで
70-
`transport_event` をリッスンします。Twilio からのすべてのイベントは `twilio_message` タイプを持ち、
71-
元 イベントデータを含む `message` プロパティがあります。
69+
Twilio が送信する元イベントにアクセスしたい場合は`RealtimeSession` インスタンスの `transport_event`
70+
をリッスンします。Twilio からの各イベントは `twilio_message` の type を持ち、元イベントデータを含む
71+
`message` プロパティがあります。
7272

7373
3. **デバッグログを確認します。**
7474

75-
状況を詳しく知りたい問題に遭遇することがあります。`DEBUG=openai-agents*` 環境変数を使うと、
76-
Agents SDK のすべてのデバッグログが出力されます。あるいは、Twilio アダプターのデバッグログだけを
77-
有効にするには `DEBUG=openai-agents:extensions:twilio*` を使います。
75+
状況を詳しく把握したい場合は、環境変数 `DEBUG=openai-agents*` を使うと Agents SDK のすべてのデバッグログが表示されます。
76+
あるいは、`DEBUG=openai-agents:extensions:twilio*` で Twilio アダプターのデバッグログだけを有効化できます。
7877

79-
## フルサンプルサーバー
78+
## サーバーのフルサンプル
8079

81-
以下は、Twilio からのリクエストを受け取り、それを `RealtimeSession` にフォワードする、エンドツーエンドの WebSocket サーバーのサンプルです
80+
以下は、Twilio からのリクエストを受け取り、`RealtimeSession` に転送する WebSocket サーバーのエンドツーエンドのサンプルです
8281

8382
<Code
8483
lang="typescript"
8584
code={twilioServerExample}
86-
title="Fastify を使ったサンプルサーバー"
85+
title="Example server using Fastify"
8786
/>

0 commit comments

Comments
 (0)