Skip to content

Commit 403b901

Browse files
authored
Update Japanese docs to reflect the latest changes (#197)
1 parent abf10c2 commit 403b901

26 files changed

+608
-598
lines changed

docs/src/content/docs/guides/release.mdx

Lines changed: 0 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -3,8 +3,6 @@ title: Release process
33
description: Learn how we version and release the SDK and recent changes.
44
---
55

6-
import { Content as AgentsSdkChangelog } from '../../../../../packages/agents/CHANGELOG.md';
7-
86
## Versioning
97

108
The project follows a slightly modified version of semantic versioning using the form `0.Y.Z`. The leading `0` indicates the SDK is still evolving rapidly. Increment the components as follows:

docs/src/content/docs/ja/extensions/ai-sdk.mdx

Lines changed: 12 additions & 10 deletions
Original file line numberDiff line numberDiff line change
@@ -7,30 +7,30 @@ import { Aside, Steps, Code } from '@astrojs/starlight/components';
77
import aiSdkSetupExample from '../../../../../../examples/docs/extensions/ai-sdk-setup.ts?raw';
88

99
<Aside type="caution">
10-
このアダプターはまだベータ版です。特に規模の小さいモデルプロバイダーでは問題が発生する可能性があります。問題を見つけた場合は、[GitHub
11-
issues](https://github.com/openai/openai-agents-js/issues)
12-
からご報告ください。迅速に対応します。
10+
このアダプターはまだベータ版です。特に小規模なモデルプロバイダーでは問題が発生する可能性があります。問題が発生した場合は
11+
[GitHub issues](https://github.com/openai/openai-agents-js/issues)
12+
でご報告ください。迅速に対応します。
1313
</Aside>
1414

15-
初期状態で Agents SDK は Responses API または Chat Completions API を通じて OpenAI モデルと連携します。ただし別のモデルを使用したい場合は[Vercel's AI SDK](https://sdk.vercel.ai/) が対応する多様なモデルを提供しており、このアダプター経由で Agents SDK に組み込むことができます
15+
デフォルトで Agents SDK は Responses API または Chat Completions API を通じて OpenAI モデルを利用できます。別のモデルを使用したい場合は[VercelAI SDK](https://sdk.vercel.ai/) がサポートするさまざまなモデルをこのアダプター経由で Agents SDK に取り込むことができます
1616

1717
## セットアップ
1818

1919
<Steps>
2020

21-
1. 拡張パッケージをインストールして AI SDK アダプターを追加します:
21+
1. extensions パッケージをインストールして AI SDK アダプターを追加します:
2222

2323
```bash
2424
npm install @openai/agents-extensions
2525
```
2626

27-
2. [Vercel's AI SDK](https://sdk.vercel.ai/docs/models/overview) から使用したいモデルパッケージを選択してインストールします:
27+
2. [VercelAI SDK](https://sdk.vercel.ai/docs/models/overview) から目的のモデル パッケージを選択してインストールします:
2828

2929
```bash
3030
npm install @ai-sdk/openai
3131
```
3232

33-
3. エージェントに接続するため、アダプターとモデルをインポートします:
33+
3. アダプターとモデルをインポートし、エージェントに接続します:
3434

3535
```typescript
3636
import { openai } from '@ai-sdk/openai';
@@ -49,9 +49,9 @@ import aiSdkSetupExample from '../../../../../../examples/docs/extensions/ai-sdk
4949

5050
<Code lang="typescript" code={aiSdkSetupExample} title="AI SDK Setup" />
5151

52-
## プロバイダーメタデータの渡し方
52+
## プロバイダー メタデータの渡し方
5353

54-
メッセージにプロバイダー固有のオプションを設定したい場合は`providerMetadata` にその値を直接指定します。例えば Agents SDK
54+
メッセージと一緒にプロバイダー固有のオプションを送信する必要がある場合は`providerMetadata` に渡してください。値はそのまま基盤となる AI SDK モデルに転送されます。たとえば Agents SDK で次の `providerData` を指定すると
5555

5656
```ts
5757
providerData: {
@@ -63,7 +63,7 @@ providerData: {
6363
}
6464
```
6565

66-
と指定していた場合、AI SDK 連携では次のようになります。
66+
AI SDK 連携使用時には
6767

6868
```ts
6969
providerMetadata: {
@@ -74,3 +74,5 @@ providerMetadata: {
7474
}
7575
}
7676
```
77+
78+
のようになります。

docs/src/content/docs/ja/extensions/twilio.mdx

Lines changed: 23 additions & 22 deletions
Original file line numberDiff line numberDiff line change
@@ -7,35 +7,33 @@ import { Aside, Steps, Code } from '@astrojs/starlight/components';
77
import twilioBasicExample from '../../../../../../examples/docs/extensions/twilio-basic.ts?raw';
88
import twilioServerExample from '../../../../../../examples/realtime-twilio/index.ts?raw';
99

10-
Twilio は、電話通話の元音声を WebSocket サーバーへ送信する [Media Streams API](https://www.twilio.com/docs/voice/media-streams) を提供しています。このセットアップを利用して、あなたの [音声エージェント](/openai-agents-js/ja/guides/voice-agents) を Twilio に接続できます。`websocket` モードの既定の Realtime Session transport を使って、Twilio から送られてくるイベントを Realtime Session に接続することもできます。しかし、電話通話は Web ベースの会話よりも遅延が大きくなるため、正しいオーディオ形式を設定し、割り込みタイミングを調整する必要があります。
10+
Twilio には [Media Streams API](https://www.twilio.com/docs/voice/media-streams) があり、電話通話の生の音声を WebSocket サーバーへ送信します。このセットアップを使用して、あなたの [音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を Twilio に接続できます。デフォルトの Realtime Session トランスポートを `websocket` モードで使用し、Twilio から届くイベントを Realtime Session に接続することも可能です。ただし、適切なオーディオ形式を設定し、電話通話は Web ベースの会話よりも遅延が大きいため、割り込みタイミングを調整する必要があります。
1111

12-
セットアップ体験を向上させるために、Twilio への接続、割り込み処理、オーディオ転送をすべて自動で行う専用のトランスポートレイヤーを用意しました
12+
セットアップ体験を向上させるために、割り込み処理や音声転送を含め、Twilio との接続を代行する専用のトランスポートレイヤーを用意しました
1313

1414
<Aside type="caution">
15-
このアダプターはまだベータ版です。エッジケースでの問題やバグが発生する可能性があります。
16-
問題を見つけた場合は、[GitHub
17-
issues](https://github.com/openai/openai-agents-js/issues)
18-
からご報告ください。迅速に対応します。
15+
このアダプターはまだベータ版です。エッジケースやバグに遭遇する可能性があります。問題が発生した場合は
16+
[GitHub issues](https://github.com/openai/openai-agents-js/issues)
17+
からお知らせください。迅速に修正します。
1918
</Aside>
2019

2120
## セットアップ
2221

2322
<Steps>
2423

25-
1. **Twilio アカウントと Twilio 電話番号を用意します**
24+
1. **Twilio アカウントと Twilio 電話番号を所有していることを確認します**
2625

27-
2. **Twilio からのイベントを受信できる WebSocket サーバーを設定します**
26+
2. **Twilio からのイベントを受信できる WebSocket サーバーをセットアップします**
2827

29-
ローカル開発の場合、Twilio からアクセスできるように [`ngrok`](https://ngrok.io/)
30-
[Cloudflare Tunnel](https://developers.cloudflare.com/pages/how-to/preview-with-cloudflare-tunnel/) などでローカルトンネルを構成する必要があります。`TwilioRealtimeTransportLayer` を使用して Twilio に接続できます。
28+
ローカルで開発している場合は、[`ngrok`](https://ngrok.io/)[Cloudflare Tunnel](https://developers.cloudflare.com/pages/how-to/preview-with-cloudflare-tunnel/) などのローカルトンネルを設定し、ローカルサーバーを Twilio からアクセス可能にする必要があります。`TwilioRealtimeTransportLayer` を使用して Twilio に接続できます。
3129

32-
3. **extensions パッケージをインストールして Twilio アダプターを追加します:**
30+
3. **拡張パッケージをインストールして Twilio アダプターを導入します:**
3331

3432
```bash
3533
npm install @openai/agents-extensions
3634
```
3735

38-
4. **アダプターとモデルをインポートして `RealtimeSession` に接続します:**
36+
4. **`RealtimeSession` に接続するためにアダプターとモデルをインポートします:**
3937

4038
<Code
4139
lang="typescript"
@@ -53,25 +51,28 @@ Twilio は、電話通話の元音声を WebSocket サーバーへ送信する [
5351

5452
</Steps>
5553

56-
`RealtimeSession` から期待できるイベントや動作は、ツール呼び出しやガードレールなどを含め、すべてそのまま利用できます`RealtimeSession` を音声エージェントで使用する方法については、[音声エージェント](/openai-agents-js/ja/guides/voice-agents) ガイドを参照してください
54+
`RealtimeSession` から期待されるすべてのイベントや動作(ツール呼び出し、ガードレールなど)がそのまま利用できます`RealtimeSession` を音声エージェントで使う方法については [音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を参照してください
5755

5856
## ヒントと考慮事項
5957

60-
1. **速度が最重要です。**
61-
Twilio から必要なすべてのイベントとオーディオを受け取るために、WebSocket 接続の参照を取得したらすぐに `TwilioRealtimeTransportLayer` インスタンスを作成し、その直後に `session.connect()` を呼び出すようにしてください。
58+
1. **スピードが鍵です。**
6259

63-
2. **Twilio の元イベントへアクセスする。**
64-
Twilio から送信される生のイベントにアクセスしたい場合、`RealtimeSession` インスタンスの `transport_event` をリッスンできます。Twilio のすべてのイベントは `twilio_message` タイプと、生のイベントデータを含む `message` プロパティを持っています。
60+
Twilio から必要なすべてのイベントと音声を受け取るには、WebSocket 接続への参照を取得したらすぐに `TwilioRealtimeTransportLayer` インスタンスを作成し、直ちに `session.connect()` を呼び出してください。
6561

66-
3. **デバッグログを確認する。**
67-
何が起こっているかを詳しく知りたい場合があります。環境変数 `DEBUG=openai-agents*` を使用すると、Agents SDK のすべてのデバッグログが表示されます。あるいは `DEBUG=openai-agents:extensions:twilio*` を使って Twilio アダプターのデバッグログだけを有効にできます。
62+
2. **Twilio の元イベントにアクセスします。**
6863

69-
## 完全なサーバー例
64+
Twilio から送信される元イベントにアクセスしたい場合は、`RealtimeSession` インスタンスの `transport_event` をリッスンできます。Twilio からの各イベントは `twilio_message` という type と、生のイベントデータが入った `message` プロパティを持ちます。
7065

71-
以下は、Twilio からのリクエストを受け取り、それを `RealtimeSession` に転送する WebSocket サーバーのエンドツーエンド例です。
66+
3. **デバッグログを確認します。**
67+
68+
詳細を確認したい場合は、`DEBUG=openai-agents*` 環境変数を使用すると Agents SDK のすべてのデバッグログを表示できます。あるいは `DEBUG=openai-agents:extensions:twilio*` を使って Twilio アダプターのログのみに絞ることも可能です。
69+
70+
## フルサーバー例
71+
72+
以下は、Twilio からのリクエストを受け取り `RealtimeSession` に転送する WebSocket サーバーのエンドツーエンド例です。
7273

7374
<Code
7475
lang="typescript"
7576
code={twilioServerExample}
76-
title="Fastify を使用した例示サーバー"
77+
title="Example server using Fastify"
7778
/>

0 commit comments

Comments
 (0)