Skip to content

Commit 3627b10

Browse files
Update all translated document pages (#405)
Co-authored-by: github-actions[bot] <github-actions[bot]@users.noreply.github.com>
1 parent 770bae7 commit 3627b10

24 files changed

+604
-556
lines changed

docs/src/content/docs/ja/extensions/ai-sdk.mdx

Lines changed: 20 additions & 15 deletions
Original file line numberDiff line numberDiff line change
@@ -7,12 +7,12 @@ import { Aside, Steps, Code } from '@astrojs/starlight/components';
77
import aiSdkSetupExample from '../../../../../../examples/docs/extensions/ai-sdk-setup.ts?raw';
88

99
<Aside type="caution">
10-
このアダプターはまだベータ版です。とくに小規模なモデルプロバイダーでは問題が発生する可能性があります。問題は
11-
[GitHub issues](https://github.com/openai/openai-agents-js/issues)
12-
からご報告ください。迅速に修正します。
10+
このアダプターはまだベータ版です。特に小規模なモデルプロバイダーでは問題が発生する可能性があります。問題があれば
11+
[GitHub Issues](https://github.com/openai/openai-agents-js/issues)
12+
に報告してください。迅速に修正します。
1313
</Aside>
1414

15-
標準で、Agents SDK Responses API または Chat Completions API を通じて OpenAI モデルと連携します。なお、別のモデルを使いたい場合は、[Vercel の AI SDK](https://sdk.vercel.ai/) がサポートする多様なモデルを、このアダプター経由で Agents SDK に組み込めます
15+
Agents SDK は標準で OpenAI のモデルを Responses API または Chat Completions API 経由で利用できます。ですが、他のモデルを使いたい場合は、このアダプターを通じて [Vercel の AI SDK](https://sdk.vercel.ai/) がサポートする各種モデルを Agents SDK に導入できます
1616

1717
## セットアップ
1818

@@ -24,13 +24,13 @@ import aiSdkSetupExample from '../../../../../../examples/docs/extensions/ai-sdk
2424
npm install @openai/agents-extensions
2525
```
2626

27-
2. [Vercel の AI SDK](https://ai-sdk.dev/docs/foundations/providers-and-models) から目的のモデルパッケージを選び、インストールします:
27+
2. [Vercel の AI SDK](https://ai-sdk.dev/docs/foundations/providers-and-models) から目的のモデル用パッケージを選び、インストールします:
2828

2929
```bash
30-
npm install @ai-sdk/openai@"^1.0.0"
30+
npm install @ai-sdk/openai
3131
```
3232

33-
3. アダプターとモデルをインポートし、エージェントに接続します:
33+
3. アダプターとモデルをインポートして、エージェントに接続します:
3434

3535
```typescript
3636
import { openai } from '@ai-sdk/openai';
@@ -46,18 +46,23 @@ import aiSdkSetupExample from '../../../../../../examples/docs/extensions/ai-sdk
4646
</Steps>
4747

4848
<Aside type="caution">
49-
Vercel の AI SDK は最近 v2 に移行しましたが、openai agent extensions はまだ v2
50-
と互換性がありません。 そのため Vercel の AI SDK は v1
51-
をインストールする必要があります。
49+
現在、ai-sdk の model provider v2 モジュールをサポートしており、これは Vercel
50+
AI SDK v5 と互換性があります。特別な理由で v1 の model providers
51+
を使い続ける必要がある場合は、[examples/ai-sdk-v1](https://github.com/openai/openai-agents-js/tree/main/examples/ai-sdk-v1)
52+
からモジュールをコピーして、プロジェクトに含めてください。
5253
</Aside>
5354

54-
##
55+
## サンプル
5556

56-
<Code lang="typescript" code={aiSdkSetupExample} title="AI SDK Setup" />
57+
<Code
58+
lang="typescript"
59+
code={aiSdkSetupExample}
60+
title="AI SDK のセットアップ"
61+
/>
5762

58-
## プロバイダーのメタデータの受け渡し
63+
## プロバイダー メタデータの受け渡し
5964

60-
メッセージにプロバイダー固有のオプションを送る必要がある場合`providerMetadata` を通して渡してください。値は基盤の AI SDK モデルにそのまま転送されます。たとえば、Agents SDK で次の `providerData`
65+
メッセージにプロバイダー固有のオプションを送る必要がある場合は`providerMetadata` に渡します。値は基盤の AI SDK モデルにそのまま転送されます。例えば、Agents SDK で次の `providerData`
6166

6267
```ts
6368
providerData: {
@@ -69,7 +74,7 @@ providerData: {
6974
}
7075
```
7176

72-
AI SDK 連携を使用する場合、次のようになります
77+
AI SDK 連携を使う場合、次のようになります
7378

7479
```ts
7580
providerMetadata: {

docs/src/content/docs/ja/extensions/twilio.mdx

Lines changed: 16 additions & 16 deletions
Original file line numberDiff line numberDiff line change
@@ -7,14 +7,15 @@ import { Aside, Steps, Code } from '@astrojs/starlight/components';
77
import twilioBasicExample from '../../../../../../examples/docs/extensions/twilio-basic.ts?raw';
88
import twilioServerExample from '../../../../../../examples/realtime-twilio/index.ts?raw';
99

10-
Twilio は [Media Streams API](https://www.twilio.com/docs/voice/media-streams) を提供しており、電話の通話音声の元オーディオを WebSocket サーバーへ送信できます。このセットアップを使って[音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を Twilio に接続できます。Twilio から届くイベントを Realtime Session に接続するには、`websocket` モードのデフォルト Realtime Session トランスポートを使用できます。ただし、電話は Web ベースの会話よりも遅延が大きくなるため、適切なオーディオ形式の設定や、独自の割り込みタイミングの調整が必要になります
10+
Twilio は、電話通話の元音声を WebSocket サーバーへ送信する [Media Streams API](https://www.twilio.com/docs/voice/media-streams) を提供しています。このセットアップを使うと[音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を Twilio に接続できます。Twilio から届くイベントを Realtime Session に接続するには、`websocket` モードのデフォルトの Realtime Session トランスポートを使用できます。ただし、通話は Web ベースの会話よりも遅延が大きくなるため、適切な音声フォーマットの設定と、割り込みタイミングの調整が必要です
1111

1212
セットアップ体験を向上させるため、Twilio への接続、割り込み処理、音声の転送などを代わりに処理する専用のトランスポートレイヤーを用意しました。
1313

1414
<Aside type="caution">
15-
このアダプターはまだベータ版です。レアケースの問題やバグに遭遇する可能性があります。
16-
問題は [GitHub issues](https://github.com/openai/openai-agents-js/issues)
17-
からご報告ください。迅速に修正します。
15+
このアダプターはまだベータ版です。レアケースの問題やバグが発生する可能性があります。
16+
何か問題があれば [GitHub
17+
issues](https://github.com/openai/openai-agents-js/issues)
18+
に報告してください。迅速に対応します。
1819
</Aside>
1920

2021
## セットアップ
@@ -23,14 +24,13 @@ Twilio は [Media Streams API](https://www.twilio.com/docs/voice/media-streams)
2324

2425
1. **Twilio アカウントと Twilio の電話番号を用意します。**
2526

26-
2. **Twilio からのイベントを受け取れる WebSocket サーバーを用意します**
27+
2. **Twilio からのイベントを受信できる WebSocket サーバーをセットアップします**
2728

28-
ローカル開発の場合、Twilio からローカルサーバーへアクセスできるよう、
29-
this will require you to configure a local tunnel like [`ngrok`](https://ngrok.io/) or
29+
ローカル開発を行う場合は、[`ngrok`](https://ngrok.io/)
3030
[Cloudflare Tunnel](https://developers.cloudflare.com/pages/how-to/preview-with-cloudflare-tunnel/)
31-
を設定する必要があります。`TwilioRealtimeTransportLayer` を使って Twilio に接続できます
31+
などのローカルトンネルを設定して、ローカルサーバーを Twilio からアクセス可能にする必要があります。Twilio への接続には `TwilioRealtimeTransportLayer` を使用できます
3232

33-
3. **拡張パッケージをインストールして Twilio アダプターを導入します:**
33+
3. **拡張機能パッケージをインストールして Twilio アダプターを導入します:**
3434

3535
```bash
3636
npm install @openai/agents-extensions
@@ -54,25 +54,25 @@ Twilio は [Media Streams API](https://www.twilio.com/docs/voice/media-streams)
5454

5555
</Steps>
5656

57-
`RealtimeSession` に期待されるイベントや挙動は、ツール呼び出し、ガードレールなどを含め、想定どおりに動作します`RealtimeSession` を音声エージェントで使う方法については[音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を参照してください。
57+
`RealtimeSession` に期待されるあらゆるイベントや動作は、ツール呼び出し、ガードレールなどを含め、期待どおりに機能します`RealtimeSession` を音声エージェントで使用する方法については[音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を参照してください。
5858

5959
## ヒントと考慮事項
6060

61-
1. **スピードがすべてです**
61+
1. **速度が最重要です**
6262

63-
Twilio から必要なイベントとオーディオをすべて受け取るため、WebSocket 接続を参照できたらすぐに `TwilioRealtimeTransportLayer` インスタンスを作成し、直ちに `session.connect()` を呼び出してください。
63+
Twilio から必要なイベントと音声をすべて受け取るために、WebSocket 接続を参照できるようになったらすぐに `TwilioRealtimeTransportLayer` インスタンスを作成し、直後に `session.connect()` を呼び出してください。
6464

6565
2. **Twilio の元イベントにアクセスします。**
6666

67-
Twilio から送られてくる元イベントにアクセスしたい場合は`RealtimeSession` インスタンスの `transport_event` イベントを監視します。Twilio のすべてのイベントは `twilio_message` type を持ち、元イベントデータを含む `message` プロパティがあります
67+
Twilio から送信される元イベントにアクセスしたい場合は`RealtimeSession` インスタンスの `transport_event` を監視します。Twilio からのすべてのイベントは `twilio_message` という type 、元イベントデータを含む `message` プロパティを持ちます
6868

6969
3. **デバッグログを確認します。**
7070

71-
状況を詳しく知りたい場合があります。`DEBUG=openai-agents*` 環境変数を使うと Agents SDK からのすべてのデバッグログが表示されます。あるいは、`DEBUG=openai-agents:extensions:twilio*` を使用して Twilio アダプターのデバッグログだけを有効にできます。
71+
状況を詳しく知りたい問題に遭遇することがあります。環境変数 `DEBUG=openai-agents*` を使うと Agents SDK のすべてのデバッグログが表示されます。あるいは、`DEBUG=openai-agents:extensions:twilio*` を使って Twilio アダプターのデバッグログだけを有効にできます。
7272

73-
## 完全なサーバーの例
73+
## 完全なサーバー例
7474

75-
以下は、Twilio からのリクエストを受け取り、それを `RealtimeSession` に転送する WebSocket サーバーのエンドツーエンドの例です
75+
以下は、Twilio からのリクエストを受け取り、それを `RealtimeSession` に転送する WebSocket サーバーのエンドツーエンド例です
7676

7777
<Code
7878
lang="typescript"

0 commit comments

Comments
 (0)