-
Notifications
You must be signed in to change notification settings - Fork 0
FAQ ja
ALICE についてのよくある質問への簡単な回答です。
ALICE は会話型 AI と実世界のツールを組み合わせた AI 駆動のコマンドラインアシスタントです。GitHub Copilot CLI のようなものですが、より多くの機能を持っています。
- コードベースに関する質問への回答
- ファイルの読み取りと検索
- システムコマンドの実行
- Git リポジトリ情報の取得
- コーディング支援
- その他、ツールシステムを通じて多数の機能
ALICE 自体はオープンソースで無料です。ただし、LLM バックエンドが必要です:
- 無料: LM Studio をローカルモデルで使用
- 有料: OpenAI API を使用(従量課金)
OpenAI 互換 API なら何でも:
- OpenAI (GPT-3.5, GPT-4)
- LM Studio(ローカルモデル)
- Ollama
- カスタム OpenAI 互換エンドポイント
詳細な手順についてはインストールガイドを参照してください。
クイックインストール:
npm install -g alice-cli~/.alice/settings.jsonc
プラットフォーム固有のパス:
- Windows:
C:\Users\<username>\.alice\settings.jsonc - macOS:
/Users/<username>/.alice/settings.jsonc - Linux:
/home/<username>/.alice/settings.jsonc
設定ファイルを削除してください:
# macOS/Linux
rm ~/.alice/settings.jsonc
# Windows
del %USERPROFILE%\.alice\settings.jsoncALICE は次回起動時にデフォルト設定で再作成します。
aliceまたはソースから:
npm run devCtrl+C または Ctrl+D を押してください
はい、--no-banner フラグを使用してください:
alice --no-banner/clear と入力するか、Ctrl+L を押してください
はい!↑ と ↓ 矢印キーで履歴をナビゲートできます。
はい、現在のセッション内では覚えています。終了すると会話履歴は失われます。
セッションの永続化は将来のリリースで予定されています。
ツールは ALICE がシステムと対話できるようにする機能です:
- ファイルの読み取り
- ディレクトリの検索
- コマンドの実行
- Git 情報の取得
- その他多数
ALICE はリアルタイムでステータスを表示します:
[🔧 readFile] package.json を読み取り中...
[✅ readFile] 成功(1024バイト)
まだできません。すべての組み込みツールは常に有効です。
ツール設定は将来のリリースで予定されています。
まだできません。プラグインシステムは v0.3.0 で予定されています。
データ損失やシステム変更を引き起こす可能性のあるコマンド:
- ファイル削除(
rm -rf) - ディスクフォーマット
- システムシャットダウン
- など
~/.alice/settings.jsonc を編集してください:
LLM バックエンドによります:
- LM Studio: API キー不要 ✅
- OpenAI API: 必要 ❌
- Ollama: API キー不要 ✅
~/.alice/settings.jsonc に:
{
"llm": {
"apiKey": "sk-your-key-here"
}
}または環境変数を使用:
{
"llm": {
"apiKey": "$OPENAI_API_KEY"
}
}~/.alice/settings.jsonc を編集してください:
{
"llm": {
"model": "gpt-4"
}
}変更を有効にするには ALICE を再起動してください。
はい、ただし設定を編集して毎回 ALICE を再起動する必要があります。
マルチモデル切り替えは将来のリリースで予定されています。
考えられる理由:
- 大きなモデル - より小さなモデルを試してください
- 高い temperature - 0.3-0.5 に下げてください
- ネットワーク遅延 - 接続を確認してください
- LM Studio のパフォーマンス - ローカルモデルは速度が異なります
はい:
- より小さなモデルを使用(例: GPT-4 の代わりに GPT-3.5)
- 設定で
maxTokensを下げる - より集中した応答のために
temperatureを下げる - ネットワーク遅延のないローカル LM Studio を使用
原因:
- LM Studio が実行されていない
- 設定で baseURL が間違っている
- ネットワークの問題
解決策:
- LM Studio を起動
- baseURL を確認:
http://localhost:1234/v1 - ポート 1234 にアクセス可能か確認
原因:
- 間違った API キー
- 環境変数が設定されていない
- API キーが期限切れ
解決策:
- API キーが正しいことを確認
- 環境変数を確認:
echo $OPENAI_API_KEY - OpenAI ダッシュボードから新しい API キーを生成
原因:
- LM Studio でモデルが読み込まれていない
- モデル名のタイプミス
- プランでモデルが利用できない
解決策:
- LM Studio でモデルを読み込む
- モデル名のスペルを確認
- 「auto」を使用して LM Studio に選択させる
原因:
- ファイルが見つからない
- 権限が拒否された
- 無効なパラメータ
解決策:
- ファイルパスが正しいか確認
- 必要な権限があることを確認
- 詳細についてはエラーメッセージを確認
試してみてください:
- Ctrl+C を押して中断
- ALICE を再起動
- LLM バックエンドが実行されているか確認
- ターミナルでエラーメッセージを確認
原因:
- ターミナルが Unicode をサポートしていない
- ANSI エスケープコードが機能していない
解決策:
- モダンなターミナルを使用(Windows Terminal、iTerm2 など)
- ターミナル設定を更新
- 別のターミナルエミュレータを試す
はい!レスポンスはデフォルトでリアルタイムにストリーミングされます。
まだできません。現在、ALICE は以下のみ可能です:
- ✅ ファイルの読み取り
- ✅ ファイルの検索
- ✅ ディレクトリのリスト表示
- ❌ ファイルの書き込み/編集(予定)
いいえ、ALICE はコマンドライン専用です。それが目的です!😊
推奨しません。ALICE は対話的な使用を目的として設計されています。
自動化には、LLM API を直接使用することを検討してください。
部分的に:
- ✅ ローカルツールはオフラインで動作
- ❌ LLM にはネットワークが必要(ローカル LM Studio を使用しない限り)
いいえ。ALICE はローカル開発タスクに焦点を当てています。
Web 検索は将来のバージョンで追加される可能性があります。
はい!ALICE はオープンソースです: https://github.com/AndersHsueh/Alice
git clone https://github.com/AndersHsueh/Alice.git
cd Alice
npm install
npm run build
npm run devGitHub で Issue を作成してください: https://github.com/AndersHsueh/Alice/issues
同じ場所です - "feature request" ラベルの付いた GitHub Issues。
GitHub Issues と Projects を参照してください。
| 機能 | ALICE | Copilot CLI |
|---|---|---|
| オープンソース | ✅ | ❌ |
| ローカル LLM サポート | ✅ | ❌ |
| ツールシステム | ✅(7ツール) | ✅(制限あり) |
| ストリーミング | ✅ | ✅ |
| コスト | 無料* | 有料 |
*ローカル LLM では無料、OpenAI では有料
| 機能 | ALICE | ChatGPT |
|---|---|---|
| CLI インターフェース | ✅ | ❌ |
| システム統合 | ✅ | ❌ |
| ファイルアクセス | ✅ | ❌ |
| コマンド実行 | ✅ | ❌ |
| Web アクセス | ❌ | ✅ |
| 音声 | ❌ | ✅ |
おおよそ:
- ベース: 約 50-100 MB
- LLM あり: モデルによる(ローカルモデル: 2-8 GB)
いいえ。ALICE は軽量です。LLM バックエンド(ローカルの場合)がリソースを使用する可能性があります。
技術的には可能ですが:
- ✅ ALICE 自体は問題なく動作
- ❌ ローカル LLM には強力なハードウェアが必要
- ✅ 代わりにクラウド LLM API を使用
クラウドベースの LLM(OpenAI など)を使用する場合のみです。
ローカル LM Studio を使用すると、すべてがマシン上に留まります。
はい、ローカル LLM を使用する場合。クラウド LLM では注意が必要です - 会社のポリシーを確認してください。
なし。ALICE には分析やテレメトリはありません。
ALICE がファイルにアクセスするのは以下の場合のみです:
- LLM がツールを使用することを決定した場合
- どのツールが呼び出されているか確認できます
- Ctrl+C でキャンセルできます
危険な操作には確認が必要です(無効にしない限り)。
- ドキュメントを確認: ホーム
- GitHub Issues を検索: https://github.com/AndersHsueh/Alice/issues
- GitHub Discussions で質問: https://github.com/AndersHsueh/Alice/discussions
- 新しい Issue を作成: https://github.com/AndersHsueh/Alice/issues/new
お探しのものが見つかりませんか? お知らせいただければ FAQ に追加します!
{ "dangerous_cmd": false }