-
Notifications
You must be signed in to change notification settings - Fork 0
Installation ja
andershsueh edited this page Feb 10, 2026
·
1 revision
このガイドでは、システムに ALICE をインストールする方法を説明します。
- Node.js: バージョン 18.0.0 以上
- LLM バックエンド: 以下のいずれか:
リリースページにアクセスし、適切なバージョンをダウンロードしてください:
| プラットフォーム | ファイル | 備考 |
|---|---|---|
| Windows x64 | alice-win-x64.zip |
64ビット Windows 用 |
| macOS Intel | alice-macos-x64.tar.gz |
Intel Mac 用 |
| macOS Apple Silicon | alice-macos-arm64.tar.gz |
M1/M2/M3 Mac 用 |
| Linux x64 | alice-linux-x64.tar.gz |
64ビット Linux 用 |
# zip ファイルを解凍
# alice.exe をダブルクリックするか、PowerShell から実行:
.\alice.exe# 解凍
tar -xzf alice-*.tar.gz
# 実行権限を付与
chmod +x alice-*
# オプション: システムパスに移動
sudo mv alice-* /usr/local/bin/alice
# 実行
alicegit clone https://github.com/AndersHsueh/Alice.git
cd Alicenpm install以下を含む必要なパッケージがインストールされます:
-
ink- CLI UI フレームワーク -
axios- LLM API 用 HTTP クライアント -
ajv- ツール用 JSON Schema バリデーション -
glob- ファイル検索 -
simple-git- Git 操作
npm run buildこれにより TypeScript が dist/ ディレクトリ内の JavaScript にコンパイルされます。
# 開発モード(ライブ編集をサポート)
npm run dev
# 本番モード
npm start
# または直接実行
node dist/index.jsnpm install -g alice-cli
alice
⚠️ 注意: npm パッケージの公開は将来のリリースで予定されています。
- LM Studio をダウンロード: https://lmstudio.ai/
- インストールして起動: LM Studio をインストールし起動します
-
モデルをダウンロード:
- 「Search」タブをクリック
- モデルを検索(例: "qwen", "llama", "mistral")
- お好みのモデルをダウンロード
-
ローカルサーバーを起動:
- 「Local Server」タブをクリック
- モデルを読み込む
- 「Start Server」をクリック
- デフォルト URL:
http://127.0.0.1:1234/v1
- Ollama をインストール: https://ollama.ai/
-
モデルをプル:
ollama pull qwen2.5:7b
-
Ollama を起動(通常は自動的に実行されます)
- デフォルト URL:
http://localhost:11434/v1
- デフォルト URL:
- API キーを取得: https://platform.openai.com/
-
環境変数を設定:
# macOS / Linux export OPENAI_API_KEY="sk-xxxxx" # Windows set OPENAI_API_KEY=sk-xxxxx
--help フラグを使って ALICE を実行してください:
alice --helpヘルプメッセージが表示されれば、インストール成功です!
初回起動時、ALICE は以下を実行します:
- ウェルカムバナーを表示(
--no-bannerでスキップ可能) -
~/.alice/に設定ディレクトリを作成 - デフォルトの
settings.jsoncを生成
# 初回起動
alice
# またはバナーをスキップ
alice --no-banner- クイックスタートガイド - すぐに始める
- 設定 - ALICE を設定する
- モデル設定 - より多くの LLM モデルを追加する
まず npm install を実行したことを確認してください。
LLM バックエンドが実行されていません。LM Studio または Ollama を起動してください。
chmod +x alice を実行して実行権限を追加してください。
その他の問題については、トラブルシューティングを参照してください。