- 操作系统: macOS (Apple Silicon / Intel)、Linux (x86_64 / ARM64)、Windows (x86_64)
- 推理依赖: llama-server(模型推理必需)
- 编译依赖: Go 1.22+(仅源码编译需要)
适用于 Linux 和 macOS,自动检测系统架构,从 GitHub Releases 下载安装。
curl -fsSL https://hub.opencsg.com/csghub-lite/install.sh | shmacOS 上,安装脚本会优先选择当前已经在 PATH 且可写的目录(例如 /opt/homebrew/bin),找不到时再回退到 ~/bin,尽量避免 sudo。如果回退到了 ~/bin,脚本会自动写入 shell 配置,并提示当前终端立刻生效的命令。
指定版本安装:
CSGHUB_LITE_VERSION=v0.1.0 curl -fsSL https://hub.opencsg.com/csghub-lite/install.sh | sh安装脚本环境变量(可选):
| 变量 | 说明 |
|---|---|
INSTALL_DIR |
指定 csghub-lite 安装目录。未设置时,macOS 会优先选择当前 PATH 中可写的目录,否则回退到 ~/bin;Linux 仍默认使用已有安装目录或 /usr/local/bin。 |
CSGHUB_LITE_LLAMA_SERVER_INSTALL_DIR |
指定 llama-server 安装目录。未设置时,macOS 默认跟随 csghub-lite 的安装目录。 |
CSGHUB_LITE_AUTO_INSTALL_LLAMA_SERVER |
设为 0 可跳过自动安装/升级 llama-server。 |
CSGHUB_LITE_AUTO_INSTALL_PATCHELF |
Linux 上设为 0 可禁止自动 apt/dnf/yum install patchelf(用于为 llama-server 设置 $ORIGIN,使同目录 .so 可被直接加载)。 |
说明:若远程 llama.cpp 与本地 build 号一致,脚本会跳过重新下载;此前若因缺少 libmtmd.so.0 等导致 llama-server --version 失败,会被误判为需要升级——新版本已用 LD_LIBRARY_PATH 检测版本,并从压缩包 递归 安装所有 .so。
可选额外入口,主安装入口仍然推荐使用上面的 curl ... | sh。Linux 仍建议优先使用安装脚本、release 压缩包或系统包管理器。
brew tap opencsgs/csghub-lite https://github.com/OpenCSGs/csghub-lite
brew install opencsgs/csghub-lite/csghub-lite前往 Releases 页面,下载对应平台的压缩包:
| 平台 | 文件名 |
|---|---|
| macOS Apple Silicon | csghub-lite_*_darwin_arm64.tar.gz |
| macOS Intel | csghub-lite_*_darwin_amd64.tar.gz |
| Linux x86_64 | csghub-lite_*_linux_amd64.tar.gz |
| Linux ARM64 | csghub-lite_*_linux_arm64.tar.gz |
| Windows x86_64 | csghub-lite_*_windows_amd64.zip |
下载后解压并移动到一个已经在 PATH 中的目录,例如 ~/bin、/opt/homebrew/bin 或 /usr/local/bin:
tar xzf csghub-lite_*.tar.gz
mkdir -p "$HOME/bin"
mv csghub-lite "$HOME/bin/"Debian / Ubuntu:
sudo dpkg -i csghub-lite_*.debRHEL / CentOS / Fedora:
sudo rpm -i csghub-lite_*.rpmgit clone https://github.com/opencsgs/csghub-lite.git
cd csghub-lite
make build
# 二进制文件位于 bin/csghub-lite全平台编译:
make build-allcsghub-lite 使用 llama.cpp 的 llama-server 进行模型推理。你需要单独安装它。
brew install llama.cpp从 llama.cpp Releases 下载对应平台的预编译包,解压后将 llama-server 放入 PATH 即可。
# 示例:Linux x86_64
wget https://github.com/ggml-org/llama.cpp/releases/download/b8429/llama-b8429-bin-ubuntu-x64.tar.gz
tar xzf llama-b8429-bin-ubuntu-x64.tar.gz
sudo cp build/bin/llama-server /usr/local/bin/csghub-lite --version
llama-server --version