Skip to content

sudofugo/lmarena2api-jpn

 
 

Repository files navigation

中文

lmarena2api

觉得有点意思的话 别忘了点个 ⭐

Telegram 交流群

AI Wave 社群 · (群内提供公益API、AI机器人)

⚠️由于lmarena使用的是Cloudflare的交互式质询验证,因此强烈建议在win/mac环境下部署项目,启动完成后可使用内网穿透公网访问。

功能

  • 支持对话接口(流式/非流式)(/chat/completions),详情查看支持模型
  • 支持文生图兼容对话接口(/chat/completions)与生图接口(/images/generations)
  • 支持自定义请求头校验值(Authorization)
  • 支持cookie池(随机),详情查看获取cookie
  • 支持请求失败自动切换cookie重试(需配置cookie池)
  • 可配置代理请求(环境变量PROXY_URL)

接口文档:

示例:

如何使用

如何集成NextChat

如何集成one-api

部署

Mac本地部署[推荐]

Releases发布页下载环境对应的lmarena2api文件,并将其放置在你想要的目录下。

终端执行:

nohup env CF_CLEARANCE=****** DEBUG=true LA_COOKIE=****** API_SECRET=123456  ./lmarena2api-macos > logfile.log 2>&1 &

基于 Docker-Compose(All In One) 进行部署

docker-compose pull && docker-compose up -d

docker-compose.yml

version: '3.4'

services:
  lmarena2api:
    image: deanxv/lmarena2api:latest
    container_name: lmarena2api
    restart: always
    ports:
      - "10088:10088"
    volumes:
      - ./data:/app/lmarena2api/data
    environment:
      - LA_COOKIE=******  # cookie (多个请以,分隔)
      - CF_CLEARANCE=******  
      - API_SECRET=123456  # [可选]接口密钥-修改此行为请求头校验的值(多个请以,分隔)
      - TZ=Asia/Shanghai

基于 Docker 进行部署

docker run --name lmarena2api -d --restart always \
-p 10088:10088 \
-v $(pwd)/data:/app/lmarena2api/data \
-e LA_COOKIE=***** \
-e CF_CLEARANCE=***** \
-e API_SECRET="123456" \
-e TZ=Asia/Shanghai \
deanxv/lmarena2api

其中API_SECRETLA_COOKIECF_CLEARANCE修改为自己的。

如果上面的镜像无法拉取,可以尝试使用 GitHub 的 Docker 镜像,将上面的deanxv/lmarena2api替换为 ghcr.io/deanxv/lmarena2api即可。

部署到第三方平台

部署到 Zeabur

Deployed on Zeabur

Zeabur 的服务器在国外,自动解决了网络的问题,同时免费的额度也足够个人使用

  1. 首先 fork 一份代码。

  2. 进入 Zeabur,使用github登录,进入控制台。

  3. 在 Service -> Add Service,选择 Git(第一次使用需要先授权),选择你 fork 的仓库。

  4. Deploy 会自动开始,先取消。

  5. 添加环境变量

    LA_COOKIE=****** cookie (多个请以,分隔)

    CF_CLEARANCE=******

    API_SECRET=123456 [可选]接口密钥-修改此行为请求头校验的值(多个请以,分隔)(与openai-API-KEY用法一致)

保存。

  1. 选择 Redeploy。
部署到 Render

Render 提供免费额度,绑卡后可以进一步提升额度

Render 可以直接部署 docker 镜像,不需要 fork 仓库:Render

配置

环境变量

  1. PORT=10088 [可选]端口,默认为10088
  2. DEBUG=true [可选]DEBUG模式,可打印更多信息[true:打开、false:关闭]
  3. API_SECRET=123456 [可选]接口密钥-修改此行为请求头(Authorization)校验的值(同API-KEY)(多个请以,分隔)
  4. LA_COOKIE=****** cookie (多个请以,分隔)
  5. CF_CLEARANCE=****** Cloudflare的清除验证值,用于绕过Cloudflare的验证
  6. REQUEST_RATE_LIMIT=60 [可选]每分钟下的单ip请求速率限制,默认:60次/min
  7. PROXY_URL=http://127.0.0.1:10801 [可选]代理
  8. ROUTE_PREFIX=hf [可选]路由前缀,默认为空,添加该变量后的接口示例:/hf/v1/chat/completions

cookie获取方式

  1. 打开lmarena
  2. 打开F12开发者工具
  3. 进行一次对话
  4. 如下图所示,右侧create-evaluation接口header中的cookie中的cf_clearance即蓝色高亮的值为所需环境变量CF_CLEARANCE值,arena-auth-prod-v1即红色高亮的值为所需环境变量LA_COOKIE值,。

img.png

进阶配置

支持模型

对话模型

模型名称
chatgpt-4o-latest-20250326
gpt-4.1-2025-04-14
gpt-4.1-mini-2025-04-14
claude-3-5-haiku-20241022
claude-3-5-sonnet-20241022
claude-3-7-sonnet-20250219
claude-3-7-sonnet-20250219-thinking-32k
claude-opus-4-20250514
claude-sonnet-4-20250514
gemini-2.0-flash-001
gemini-2.5-flash-preview-04-17
gemini-2.5-pro-preview-05-06
gemma-3-27b-it
llama-3.3-70b-instruct
llama-4-maverick-03-26-experimental
llama-4-maverick-17b-128e-instruct
amazon.nova-pro-v1:0
command-a-03-2025
deepseek-v3-0324
grok-3-mini-beta
grok-3-preview-02-24
mistral-medium-2505
o3-2025-04-16
o3-mini
o4-mini-2025-04-16
qwen-max-2025-01-25
qwen3-30b-a3b
qwen3-235b-a22b
qwq-32b

生图模型

模型名称
dall-e-3
gpt-image-1
gemini-2.0-flash-preview-image-generation
imagen-3.0-generate-002
flux-1.1-pro
ideogram-v2
photon
recraft-v3

报错排查

其他

About

No description, website, or topics provided.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • Go 99.6%
  • Dockerfile 0.4%