Skip to content

Releases: polyuiislab/infiAgent

完全模块化的智能体桌面端

08 Mar 15:34
7ff98db

Choose a tag to compare

建议统一在设置中打开Command Execution Mode 的 System Terminal 选项,如果有 GUI或系统环境执行需求。

允许用户更改所有提示词,添加工具,装卸载 skills,更改内置的所有智能体结构和框架,思考步长,工具阶段步长,所有修改仅需更改配置文件(工具除外)。增加 fresh 工具,允许智能体的自我改进(动态刷新改进的提示词,工具和 skill进入执行过程)

支持 SDK。pip次项目后基于配置文件和简单的 sdk代码构建自己的 agent

#!/usr/bin/env python3

from infiagent import infiagent

agent = infiagent(
        agent_library_dir="./agent_library",
        tools_dir="./tools_library",
        llm_config_path="./config/llm_config.yaml",
        workspace="./workspace",
        action_window_steps=12,
        thinking_interval=12,
    )

result = agent.run(
        "你叫什么名字?",
        agent_system="OpenCowork",
        agent_name="alpha_agent",
        workspace='/Users/chenglin/Desktop/test_sdl/work'
    )

print(result)

MAC 客户端

02 Mar 11:24

Choose a tag to compare

修复滚动问题
日志问题(可以在~/mla-v3/log 文件夹下看到所有运行日志,用于提交异常或者自行排查问题。
增加系统终端权限选项(如果使用 mac-use 这种 gui 技能包,建议打开,并赋予终端录屏权限)
如下图设置即赋予infiagent 终端的所有权限。
image

MAC APP V1.0.0

09 Feb 10:38

Choose a tag to compare

完全本地化,完全开源。
基于 infiagent 架构,支持长程任务。
支持不同智能体之间共享记忆,任务切换。
支持导入 skills,提供在线skills 库导入skills 到本地。

自带两个智能体系统
Cowork:
扁平架构智能体,支持装载 skills,单层智能体,支持广泛的通用任务,代码开发,桌面整理,深度调研,ppt 制作等等。

Default(research):
支持全流程的学术研究辅助,绘图,调研,实验,文章生成。

使用方式:
下载安装包,点击 dmg,安装。
打开程序,点击设置,设置你的 api 和密钥:
image
或者也可以在raw yaml 中复制你以往的配置文件例如:
openrouter:

temperature: 0
max_tokens: 0
max_context_window: 500000
base_url: https://openrouter.ai/api/v1
api_key: 
timeout: 600              # LiteLLM 原生:建立连接及整体响应的最大等待时间 
stream_timeout: 30        # LiteLLM 原生:两个流式数据块之间的最大间隔时间
first_chunk_timeout: 30   # 应用层强制:连接建立+首包接收的最大时间(防止连接池死锁)
models:
- openai/google/gemini-3-flash-preview
figure_models:
- google/gemini-3-pro-image-preview
compressor_models:
- openai/google/gemini-3-flash-preview
read_figure_models:
- openai/google/gemini-3-flash-preview
hinking_models:
- openai/google/gemini-3-flash-preview

# 多模态配置
multimodal: true           # 主模型(models)+ thinking agent 是否支持多模态图片嵌入
compressor_multimodal: true   # 压缩模型(compressor_models)是否支持多模态图片嵌入

kimi:

temperature: 1
max_tokens: 0
max_context_window: 500000
base_url: https://api.moonshot.cn/v1
api_key: 
timeout: 600              # LiteLLM 原生:建立连接及整体响应的最大等待时间 
stream_timeout: 30        # LiteLLM 原生:两个流式数据块之间的最大间隔时间
first_chunk_timeout: 30   # 应用层强制:连接建立+首包接收的最大时间(防止连接池死锁)
models:
-  openai/kimi-k2.5
figure_models:
- google/gemini-3-pro-image-preview
compressor_models:
-  openai/kimi-k2.5
read_figure_models:
-  openai/kimi-k2.5
thinking_models:
- openai/kimi-k2.5 

# 多模态配置
multimodal: true           # 主模型(models)+ thinking agent 是否支持多模态图片嵌入
compressor_multimodal: true   # 压缩模型(compressor_models)是否支持多模态图片嵌入

选择agent_system和你的工作目录开始布置任务:
image