让“静态用户画像”活过来:转化为可对话、可执行、实时响应的 Agent 能力
在传统的业务流程中,用户画像(Persona) 往往是躺在 PPT 或数据库里的静态标签(如“高消费、MBTI-INTJ”)。这些画像与实际的用户交互、产品功能之间存在巨大的断层。
DOPPLE 填补了这个断层: 它将 MBTI 量化指标作为“人格引擎”,结合动态技能插件(Skills),将画像直接转化为具备特定性格色彩、能调用业务工具、能流式对话的 实时 Agent。
从“看画像”进化为“跟画像对话”,并让画像自动执行任务。
不仅仅是预设 Prompt,而是将 MBTI 量化为结构化 Profile。系统根据画像特征自动调整对话语气、策略优先级和反馈风格。
针对 AI 流式输出优化的传输协议。支持将 SSE(Server-Sent Events)数据流无缝转换为 UI 层的“块状渲染”,提供极致流畅的打字机交互体验。
基于 SpoonOS 架构,每一个 Skill 都是独立的模块。
- 易扩展:只需在
skills目录下添加SKILL.md,即可注入新能力。 - 解耦:业务逻辑(工具调用)与对话逻辑(人格)完全分离。
输出标准化的结构化数据,直接对接现有运营系统的分层、触达、内容推送等环节。
DOPPLE 采用典型的 Monorepo 架构,确保前后端协作的高效性:
DOPPLE
├── apps/web # Next.js 16 + React 19 (感知层:极致的流式 UI)
├── apps/server # FastAPI (大脑:SpoonOS 驱动的 Agent 逻辑)
└── packages/shared # 共享配置与类型定义
