Skip to content

[Bug/Refactor] 修复巨鲸情绪评估模块:解决哈希覆盖、对数权重失效与 Altcoin 数据污染问题 #3

@yuqiaowu

Description

@yuqiaowu

背景 (Background)

crypto_brain.py中的 analyze_transfers_v1(情绪打分内核)和 merge_and_filter_txs(去重器)存在三处会导致 AI 对市场判断产生严重误导的隐蔽型逻辑 Bug。主要体现在:多币种连环 Swap 被覆盖、超级巨鲸的资金话语权被异常压缩、以及 MEME 币波动污染了主网币(ETH/SOL)的情绪分析池。

问题症状 (Symptoms & Real Case)

Swap 动作自我覆盖:巨鲸在链上使用 SOL 兑换为 USDC,这会抓取到两条记录(SOL 卖出与 USDC 获取),但这原本是一笔 tx_hash。在先前的字典过滤 merged_map[tx['hash']] 中,后者直接覆盖了前者,导致 真正的深度抛压/买入记录被完全掩饰。
权重失真 (Log10 Issue):情绪系统先前的计分体系采用 math.log10(amount_usd),这导致 1,000 万美金砸盘的严重程度仅仅是 1 万美金散户买单权重的不到两倍。真实超级巨鲸的影响被蚂蚁海量交易稀释抹平。
情绪杂交污染:AI 获取全局转账(含 SHIB, PEPE, WIF 等热钱转移)后,计算 ETH 或 SOL 时未排除这些非标资产(Altcoins)。导致 AI 因为 Meme 币种的情绪异动,错判主标的(ETH/SOL)的大势。
修复方案 (Resolutions)

升维去重字典键名:
将 merge_and_filter_txs的去重防撞键修改为双重元组:(tx['hash'], tx['symbol'])支持单笔哈希中多币种换手的独立存活分析。重构计算标量:
将指数抹平工具 math.log10 替换为了 平方根 (math.sqrt)。例如 $10k 获得 100 占比,$10M 获得 3162 占比。放大超级巨鲸在加权平均算法时的绝对统治力。

构建同源资产隔离墙:
为函数级分析器 analyze_transfers_v1(transfers, market_metrics, target_symbol="UNKNOWN")新增目标锁定传参。
在遍历中拦截计算:if symbol not in STABLECOINS and symbol != target_symbol: continue。严格保证 AI 在推演 ETH 时,只感知 [ETH + 全局稳定币] 的净流向,根除垃圾数据的交叉干扰。

影响 (Impact)

修复后,系统重获“抓大放小”的敏锐度。V2 分析引擎提供给 AI 的 sentiment_score(情绪分)与 confidence_score(信心分数)将完全贴合实战中主流币对资金大额吞吐的真实反馈。

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions