读取 bookmark-collection 中的书签,使用 jina reader 获取文本内容,然后使用 LLM 总结文本。详细实现请参见 process_changes.py。需要和 bookmark-collection 中的 Github Action 一起使用。
-
(2026-02-18) Snowsky Echo Mini 固件逆向背后的故事
- 作者使用大语言模型对Snowsky Echo Mini MP3播放器进行固件逆向和魔改,开发了资源编辑工具并引发社区热潮。文章反思了人机协作模式、ADHD风险及技术门槛降低带来的安全挑战。
- Tags: #read #agent #llm #deepdive
-
(2026-02-17) LLM-generated skills work, if you generate them afterwards
- 本文探讨了LLM生成技能的有效性,指出任务前生成技能无益,而任务后生成技能能有效提炼解决问题过程中获得的知识,从而提升新任务表现。
- Tags: #read #llm
-
(2026-02-16) The AI Vampire
- 本文探讨AI对软件开发的影响,认为其虽提升效率,但可能削弱开发者技能并引发伦理经济问题,呼吁保持警惕并提升核心能力。
- Tags: #read
-
(2026-02-16) Deep Blue
- Deep Blue指代软件开发者因AI能力增强而产生的心理倦怠和存在主义焦虑。尽管AI挑战了传统技能价值,但开发者积累的经验和解决问题的能力依然关键,通过适应新角色可继续发挥价值。
- Tags: #read
-
(2026-02-16) Bias Toward Action
- “行动偏向”强调在安全护栏下采取最小可行步骤,通过渐进发布、可逆设计、错误预算和基础设施保障,实现快速学习与风险可控,避免鲁莽行事。
- Tags: #read #devops
-
(2026-02-16) Gwtar: a static efficient single-file HTML format
- Gwtar 是一种新型单文件 HTML 归档格式,通过拼接 HTML 与 tarball 并利用 JavaScript 拦截资源请求,实现静态自包含与按需懒加载的平衡。它解决了大型网页归档的效率问题,但受限于浏览器安全策略和服务器对 Range 请求的支持。
- Tags: #tools #deepdive #web
-
(2026-02-15) How Generative and Agentic AI Shift Concern from Technical Debt to Cognitive Debt
- 文章探讨AI生成代码如何将软件开发中的技术债转化为认知债,强调开发者对系统理解的缺失可能比代码质量问题更危险。建议通过确保变更理解、记录决策原因和加强团队共享知识来应对,并呼吁进一步研究认知债的衡量与预防。
- Tags: #read
-
(2026-02-15) 设计数据密集型应用(第二版)
- 《设计数据密集型应用(第二版)》是 Martin Kleppmann 所著经典技术书籍的中文翻译版本,由冯若航(Vonng)主译,目前处于第二版翻译预览阶段。该书系统性地探讨了数据密集型应用的设计原理与实践,内容分为三大部分: 第一部分“数据系统基础”涵盖数据系统架构权衡、非功能性需求、数据模型与查询语言、存储与检索、编码与演化等核心主题。 第二部分“分布式数据”深入讨论复制、分片、事务、分布式系统常见问题以及一致性与共识机制。 第三部分“派生数据”聚焦批处理、流处理、流式系统哲学及如何确保系统正确性。 此外,本书还包含术语表、索引、后记及贡献者列表。翻译工作由社区协作完成,持续进行优化与校订,并提供简体中文、繁体中文及初版链接。译者强调翻译出于学习目的,不追求商业利益,并呼吁有能力者购买正版支持原作者。
- Tags: #book
-
(2026-02-15) OpenClaw深度分析:为什么突然就火了,以及对我们意味着什么
- OpenClaw的爆火源于将Agentic AI与通信软件结合,实现了能力的“平权化”传播。其成功依赖于统一入口、持久记忆和Skills生态,但也存在界面瓶颈、记忆黑盒和安全风险等限制。进阶用户应理解其哲学,融入现有工作流,构建更高效、安全的个性化Agent系统。
- Tags: #read #agent #deepdive
-
(2026-02-15) Two different tricks for fast LLM inference
- 文章对比了Anthropic与OpenAI的“快速模式”技术路径:Anthropic通过降低批处理大小提升单个用户速度,但成本增加;OpenAI则借助Cerebras硬件与模型蒸馏实现超低延迟。作者认为OpenAI方案更具突破性,但指出快速推理可能并非主流需求,因准确性常优先于速度。
- Tags: #read #llm
- 2026-02 (37 entries)
- 2026-01 (67 entries)
- 2025-12 (68 entries)
- 2025-11 (78 entries)
- 2025-10 (67 entries)
- 2025-09 (40 entries)
- 2025-08 (46 entries)
- 2025-07 (77 entries)
- 2025-06 (75 entries)
- 2025-05 (65 entries)
- 2025-04 (61 entries)
- 2025-03 (49 entries)
- 2025-02 (32 entries)
- 2025-01 (41 entries)
- 2024-12 (45 entries)
- 2024-11 (57 entries)
- 2024-10 (34 entries)
- 2024-09 (46 entries)
- 2024-08 (31 entries)
- 2024-07 (12 entries)