一个基于 TradingAgents 框架打造的股票分析 Skill
TradingAgents-CN-Skill 是基于 TradingAgents 框架的中文股票分析 Skill。用户输入股票截图、文字描述或股票代码,Agent 自动完成 4 位分析师 + 2 轮多空辩论 + 风控三方辩论 + 五级评级,输出完整 PDF 报告。
TradingAgents-CN-Skill 是基于 TradingAgents 框架的中文股票分析 Skill。用户输入股票截图、文字描述或股票代码,Agent 自动完成 4 位分析师 + 2 轮多空辩论 + 风控三方辩论 + 五级评级,输出完整 PDF 报告。
2006 年,NVIDIA 推出了 CUDA(Compute Unified Device Architecture)——一套针对自家 GPU 的并行计算平台和编程模型。在此之前,GPU 的职责单一,仅限于图形渲染;CUDA 的出现,使得开发者可以用熟悉的 C/C++ 语言直接调用 GPU 的算力。
大语言模型训练、深度学习推理、科学计算——这些涉及 TB 级数据处理的任务,底层几乎都运行在 CUDA 之上。本文以中立视角,剖析 CUDA 的核心设计,并透过一个实战例子展示其并行计算模型。
Transformer 是当今大语言模型(GPT、BERT、T5 等)的基础架构,由 Google 在 2017 年论文 “Attention Is All You Need” 中提出。它彻底抛弃了 RNN 的递归结构,仅依靠注意力机制实现序列建模,在效果和效率上都带来了革命性突破。
本文通过一张架构图 + 核心公式 + 基础概念解释,帮你快速建立对 Transformer 的整体理解。
上一篇《OpenClaw 的 QMD 记忆引擎:从尝鲜到放弃》里,我因为 2 核 4G 服务器跑不动 QMD 的 3 个本地 LLM 模型,切回了内置引擎。当时以为内置引擎只有关键词搜索——其实不是。
OpenClaw 有一套内置的 Memory 系统,基于 SQLite 实现,开箱即用。但对于需要更高搜索质量、更广索引范围的场景,OpenClaw 提供了一个更强大的选项——QMD Memory Engine。
本文梳理 QMD 的核心概念、架构原理、配置方法,以及它在 OpenClaw 记忆体系中的实际角色,最后与 OpenViking 方案做对比。
上一篇文章记录了将照片站点从 Vercel 迁移到腾讯云 Lighthouse 的过程。迁移完成后,站点功能正常、性能也有明显提升。但在对 Nginx 日志和响应时间做进一步分析后,发现回源架构和协议层面还有优化空间。
📰 Hacker News 热门 - 2026-03-28
🔗 链接
作者深入分析 macOS 多年来的设计退化问题,从系统偏好设置的混乱、到 Siri 的失败、再到 Safari 的各种 bug,论证苹果在"细节打磨"上的傲慢正在系统性崩塌。
文章引发强烈共鸣,被批评阵营和苹果粉丝同时关注——前者找到了共鸣素材,后者则激动反驳。这是近年来 HN 上关于苹果批评最火热的帖子之一,331分 + 230条评论。
最近在研究 AI Coding Agent 的工程化实践,绕不开两个概念:Harness Engineering 和 OpenSpec。两者都跟 AI 写代码有关,但解决的问题完全不同。写篇文章梳理一下。
最近给 OpenClaw 装上了 OpenViking,顺手配了套记忆"双写"机制。折腾了一阵,记录下过程和使用心得,也深入梳理一下 OpenViking 插件的运行原理——它到底是怎么接管 OpenClaw 的记忆系统的。