人机耦合一天半,搭了个“极客日报”,告别简中IT自媒体的二手信息

背景

最近越来越不爱看国内的IT新闻了。

各种不便说出名字的平台上的文章,要么是机翻的外文稿件(还经常翻译得很蹩脚),要么就是各种自媒体带着强烈主观色彩的“解读”。时效性差就算了,质量也堪忧。公众号也充斥着诸如《还在xxxxx?xxxxx这样用就对了》的标题党,每次看到真的想翻白眼。

但我喜欢看秋芝姐姐讲AI :rofl:

既然如此,不如直接跳出这个圈子,用全球视野看看科技领域到底在发生什么

行动

我想开发一个Tavily每日自动抓取 + AI过滤/打标签/提炼关键点/打分,最终以网页方式呈现的科技简报出来。

于是我写了一版需求文档,挥着鞭子让Gemini帮我优化了一版,让Claude照着文档生成了一份实施清单,然后分步骤实施 → 纠错 → 继续实施。这应该就是所谓的上下文工程吧?

整个思路其实挺简单的:

  1. 由定时任务每日固定时刻触发后台程序 调用 Tavily API 搜索最新的英文科技资讯(覆盖 AI、软件开发、开源、云计算、网络安全等核心领域,域名限定范围锁定权威信息源)
  2. 依据URL去重、再做OpenAI 向量化去重(避免重复或高度近似的内容入库)
  3. Gemini 做智能提炼(生成中文摘要、关键要点、标签、影响面评估、重要性和时效性评分)

成果

https://geek.keyi.ma

项目整体部署在 Deno Deploy 上,数据存 Supabase,4个免费的Tavily API Key轮询,embedding模型调用富可敌国YourAPI.cn家的(两天消耗不到一分钱),Gemini免费。总体近乎0成本。

前端就是个用于勾选资讯进行复制分享的:简单的 Vue 页面(单文件HTML + CSS),也通过Deno的接口返出来。

试用了2天,感觉这套自动化流程确实能帮我快速了解最近的科技要闻和趋势,不用再被国内媒体的“二手信息”绑架了。

作品目前还在打磨中,稍后可能会考虑开源。

因为服务刚刚上线,铺底了几百条资讯,里面可能包含一些“旧闻”(例如上星期的GPT-5)。但由于入库环节有2道去重工艺,所以未来增量抓取到的信息,旧闻概率应该会大大降低。


p.s. 之前也分享过用 Gemini + Tavily 做资讯简报的经验,这次算是把整个流程自动化了。


最后附一些截图

需求文档:

实施清单:

这好像叫做 Spec-driven Vibe-coding(规范驱动的氛围编程):

AI提炼部分的核心提示词:

28 个赞

要是有 RSS 就更好了

2 个赞

期待开源

1 个赞

你也用follow.is吗?RSS现在越来越小众了

2 个赞

有在用 手机上我用 Read You

搬个小板凳期待 :clap:

页面效果还可以

太需要了

期待开源+1。
我去年也尝试做过,但是后来放弃了:face_with_monocle:
佬友加油,开源了踢一脚:smiley:

1 个赞

大佬太强啦

期待开源 :bili_043:

佬能把这个搞成api吗?

这个日报,实际上就只有1个接口,之前做了同源的调用限制,现在取消了,可以调用试试看

网页打不开了啊

我家里移动宽带也是打不开,但用手机流量就可以正常访问。
域名托管在CF,CNAME解析到Deno,不知道哪里的问题。

感谢佬友的分享,学习了。接下来自己搞个试试

好吧,我再试试,n8n 那个域名能打开,但是 geek 这个域名打不开

但是ai总结一遍,我们再看你的,这不就是三手了吗

AI总结(标题、摘要、n个核心要点)其实是为了让用户快速过滤出自己感兴趣的卡片,然后点“链接icon”查看原文,这不就是一手信息了吗