全网养龙虾

OpenClaw的突然兴起让全网掀起了一股养龙虾的热潮,但所有人都在不遗余力地教你怎么去抓取新闻源,再帮你精简和汇总,就为了一天醒来的时候能像批奏折一样概览天下事,我在某个也在分享技术的贴子下回复,你与其教大家每个人去爬新闻,消耗token去阅读理解和归纳,还不如发布成公开网站,可以节省好多无意义的抓取和计算造成的巨大浪费。

延展讲几句,目前AI涌现期带来的技术平权,好像自己拥有信息的自主权了,毫无疑问会加剧这种无序且巨大的浪费。

现在的局面有点滑稽, 人人都在重复造轮子: * 重复抓取: 比如 Hacker News 上的一篇热门文章,全球可能有 10,000 个人的个人 AI 脚本在同一时间去爬它。 * 重复理解: 这 10,000 个脚本把同样的内容发给 GPT-4 或 Claude,消耗了可能几亿个 Token 来生成那一两百字的简报。 * 结果趋同: 最终这 10,000 个人看到的摘要其实大同小异。

这种现象就像是:为了喝一杯牛奶,每个人都自己买了一头奶牛,而且还都是去同一片草场薅草。这不仅是 Token 的浪费,更是对内容源站(如个人博客、小型新闻网)的 DDoS 级访问压力。

抛开商业模式不谈,这种重复劳动交给一个大的中心订阅服务提供方,使用者只需要做筛选和订阅,Token 的消耗是成数量级的降低,而且也没有损失任何信息。相比现在全网无数的Mac mini,云服务器,到了一定时间都在疯狂地爬一些热门网站,再疯狂地烧Token就为了生成差不多的简报,这种毫无组织力的单兵作战说是原始社会也不为过,迟早会有越来越多的人觉得这很荒谬吧。

话说回来,都是同质内容,你去别人那订阅,和你每天花几十美金自己养只龙虾辛辛苦苦爬取和生成,新鲜感过去之后,还有几个人能坚持呢?