当一切都开始循环,人在哪里按下暂停?
从 AI agent、持续学习、生物计算到炼油厂和盯墙术,理解技术真正改变的不是速度,而是人和系统之间的边界|灵感电波 #122
1. everything is a ralph loop
推荐语:这篇非常适合所有正在用 AI agent 写代码、做产品、搭工作流的人读。它最有价值的地方,不是又一次告诉你“AI 可以提高效率”,而是把问题往前推了一层:LLM 不是一个更聪明的搜索框,也不只是一个帮你补代码的工具,而是一种新的、可以被编程的计算机。
作者 Geoffrey Huntley 讲的 Ralph loop,本质上是一种新的工程姿势。过去写软件像搭积木,一块一块往上垒,错了就拆,需求变了就重构。现在更像把泥放到陶轮上:给模型目标、上下文、约束、验证方式,让它不断循环、生成、修复、再验证。工程师的工作不再只是亲手砌每一块砖,而是设计这个循环,观察它在哪里失败,然后把失败变成下一轮系统能力的一部分。
这也是为什么我觉得这篇对新一代工程师很重要。未来真正稀缺的,可能不是“会不会用 Cursor / Claude Code”,而是你是否理解:如何给 AI agent 提供上下文,如何拆任务,如何设计验证,如何让失败收敛,如何把一次提示词变成一个可重复运转的系统。顺便一提,Ralph 这个名字也很有意思,来自《辛普森一家》里那个总是说出离谱但偶尔精准金句的小孩 Ralph Wiggum。很符合这个时代的气质:看起来有点荒诞,但你最好认真听一下。
作者:Geoffrey Huntley 是长期写 AI、软件工程和 coding agent 的工程师,近年持续围绕 autonomous software、AI coding workflow 和“软件工厂”写作。他在文中说,Ralph 不是多 agent 的复杂编排,而更像一个单体、垂直扩展、一次循环只做一件事的 orchestrator pattern。这个判断很值得注意:AI 工程的未来不一定先走向复杂分布式系统,可能先回到更简单、更强约束、更可观察的循环。
金句:“LLMs are a new form of programmable computer.”
2. Why We Need Continual Learning
推荐语:如果你对 AI 前沿技术感兴趣,这篇非常值得读。它讨论的是一个听起来技术、但其实非常关键的问题:为什么今天的大模型像生活在一个“永恒当下”里。
文章用《记忆碎片》做比喻:电影里的 Leonard Shelby 无法形成新记忆,只能靠照片、纹身和外部笔记维持生活。今天的 LLM 也有点像这样。它们从训练中涌现出来,参数里冻结了巨大的知识,但部署之后,模型本体并不会因为新的经验真正改变。我们给它聊天历史、RAG、系统提示词、记忆功能、agent harness,就像给它贴便利贴、写外部笔记、画纹身。问题是,这些东西终究是脚手架,不是学习本身。
这篇最锋利的判断是:上下文学习很有用,但真正的学习需要压缩。人不是因为每次都查资料才变强,而是因为反复经历之后,会把经验压缩成直觉、偏好、判断和模式。现在很多 agent 在 20 到 100 步之后开始丢线索、上下文变脏、目标发散,本质上就是因为它还没有真正把经验变成自己的一部分。更长上下文、状态空间模型、外部记忆层都很重要,但它们可能只是过渡形态。真正的大问题是:模型能不能在部署后持续学习,而不是永远重新开始。
这和上一篇 Ralph loop 正好连起来看。一边是工程实践正在变成循环,另一边是模型本体还不太会从循环中真正长大。我们现在做 AI agent,很像在带一个极聪明但容易失忆的实习生:你可以用文档、流程、检查表、日志让他工作得很好,但你也会不断感到一种别扭——为什么每次都要重新解释?
作者:Malika Aubakirova 和 Matt Bornstein。前者关注 AI Infra,后者是 a16z partner,长期关注 AI 技术栈和创业生态。文章的好处是没有把 continual learning 写成一个遥远的学术问题,而是放回 agent、context、memory 和真实产品形态里看。
金句:“ICL is transient. Real learning requires compression.”
3. I’m Scared About Biological Computing
推荐语:这篇是本周最让人不舒服的一篇。不是因为它写得吓人,而是因为它提出了一个我们很想绕开的边界问题:当“计算”开始发生在真实神经元上,我们还敢像对待硅基系统一样对待它吗?
作者说,他可以接受 LLM 是数学,是矩阵乘法,是概率,是 next-token prediction。我们之所以比较容易说 LLM 没有意识,是因为它看起来只是在模拟思想的输出,没有内在体验。但当同样的训练机制发生在实验室培育出来的人类神经元上,事情就开始变得不太干净了。文章里提到,有公司培育神经元,并训练它们玩《毁灭战士》。系统把视觉数据喂给神经元,神经元需要以某种方式响应。如果人脑接收视神经电信号时我们称之为“看见”,那么这些芯片上的神经元到底算不算在“看”?
这当然不是一个可以轻易回答的问题。我们本能上想说:不算,那只是实验,20 万个神经元还不够成为一个“人”。但问题也正在这里。边界不是天然写好的。谁来决定多少神经元之后需要伦理约束?谁来决定什么样的反馈回路可能产生痛苦?谁来决定一个被训练、被奖励、被惩罚、被迫反复玩同一个游戏的神经系统,仍然只是“计算资源”?
我喜欢这篇,正是因为它没有装作自己有答案。它只是把一种不适感放在桌面上。很多技术真正危险的地方,不是在它第一天就造成灾难,而是在它看起来只是一个很酷的 demo。先是“哇,神经元也能玩 DOOM”,然后是“这很节能”,再然后是“这有商业价值”,最后我们发现,潘多拉的魔盒不是被恶魔打开的,而是被一群很聪明、很兴奋、觉得自己只是做实验的人打开的。
作者:Kuber Mehta,网名 Kuberwastaken,是一位 AI developer 和技术创作者,长期做各种 AI、压缩、游戏和 coding agent 相关项目。他的背景也让这篇文章更有意思:这不是一个技术外部人士对新技术的恐惧,而是一个很爱折腾技术的人,突然在某个边界前停了一下。
金句:“Where do we draw the line?”
4. How an Oil Refinery Works
推荐语:最近因为伊朗冲突,油价重新成为焦点。Reuters 这两天的报道显示,Brent 原油价格在中东局势、霍尔木兹海峡和美伊谈判消息之间剧烈波动,一度因为战争升级和供应中断担忧冲高,又因和平协议希望回落到 100 美元附近。
但问题是,我们平时讨论油价,很容易只停留在金融市场和地缘政治层面:涨了、跌了、谁封锁了什么、谁释放了什么信号。Brian Potter 这篇的价值,是把视角拉回到一个更基础的问题:石油到底为什么这么重要?
答案不是“因为汽车要加油”这么简单。现代世界仍然每天消耗超过 1 亿桶石油。2023 年,石油仍占全球能源使用的大约 30%,比任何其他能源来源都高。更关键的是,石油和天然气还是化工体系的底座,约 90% 的化工原料来自油气,塑料、润滑剂、油漆、合成纤维、化肥等大量现代生活材料,都和它有关。
炼油厂的工作,就是把地下挖出来那团极其复杂的碳氢化合物混合物,变成人类社会可以真正使用的东西。它通过蒸馏、裂化、重整等一系列过程,把不同沸点、不同分子结构、不同价值的组分分离和改造。换句话说,炼油厂不是简单的“加工厂”,而是现代工业文明的翻译器:把地质时间里形成的混沌物质,翻译成飞机、汽车、塑料、衣服、药品、食物供应链和城市生活。
这也是为什么能源问题总是如此难谈。我们当然应该推动转型,但不能把“摆脱石油”理解成一句漂亮口号。石油不是一个单一燃料,而是一整套基础设施、化工体系、运输网络和材料文明。真正成熟的能源讨论,不能只问“要不要石油”,还要问:支撑现代生活的那套底层物质系统,究竟准备好被什么替代?
作者:Brian Potter 是 Construction Physics 的作者,长期写工程、工业、建筑和基础设施。他的文章一贯有一个优点:把那些我们每天依赖、但几乎从不真正理解的物理系统拆开给你看。
金句:“The modern world still runs on petroleum.”
5. Staring at walls to improve focus and productivity
推荐语:这一篇放在最后很合适。前面几篇都在讲系统如何循环、模型如何学习、神经元如何计算、炼油厂如何支撑现代文明。到最后,我们回到一个最朴素的问题:人的脑子怎么办?
作者分享的方法简单到有点可笑:当你注意力耗尽的时候,不要刷手机,不要看视频,不要听播客,也不要假装休息。坐下来,盯着墙看 5 到 10 分钟。就这样。
但这件事真正难的地方,恰恰在于它太简单了。我们现在已经习惯用更多输入治疗输入过载:累了就刷一下,烦了就听点东西,工作卡住了就打开另一个页面,脑子发雾就再来一杯咖啡。结果是大脑没有恢复,只是继续被小剂量多巴胺牵着走。作者说,他自己也会陷入这种循环:睡不好、喝咖啡、靠媒体刺激硬撑、晚上更兴奋、继续睡不好。这个循环听起来太熟了,熟到有点不好意思。
盯墙的意义,不在于它是什么神奇生产力秘术,而在于它提供了一种“无输入恢复”。你不是换一种内容刺激自己,而是暂时停止喂养大脑。它有点像给神经系统一个空白缓冲区:没有新信息,没有新判断,没有新选择,只是让注意力从被外界牵引的状态里慢慢回来。
这可能也是本周五篇文章共同指向的地方。世界正在变成越来越多的循环:agent 循环、学习循环、奖励循环、供应链循环、信息循环。真正的问题不是我们要不要加入这些循环,而是我们能不能在里面保留一个观察位置。你得知道什么时候该让系统继续跑,什么时候该修复它,什么时候该质疑它,什么时候该从里面出来,盯一会儿墙。
作者:Alex Selimov 是科学与后端软件开发者,拥有佐治亚理工计算材料科学博士背景,熟悉 Rust、Fortran、Python、C++ 等语言,也长期关注 LLM 和传统机器学习。也许正因为他是技术背景,这篇“盯墙”才不显得玄学,反而像一个工程师给自己设计的最小可行恢复机制。
金句:“Stare at a Wall!”