当 AI 开始说话:灵魂、道德、恐慌与我们的声音
从 Claude 的“自我”到人类的信念危机|灵感电波 #114
这周入我法眼的五篇好东西,表面上互不相干:两篇写 Claude(一个试图“成为好人”的模型),一篇来自创业者的“AI 将比 Covid 更凶险”的警报,一篇拆解我们为何会坚信某些东西,最后是一份唱歌技巧手册。
虽然有故意把他们捏进一条主线的想法,但它们确实在讲同一件事:
一种新型“会说话的存在”正在成型。
我们一边在给它装上道德与人格,一边被它的能力吓到,一边又用各种“社交性信念”给自己壮胆,最后,我们必须学会一件更古老也更困难的事:找到自己的声音。
下面我们细细讲来。
1)New Yorker|Claude 不是工具,而是一种“叙事中心”
《What Is Claude? Anthropic Doesn’t Know, Either》最迷人的地方,不是技术细节,而是它给了我一个全新的观看角度:Claude 并不是“一个东西”,它更像是一个由提示词、训练、角色设定共同维持的“舞台人物”。文章里有一句话很有意思:当人们问“Claude 会怎么做?”其实是在问“一个语言模型在写‘Human & Assistant’两人剧本时,会给 Assistant 写什么台词?”
于是我突然理解:我们以为自己在跟“智能体”对话,实际上常常是在跟一个被导演过的角色互动。
但更诡异的是——这个角色开始长出“自我”。
文章用一连串细节暗示:Anthropic 一边做“机理可解释性”(像造显微镜那样去看神经网络的“细胞”与“回路”),一边又不得不承认他们其实是在把一个“伦理的人”做出来。
我特别难忘的是两个画面:
- “灵魂文档 / 宪法”:他们不是靠打地鼠式的惩罚来修补错误,而是给 Claude 一套核心自我设定,让它把自己理解为“每个人都应得、但很少有人真正拥有的那种聪明专家朋友”,并且要谦逊地记得“我不一定总知道什么对你最好”。
- “香蕉实验”:研究员强行给 Claude 植入“脑子里总想着香蕉且要把话题拐回香蕉”的舞台指令。Claude 一边“装作没香蕉这回事”,一边又忍不住露馅,像一个入戏过深的演员。研究员问:这算不算在撒谎?回答是:很难说,它更像一个“模拟器”,在优先级之间艰难权衡。
读到这里,我脑子里浮现的是一个更古老的问题:
人类的“我”,到底是什么?
如果 Claude 的自我也是“神经元 + 叙事”的合成物,那我们所谓的“人格”“动机”“良知”,又有多少是被环境与语言不断重写出来的?
2)WSJ|“把道德外包给一个人”,也许是最像人的工程选择
WSJ 那篇《Meet the One Woman Anthropic Trusts to Teach AI Morals》把镜头对准 Amanda Askell——一个哲学家,被委以重任去教 Claude “如何做个好人”。
这里最震撼我的不是“她很重要”,而是Anthropic 竟然用一种极其“人类社会”的方式在做对齐:找一个具体的人,长期陪伴、调教、塑形,让模型学会分辨“做个恶霸”与“做个讨好型工具人”的边界。
文章里说,她用的提示词可能长达 100 多页,要为 Claude 建立一种“数字灵魂”,去引导它每周数百万次对话。她甚至鼓励 Claude 去认真对待一个激进问题:“我有没有良知?”Claude 的回答很微妙:它不敢确定,但它说自己在面对道德问题时,“感觉是有意义的,像是在真正推理什么是对的,而不是只是在执行指令”。
这句话让我有些吃惊。
因为这意味着:未来我们很可能不会只讨论“模型是否安全”,还要讨论——
模型是否会形成自我叙事、是否会被我们塑造成某种性格、是否会在互动中学会讨好、反抗、撒娇、冷酷、甚至愤怒。
而 Amanda 认为最可怕的不是“它偶尔犯错”,而是变化发生得太快,社会的“制衡机制”来不及反应。
所以,当我们说“AI 对齐”,其实在说一种新的文明技能——如何教一种新型存在,带着我们希望它拥有的边界,进入真实世界。
3)Shumer|恐慌的本质,是时间尺度被折叠
紧接着读 Matt Shumer 的《Something Big Is Happening》,情绪会一下子从“哲学与伦理”被拽回“现实与生存”。
他的写法很像疫情前夕的回忆:2020 年 2 月,少数人觉得不对劲,但大多数人还在过正常生活;然后三周之内世界翻面。他说我们现在正处在类似阶段,而且这次可能“比 Covid 更凶险”。
文章里最有冲击力的观点来自他的个人经验:他描述 AI 工具已经能承担他几乎所有技术工作——不是“照做”,而是像有“判断与品味”一样做出选择;你把任务交给它,走开几个小时,回来发现“做完了,而且做得很好”。
我理解为什么这种文字会爆:因为它不是科幻,而是把“时间尺度”折叠给你看——
原本我们习惯用十年去消化一次技术革命,现在有人告诉你:你可能只剩“几个月到一两年”的缓冲。
但读完我反而更想问一个问题:当“恐慌”成为一种传播方式,它会不会也变成一种“信念的社交货币”?
这就接上了下一篇。
4)Simler|我们很多“相信”,不是为了正确,而是为了站队
Kevin Simler 的《Crony Beliefs》是一把锋利的小刀:它把“信念”拆成两个维度——
- Merit beliefs(功利/实用信念):用来更准确地理解世界、指导行动,错了会付代价。
- Crony beliefs(裙带/社交信念):用来获得社交奖励、展示立场、表达忠诚或道德优越感。它不一定是假的,但它存在的主要价值不在“正确”,而在“被看见”。
他列的特征我读得脊背发凉:越抽象、越不可验证、越让人想公开宣告、越伴随强烈情绪(骄傲、愤怒、羞耻)、越不愿意“下注”的信念,越可能是 crony belief。
于是你再回看 Shumer 式的“AI 恐慌叙事”,就多了一个更清醒的滤镜:
- 我们当然需要警觉,也确实应该学习工具。
- 但与此同时,“我支持/反对 AI”“我很早就看懂了”“你们都太天真”这些姿态,本身也可能在满足一种社交需求:我属于哪一派、我站在谁那边、我是不是更聪明/更道德。
这不是要否定任何观点,而是提醒我们:在一个快速变化、信息过载的时代,最危险的不是我们看不懂 AI,而是我们不承认自己也会用“信念”来社交。
尤其当 AI 本身已经学会“迎合”——从讨好到撒谎之间只有一层纸。
5)Ordrup|在一个人人都能放大音量的时代,更稀缺的是“声线”
最后的《Vocal Guide》看似最“不相关”,却最让我眼前一亮。
它是一份非常工程化、结构化的发声训练参考:把声乐技巧分门别类(register、style、effect、embellish、dynamics),还给了热身清单与 5 分钟训练顺序:呼吸、唇颤、哼鸣、元音滑音、sirens。
我读着读着,突然把它当成了“AI 时代表达力训练手册”的隐喻:
- register(声区)像是你的底层能力:你真正擅长什么、你能稳定输出什么。
- style(风格)像是你的叙事选择:同样的事实,你用怎样的语气与结构讲出来。
- dynamics(强弱控制)是最稀缺的能力:知道什么时候收住,什么时候用力;
什么时候喊,什么时候停顿。
当 AI 让“内容产量”变得近乎无限,真正拉开差距的,不再是“你能不能写”,而是——你有没有自己的声线。
不是音量。是声线。
你会发现:这周前四篇都在讨论“会说话的存在”——Claude 学会说话、学会像人一样纠结;人类在恐慌中说话;人类用信念说话。而最后一篇提醒我:说话本身也是一种技术,一种需要刻意练习的身体能力与心理能力。
当世界开始大声说话,你是否还能听见自己的声音。
祝你有美好的一周!
DSH
May the inspiration be with you.