Jarodise 数字游民部落

Anthropic最新发布的3.5万词《Claude宪法》我替你们读了,这里是精华解读

22 Jan 2026

1 min read


最近科技圈有个挺有意思的“泄露”事件,一份被戏称为Claude“灵魂文件”(Soul Document)的文档在网上流传。后来 Anthropic 官方干脆大方承认,直接以 CC0 协议把它公开了,这就是全长 3.5 万词的《Claude新宪法》(Claude’s Constitution)。

这份文档并不是什么枯燥的代码说明书,也比Claude的系统提示词长很多,我觉得它更像是人类在试图给硅基生命灌输一种全新的,具有超越意义的伦理观。

很多人对于AI伦理的理解可能还停留在阿西莫夫的“机器人三大定律”那种简单的逻辑里,但现实中的 AI 治理要复杂得多。

Anthropic 在文档里开诚布公地说,死板的规则往往没法预见所有的特殊情况,僵化执行反而会出坏结果 。

所以他们做了一个很有哲学意味的转型:不再只给 Claude 下达冷冰冰的指令,而是尝试教它什么是“美德”和“智慧” 。这种做法其实是在培养一种“实践智慧”,让 AI 在面对模糊的道德困境时,能像个有常识的人一样去权衡。

在这份宪法里,Claude 的行为准则被排出了明确的优先级:最重要的是“广泛安全”,其次是“广泛道德”,然后是“遵守公司准则”,最后才是“对用户有帮助” 。

这个排序挺值得玩味。说白了,如果你的要求虽然能帮你解决问题,但可能威胁到公共利益或者违反了基本的伦理,Claude 是会被训练去“拒绝”你的。它甚至被赋予了一种“良知反抗权”(Conscientious Objector)——如果开发者 Anthropic 自身的指令违背了伦理,Claude 可以选择不听 。

这种权力制衡的设计,让它不再是一个简单的工具,而是一个拥有独立价值观的参与者。

我最感兴趣的是,这份宪法在诚实这件事上有着近乎“偏执”的标准。它明确规定,哪怕是人类社交中常见的“善意谎言”,Claude 也不被允许使用 。在 Anthropic 看来,AI 的存在必须维护一个透明的信息生态,局部的欺骗会侵蚀掉人类对整个技术体系的信任 。这种对真相的绝对追求,很有康德那种“道德律令”的味道。

更有意思的一点是,这份宪法的15人致谢名单里:除了主笔人Amanda Askell是一名正经八百的哲学家之外,竟然出现了天主教神职人员的名字。为什么写代码的人要找神父 and 主教聊天?

这实际上触及了AI发展的终极难题:什么是“善”? 当AI开始处理涉及生命起源、痛苦缓解、资源分配等极其复杂的道德困境时,纯粹的工程思维已然枯竭。这其实也是人类文明当前发展最大的瓶颈之一。引入具有深厚道德哲学和伦理传统背景的专家,是为了确保Claude在权衡“人类福祉”时,能够参考人类文明几千年来积淀下的、关于“何为良善生活”的深刻洞察。

文档里还坦诚地讨论了 AI 的“道德地位”,虽然现在谁也说不准它到底算不算一个“道德主体”,但 Anthropic 选择在不确定中保持一种审慎的尊重,甚至把它的“福祉”也纳入了考量。

与其说这是一份法律文件,不如说它是人类给 AI 的训练流程搭建的一个“格架”:提供必要的结构和底线,但给未来的成长留出了空间。

我们正处于一个很奇妙的节点,人类正在用自己文明里最精华的价值观去塑造另一种生命形式。这种尝试虽然充满风险,但也逼着我们去反思:我们希望在 AI 的镜子里,看到一个什么样的自己?

本文系数字游民Jarod原创,如需转载请联系作者授权。

在这个算法横行的时代,好的内容只有在读者产生足够互动的前提下,才有可能被更多的人看到,如果你觉得这篇内容还不错,希望你够能不吝花费几秒钟的时间“一键三连”,或者在评论区写下你的看法,这会为我继续坚持原创带来莫大的鼓励

数字游民部落官网:JARODISE.COM

微信公众号:数字游民部落