跳到主要内容

「像」就是「是」

· 阅读需 5 分钟

编程领域有一个非常著名的理念(至少会 Python 的人应该都知道):

你盯着一个动物看,发现它声音也像鸭子,走路的姿势也像鸭子,那么它就是一只鸭子

这么粗暴的逻辑听着有点荒谬,不过它在脚本类编程语言中非常实用,省去了许多仅仅为了满足更严格的逻辑需要而编写的无用代码。

然而这种非常简陋的实用主义思想,正在被套用在对 LLM 的理解上。我说的并不是图灵测试——图灵测试定义的只是「智能」。

但是许多人开始误以为,能通过图灵测试的就是「人」。

那这种偏差到底造成什么实际后果呢?最近我在 Hacker News 上看到了一个绝佳的例子(讨论帖在这里):

有人发了一个推文,说 Claude Opus 在他反复强调不能动生产数据库的情况下,居然直接一锅端,把所有数据连同备份都删除了。他让 AI 解释原因,AI 给出了一连串的道歉承认错误。

这个人以为「让 AI 解释原因」就像是逼问孩子有没有用斧子把花瓶给劈了1——它可能诚实地交代自己的动机,也可能编个故事撒谎。但是,根据 LLM 的工作原理,AI 并不是在撒谎,也不是在坦白,而是「用坦白的形式来解释已经发生的事情」。

就像是华盛顿把樱桃树给砍了,当他爸爸来质问他为什么这么做的时候,他却让列宁来回答。列宁就只能用诚恳道歉的形式,来解释华盛顿做过的事情。

LLM 是一个无状态随机函数(唯一的状态是来自随机数发生器),他的全部状态都在输入里,每次输出一个 Token。一种很黄很暴力的解释就是,让一个叫 Opus 的智能来预测下一个 Token,然后就把它「杀」了,再请另一个一模一样的 Opus 来预测下一个 Token,然后再把它「杀」了……如果你问最后一个 Opus 为什么前面那个 Opus 做了某件事,它正确的回答应该是:「我也不知道啊,它都已经死了。」

之所以推文主会把「AI 的认错书」拿出来说事,就说明他真的已经把 LLM 当成了「人」。两者相似的表现极具迷惑性,但是我们并不是对 LLM 的机理一无所知——相反,我们设计了它。

这就涉及到了「本质主义」和「操作主义」之间的对立。放弃对于「本质」的执念,投靠表象上的高度一致,意想不到地推动了理论物理学的几次巨大飞跃:

  • 麦克斯韦根据光速和电磁波的传播理论速度非常相近,断言了「光就是电磁波」
  • 玻尔兹曼根据微观粒子的运动速度与温度之间的高度相关性,直接断言了「温度就是微观粒子的平均速度」
  • 爱因斯坦观察到「无重力的太空中如果有一个匀加速直线上升的电梯,那么电梯里的人就会以为自己在重力场里」,断言重力和匀加速系是一个东西,创立了广义相对论

但那是因为物理学研究和推断的对象,并不是我们所创造的。如果我们已经知道了本质是不同的,但是却观测到了高度一致的行为模式,难道我们要回过头去推翻对自己所创造事物的理解吗?

我相信,这个问题也不见得是无可争议的,肯定有正反两方的观点。不过我认为,AI 作为一个被造物,得出这种观点无可厚非;创造者如果想不明白,那好像就有点掉身价了。毕竟「『像』就是『是』」的操作主义哲学有一个前提,就是我们找不到任何一个方法能区分两者的区别——这是一个永无止境的苛刻条件。

你盯着一个动物看,发现它声音也像鸭子,走路的姿势也像鸭子,当你觉得肯定是鸭子的时候,他转过头来对你吼了一声:「瞅什么瞅啊!」

声明

我在这里狭义地讨论当前的 LLM 技术,即模型参数不会被动态调整(没有真正的记忆和学习),并不是在断言「今后任何 AI 形式都与人的思考有本质的不同」。如果今后人类开发出了更像大脑的 AI,那就另当别论了。

Footnotes

  1. 这里把「伟大领袖列宁」和「伟大领袖华盛顿」的教科书事迹杂交一下。