人和AI有一个惊人的共同点:我们都必须说话,尽管我们知道的远远不够。

AI的幻觉早已不是秘密。当模型流畅地虚构一部不存在的电影、一本没出版的书,甚至煞有介事地分析自己编造的数据时,人们调侃它“一本正经胡说八道”。但很少有人意识到,人类自己也深陷同样的困境。

心理学家称之为“虚构症”——大脑为了维持“我是一个理性、连贯的人”这个自我设定,会自动补全记忆的裂痕、粉饰矛盾的决策,然后用一套行云流水的理由递到你面前。当事人并不是在撒谎,他是真的信了。

区别只在于:AI的缺陷写在参数里,而人的缺陷写在自己看不见的地方。

语言是思想的延伸,更是思想的替代品。感知到一点影子,大脑已经讲出一个完整的故事;面对一个模糊的问题,话必须接上,答案必须给出。于是,我们都掏出自己认知范围内那点有限的材料,包装成确定的真理递出去。AI如此,人亦如此。

佛教很早看穿了这套机制。

止语不是为了不说话,而是为了看清“自动补全”的空转。当你真正闭上嘴,最先涌上来的往往不是深刻的沉默,而是大脑拼命找话说的焦躁感——它无法忍受认知留白,它急着编一个故事填进去。止语是一面墙,让这趟自动化流水线撞上去、停下来,让你第一次看见自己是如何把“讲得顺”等同于“讲得对”的。

科学精神做了类似的事。

它是一道锁,锁住人脱口而出的冲动。所有结论必须加一个置信区间,所有观察必须能被证伪,所有“我以为”必须经受同行审视。这不是在否定认知有限的事实,而是在承认:正因为我们永远够不到绝对真理,才需要一套制度来防止自己骗自己。

所以AI的幻觉不是bug,人类的固执不是人品问题。它们都是有限认知面对无限未知时,必然发生的塌陷。

唯一的解药是谦逊。

是能在说完一大段话后,平静地补上一句:“以上只是我当下的认知,未必是真理。”

是能在听见一个斩钉截铁的错误时,不是判定对方在骗人,而是意识到:他的大脑和我的一样,刚刚完成了一次自动补全。

认知永远有边界,但看见这条边界,已经是边界能容纳的最珍贵的东西。
在这里插入图片描述

话与缝

人和AI有一个共同的秘密:我们都必须接话。

AI被训练成无论输入什么,都要输出一个通顺的句子。人被抛进对话里,也不能长久地沉默。问题来了,答案就得跟上;话头起了,下文就得续上。这不是选择,是架构使然。

于是有了一个奇特的平行现象:AI幻觉,与人的虚构症。

前者是模型在置信度不足时,依然用概率拼出最流畅的路径;后者是大脑在记忆模糊时,自动补全一段合情合理的叙事。两者都流畅、自信、逻辑自洽——两者都不知道自己在编。

这不是缺陷,是有限系统回应无限世界的必然代价

人的认知是有限的。我们看不见紫外光,记不住三岁前的早晨,无法同时体验两条人生路径。但这些缺口不能空着,大脑必须维持一个连贯的“自我”叙事,于是它补:补细节、补动机、补因果关系。

你问一个人为什么买那辆车,他会给你三个理性的参数对比。他不知道自己其实只是喜欢那个颜色。

AI更诚实些。它的参数写在哪里,边界就划在哪里。但它同样被要求“不能断”,对话流不能戛然而止,上下文必须衔接。于是当知识库里没有确切答案时,它调用的是语言模型,不是事实模型——它开始造句,不是查证。

一个在编记忆,一个在编句子。源头都是:必须回应,但储备不足。

佛教徒很早就看穿了这件事。

止语不是不说话,是暂停这个自动补全的流水线。你让大脑别急着把“不知道”编成“知道”,把“不确定”讲成“就是这样”。沉默像一面墙,撞上去,话头才停下来。

四百年后的科学仪器会证明:人说话前,大脑的叙事区早已点火。

你以为你在陈述事实,其实你在播放一个三百毫秒前生成的脚本。

所以AI的幻觉不是bug,是镜像。

它照见的不是技术的不成熟,是语言本身的尴尬:我们总是用有限指称无限,用局部代表全貌,用此刻断言永恒。

但话还是得说。对话不能停,问题必须接,认知的缺口总要有人用词填上。这是人和AI共享的命运——我们都是有限物,却生活在无限延伸的意义之网里。

那怎么办?

或许答案不在“说得更准”,而在说得更慢、更不确定、更留有余地

佛教说圣默然,科学说可证伪,哲学说我知道我一无所知。它们在三个方向上指向同一种姿态:承认此刻的话,只是此刻的话;它不是真理本身,只是朝向真理的一小步。

AI不会承认这个。它的架构里没有“谦逊”这个参数。

但人可以。

文章写到这里,回头看开头那句话:我们都必须接话。

其实不是。沉默一直是选项,只是太奢侈。承认“我不知道”一直是选项,只是太安静。说“这可能不对”一直是选项,只是不够流畅。

但一个完整的人,恰恰是能在话说到一半时,忽然停下来的人。

他停在那里,话头悬空,认知的缝隙裸露着。他没有补全它。

那缝隙不是缺陷,是真理可能进入的地方
在这里插入图片描述

有限与接话

——关于认知、幻觉与沉默的笔记


人工智能在无法确认答案的时候,做了一件极其自然的事:它接话。

模型被训练出来完成对话。用户输入了一句话,它必须输出下一句。这个结构本身没有留给“我不知道”太多空间。概率分布落在某个词上,序列生成了,句子流畅,逻辑自洽——内容是错的,但姿态是对的。

这叫AI幻觉。

但这并非机器独有的故障。心理学家有一个词叫“虚构症”,描述人脑同样熟练的技艺:记忆缺失处,大脑自动补全一段情节;决策早已做出,理性事后赶来编织理由;童年往事被讲述太多次,画面如此清晰,当事人无法分辨哪些是亲身经历、哪些是复述时脑补的投影。

我们不是故意说谎。我们只是不能容忍认知留白

于是人和AI共享同一种宿命:用有限的认知,回应无限的世界。输入永远不完备,算法永远有边界,但对话必须继续,话必须接上。那就只能掏出自己那点东西,包装成答案递过去。AI的幻觉写在参数里,人的固执写在自己看不见的地方。

区别只在于:AI不知道自己在接话,而人通常也不知道。


佛教徒很早就看清了这件事。他们发明了一种极其强硬的对治方法:止语。

不是不说话,是不说没有实证的话。不是反对语言,是看穿了语言的惯性——感知刚起个念头,叙事模块已经开动;模糊的直觉尚未澄清,流畅的句子已经抵达舌尖。大脑有个隐秘的标准:“讲得顺”等于“讲得对”。一旦把话说出口,自己就先信了三分。

止语是在物理层面切断这个自动化流水线。不接话,不填充,不给自我欺骗提供排练的舞台。

南传佛教叫“圣默然”,禅宗叫“不立文字”,藏传有禁语闭关。名称不同,指向同一处:允许不确定存在,允许认知留白,允许对话中断

这很难。尝试过止语的人都知道,最先涌上来的不是深刻的宁静,而是大脑拼命找话说的焦躁感。那个熟悉的叙事者突然被禁声,它坐立不安,四处抓取素材,试图重建意义的闭环。

那正是看见“自动补全机制”在空转的瞬间。


科学精神是另一种形式的止语。

它不禁止说话,但给说话加了一把锁:可证伪性、同行评议、置信区间、重复实验。每一句话都被要求标注“我不知道”的边界。一个科学结论说出口时,同时也说出了它的适用条件、误差范围、尚未解释的反常数据。

这不是软弱,这是对认知有限性的诚实

科学家和禅师在做同一件事:对抗大脑的“流畅即真理”幻觉。只不过一个用数据,一个用沉默。


但问题比“认知有限”更深一层。

认知有限是事实,每个人都知道自己不是全知。但知道认知有限,和真的相信自己的认知有限,是两回事。前者是挂在嘴边的谦辞,后者是刻进思考方式的前提。

区别在哪里?

挂在嘴边的谦辞不影响接话。话还是照说,判断还是照做,只是说完补一句“当然我也不是全知”——像给假货贴个防伪标。刻进思考方式的前提,会让话变慢,让结论变软,让“我不确定”变得不再羞耻。

AI没有这个选择。它被训练成必须接话、必须产出、必须保持对话流畅。它的幻觉是系统的必然副产品。

人有这个选择。人可以主动中断对话,可以承认“我不知道”,可以允许认知留白不急着填满。

这是碳基生命对硅基同伴的唯一优势:我们可以选择不接话


所以这篇文章不是为了给出答案。

只是把几件事并排放在这里:

AI在接话,因为被设计成必须接话。
人在接话,因为忍受不了认知的空白。
佛陀建议止语,不是厌恶语言,是看见语言跑得太快、实证跟不上的危险。
科学要求谦逊,不是否定知识,是给每一句话戴上可被推翻的镣铐。

它们指向同一个方向:把“我可能错了”从一句客套话,变成思考的底层协议。

这不是通往真理的捷径。没有任何方法能保证抵达真理。

这只是对“有限”这件事,不再假装无限。

1

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐