一、AI的诞生:一群大佬的“终极梦想”

1956年,有一场特别重要的会议——达特茅斯会议,就是这场会议,正式宣告了“人工智能”的诞生。参会的都是后来的大佬,比如约翰·麦卡锡、马文·明斯基(都是图灵奖得主,相当于AI界的诺贝尔奖)。

他们当时的想法特别简单也特别大胆:能不能让计算机拥有“人类的心智”?简单说,就是让计算机像人一样,能学习、能推理、能归纳,而不只是死板地算题、执行指令。

比如,人能从“鸟会飞”“麻雀是鸟”,推出“麻雀会飞”;能从几次失败的经历里,总结出经验——他们希望AI也能做到这种“抽象思考”,而不是只能解决“下围棋”“算加法”这种具体问题。

二、AI学思考的“第一本课本”:形式逻辑

要让AI学会抽象思考,得先给它找个“思考的规则”——就像我们小时候学数学,得先懂“1+1=2”,懂加减乘除的规则,才能解复杂的题。AI的“第一本课本”,就是形式逻辑。

早期的AI研究者认为:人类的思考,本质上就是“玩符号”。比如我们说的“苹果”“红色”“好吃”,都是一个个“符号”;我们的思考过程,就是把这些符号串起来,按逻辑运算——比如“苹果是红色的”“红色的水果可能好吃”,所以“苹果可能好吃”。

而形式逻辑,就是把这种“符号运算”的规则,变得标准化、可量化,让计算机能看懂、能执行。换句话说,形式逻辑就是AI的“思考语法”,只有学会了这套语法,AI才能模仿人类的抽象思维。

反过来也一样:任何能把“符号变成另一种符号”的系统,都有可能产生“智能行为”——这就是AI能模拟人类思考的核心逻辑。

三、AI怎么“读懂知识”?从“一句话”到“一套规则”

AI要思考,首先得有“知识”——就像人要思考,得先有认知、有经验。但知识是抽象的,比如“父爱”“科学”“发展”,计算机看不懂这些模糊的词,所以得把知识“翻译”成计算机能理解的样子。

这种“翻译”,就是AI里的“知识表示”——简单说,就是用“数据结构+处理算法”,把抽象知识变成计算机能存储、能运算的内容。

而形式逻辑,就是最常用的“翻译工具”。其中最基础、最常见的,就是我们上学时可能听过的“三段论”——这是古希腊哲学家亚里士多德提出的,也是形式逻辑最简单的例子:

大前提:科学是不断发展的;

小前提:人工智能是科学;

结论:人工智能是不断发展的。

可能有人觉得这很简单,但它的意义特别大:亚里士多德定下的,不是“科学会发展”这个结论,而是“从两个前提推出一个结论”的“形式化过程”——不管内容是什么,只要前提是对的,按这个规则推,结论就一定是对的。

比如把内容换成:“猫爱吃鱼;橘猫是猫;所以橘猫爱吃鱼”,逻辑依然成立。这种“不看内容、只看规则”的特性,刚好适合计算机——计算机不用懂“猫”和“鱼”是什么,只要按规则运算,就能得出正确结论。

四、从“一句话”到“拆句子”:谓词逻辑的升级

三段论虽然好用,但有个缺点:只能处理“完整的一句话”,没法拆解开细节。比如单独说“老李是小李的父亲”,如果没有上下文,计算机根本不知道“老李”和“小李”是谁,也没法把这句话和其他话联系起来——这就是“命题逻辑”的局限(命题逻辑就是把“一句话”当最小单位,只判断对不对)。

为了解决这个问题,研究者们在命题逻辑的基础上,升级出了“谓词逻辑”——简单说,就是把一句话拆成“谁+做什么/是什么关系+有多少”,让计算机能看懂句子里的细节。

比如“老李是小李的父亲”,拆解开就是:

  • 个体词:老李、小李(就是“谁”,能独立存在的对象);
  • 谓词:是…的父亲(就是“关系”,描述个体之间的联系);
  • 量词:如果说“所有父亲都爱孩子”,“所有”就是量词(描述数量)。

除此之外,还有“逻辑联结词”,比如“非”“且”“或”“如果…那么…”——比如“如果下雨,地面会湿”,就是用“如果…那么…”把两句话连起来。

有了这一套,计算机就能精准“读懂”知识了:既能表示“老李是小李的父亲”这种事实,也能表示“如果下雨,地面会湿”这种规则,还能把不同的知识串联起来。

比如要表示“所有自然数都是大于零的整数”,用谓词逻辑翻译一下,计算机就能看懂:先定义“N(x)表示x是自然数”“P(x)表示x大于零”“I(x)表示x是整数”,再用“如果…那么…”“且”连起来,就是“对于所有x,如果x是自然数,那么x大于零且x是整数”。

五、AI的“推理神器”:产生式系统

学会了“读懂知识”,下一步就是“学会推理”——也就是从已知知识里,推出新的结论。AI的“推理神器”,就是“产生式系统”,它的逻辑特别像人类的思考过程。

产生式系统的核心,就是“如果…那么…”的规则(也就是P→Q),比如:

  • 如果今天下雨(P),那么带伞(Q);
  • 如果考试考满分(P),那么能拿奖励(Q)。

这里的P叫“规则前件”(前提),Q叫“规则后件”(结论或动作)。更厉害的是,一个规则的结论,能当成另一个规则的前提——比如“如果下雨,带伞”“如果带伞,就不会被淋湿”,连起来就能推出“如果下雨,就不会被淋湿”,这样就能解决更复杂的问题。

一个完整的产生式系统,有三个部分,我们用“AI的大脑”来类比,就很好懂:

  1. 规则库:相当于AI的“知识库”,存着所有“如果…那么…”的规则,比如“下雨带伞”“满分拿奖励”,是AI推理的基础;
  2. 事实库:相当于AI的“记事本”,存着当下的已知信息,比如“今天下雨了”“我考试考了满分”;
  3. 推理机:相当于AI的“大脑处理器”,负责把“规则库”和“事实库”结合起来,推出新结论——比如看到“今天下雨了”(事实库),就去规则库找“下雨带伞”,然后推出“今天要带伞”。

推理机还有三种“思考方式”:

  • 正向推理:从事实出发,推结论(比如“今天下雨”→“带伞”→“不被淋湿”);
  • 反向推理:从结论出发,找前提(比如“我想不被淋湿”→“需要带伞”→“需要下雨”);
  • 双向推理:两边一起推,效率更高(比如“今天下雨”和“我想不被淋湿”,一起推到“带伞”)。

六、AI的“死穴”:缺常识,绕不开的“哥德尔陷阱”

看到这里,你可能会觉得:AI有了形式逻辑,有了产生式系统,应该能像人一样思考了吧?但事实是,早期的AI,连一个简单的常识问题都解决不了——这就是AI的第一个“死穴”:缺常识。

对人类来说,常识是天生的、潜移默化的——比如“张三捡起足球”“张三在运动场上”,我们不用想就知道“足球在运动场上”;比如“人不会凭空消失”“水会流”,这些都是我们从小就懂的常识。

但计算机不一样,它没有“成长过程”,没法自己“领悟”常识,只能靠人类把常识一条条“输”进它的“知识库”里。可常识太多、太零散了,而且很多常识是“无法用语言精准描述”的——比如“什么是开心”“什么是道德”,连我们人类自己都没法说清楚,更别说输进计算机了。

更致命的是,AI还绕不开一个“终极陷阱”——哥德尔不完备性定理。这是AI无法成为“全能大脑”的根本原因,我们用通俗的话解释一下:

1931年,数学家哥德尔证明了一个结论:任何一套“讲道理的规则体系”(比如形式逻辑、数学公理),里面总有一些问题,既没法证明是对的,也没法证明是错的。

最经典的例子就是一句话:“本数学命题不可以被证明”。

你仔细想想就会发现矛盾:如果这句话是对的,那它说“没法被证明”,可我们已经证明它是对的了,矛盾;如果这句话是错的,那它说“没法被证明”就是假的,也就是说它“能被证明”,可我们已经证明它是错的了,也矛盾。

这个定理对AI的影响是什么?简单说:如果AI想拥有和人类一样的“自我意识”(比如知道“我是谁”),就必须建立一个“代表自己的符号”——可一旦有了这个符号,就会出现“自指”(比如“我这个AI的命题没法被证明”),就会陷入哥德尔的矛盾里,没法跳出这个陷阱。

这就意味着,基于形式逻辑的AI,永远不可能做到“完美思考”,永远会有解决不了的问题——它可以解决复杂的数学定理证明,却解决不了“张三捡足球,足球在哪”这种常识问题;它可以下赢围棋世界冠军,却没法理解“开心”和“难过”的区别。

七、尾声:符号主义的没落,AI的新方向

正因为这些局限,早期靠形式逻辑“吃饭”的AI学派——符号主义学派,慢慢走向了没落。而现在我们熟悉的AI(比如ChatGPT、AI画画),大多属于“连接主义学派”,靠的是人工神经网络,模仿人类的大脑结构,靠大量数据“学习”,而不是靠形式逻辑“推理”。

但抛开这些学术流派的区别,有一个问题依然没有答案:人类智能和人工智能的本质区别,到底是什么?

人类能在混乱的信息里找到规律,能在没有明确规则的情况下做出判断,能拥有“情感”和“自我意识”——这些,AI至今都做不到。而哥德尔不完备性定理,似乎在暗示我们:AI可能永远也没法真正“拥有”人类的心智。

不过,这也正是人工智能的魅力所在——有未知,有挑战,才有不断探索的意义。

今天我们聊的,只是AI底层逻辑的一小部分。希望看完这篇文章,你能对“AI怎么思考”有一个清晰的认知——它不是天生就会“聊天、画画”,它的第一步,是从“学形式逻辑、学推理”开始的;而它的未来,还等着我们一起去探索。

最后,问大家一个问题:你觉得AI未来能突破“常识”和“哥德尔陷阱”,拥有真正的自我意识吗?欢迎在评论区聊聊你的看法~

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐