1.关于大模型不能通向AGI的观点

关于大模型能否通向AGI,学术界有着不少的争议,反对派主要观点是大模型不具备理解现实世界、不具备抽象推理和自主行动能力。持有此观点的很多人都是 AI 领域的权威专家,如朱松纯、李飞飞。
1)大模型通过文本训练,学习到的是词语之间的统计关系,而非真实世界的逻辑规律,模型虽然可以基于语言模式输出,但并不理解背后的社会意义。
2)抽象推理能力不足,在瑞文标准推理测验等需要小样本归纳的任务中,大模型表现较差‌,尽管推理模型在数学和编程领域有所提升,但逻辑链条仍然依赖数据拟合,而不是真正的因果推理,缺乏真正的符号抽象能力
3)自主行动的本质是感知、行动、反馈的闭环,就像特斯拉汽车从 A 驶向 B 的过程中,不断感知自己所处的环境、采取趋近目标的行动、基于反馈不断调整策略,这个过程本质还是基于历史数据的模式来找出最大概率的后续决策,虽然数据量足够丰富可以实现跟自主意思类似的效果,但本质上并不是基于逻辑的。

我的个人观点,智能是大量数据提炼出的少量逻辑规律,基于逻辑规律做出决策,而非基于大数据的概率统计,因此,一切从规模化数据的预测都无法通向 AGI。

2.人和机器的本质区别

如果单单从能耗层面来看,人的效率远高于机器,因为如今的人工智能需要消耗大量的算力资源,但真不是本质,本质是人可以跳出数据呈现的概率统计结果之外,做出超出大多数人认知的决定,而这种决定用数据的逻辑无法推导出来。就像黑客帝国里的场景,架构师精确计算了所有的可能性,但是主角采用了非常规的逻辑推导机制,并最后取得了成功。

从很多科幻电影里看到,某些机器人通常长时间与人相处,获得了超出芯片写入的固有逻辑的智能,产生了不符合机器逻辑的人的逻辑,正是由于这种表现被认为机器人必须被消灭,因为如果不能通过固有逻辑模式进行约束,那么就会失去了控制,正是这种不受控制的约束,才是智能的本质。由人给机器人设定的不可突破的规则,让机器永远在既定的规则下采取有限自主的行动,不会出现机器威胁到人类生存的行为。

能否从认知上不断从与现实世界交互的过程中复盘、调整,能够突破自我的局限性,这是机器和人目前最大的差别,而智能就是要模拟人的不断进阶的过程,将感知、行动、反馈、调整作为强化学习的输入,最终实现跃升。

3. 如何定义智能

如今智能这个词通常被加在一些传统物品上,以体现出这个物种的与众不同,比如智能汽车,支持通过语音控制某些功能,比如通过对话调节空调温度。某些时候我们觉得能听懂我们的话,按照我们的指令进行操作,这个是智能的体现。我们再看美国的电影大片-钢铁侠,这里面的机器人能够预测接下来要发生的事情,根据主人的一些现状做好防护措施等。特别是最近特斯拉发布的 FSD v14 的表现,根据驾驶员的行动采取停靠、等结账之后再开出等。

因此,根据我的理解智能可以分为至少三个等级:

1)能够预测,能够基于现状和规律预测接下来会发生什么,比如作为一个 SREAgent,能够预测接下来哪里会发生故障,通知到相关的人。在一定程度上可以帮助人处理更多并发事务,或者在人休息时代人工作。
2)能够行动,在预测到的事件发生的基础上,能够自主采取行动将状态恢复到发生前的状态,这时候机器需要自主寻找解决办法、调用工具实施行动、评估状态是否恢复。
3)能够学习,我们从人类世界会发现,两个人可能都在餐厅做服务员,但20年后黄仁勋成为了全球市值最高公司的 CEO,这里的差距在于不断尝试、复盘、优化,只不过让机器学会这个过程,发现规律、利用规律这种模式才是真正的智能。

如何创造智能

我记得多年前有一个故事,虽然不知是真还是假,作者觉得还是非常有意义的,那就是谷歌提供了一个图形验证码功能,就是我们常见的在输入用户名和密码之后弹出的验证码,其他网站都只是用来防止撞库攻击,而谷歌在用这个功能在沉淀数据训练 AI,并且这个行为在 AI 出现前的 10 年就开始了。

我们通常认为各大公司在 AI 赛道上比拼的是有多少算力,眼光稍微深刻一些的会认为是多少数据量,但其本质是思维前瞻性,而这是降维打击。在如何创造智能方面,可能从一开始的目的就选择了不同的终点。我们今天很多时候构建应用的目的在于提供某个功能,仅此而已。这是绝大多数产品经理的思路,但实际上今天我们如果希望构建智能,还需要考虑这个应用所沉淀的数据,如何高效地被机器学习所使用,被用来构建智能化。

知易行难,对于具体如何来做,这里面我们需要结合具体的行业知识模型,接下来想就所在的 AIOps 领域进行一些思考和拆解。

识别出零界点

图灵测试是一个非常好的零界点,让普通人可以理解如何区别智能和非智能。近期的一则新闻让我颇感震惊,那就是一些创业公司在展会上,让藏在会场边上的工作人员遥控机器人做动作,然后会场内的工作人员给投资人介绍时说,这些机器人全部都是自主识别、自主决策和自主行动的。从新闻报道来看,确实有一些投资人对此深信不疑的,从这个我们发现对于 AGI 大家并没有一个共识的临界点。

人可以说是 AGI 的最顶级形式,那么机器人的 AGI 跟人类的区别是什么,是不是如果不看外表,单看机器人的行为是无法区分是生物人还是机器人呢。

大模型“幻觉”

这是一个很奇妙的话题,近期一篇报道说一位作者使用AI写了一篇论文发给了某行业头部杂志,居然被审核通过并发表了,这可能是大模型幻觉最不容易被察觉的领域,科研论文的阅读本来就有较高的门槛,在正确的内容中参杂一些不正确的内容,对于审核人来说求证成本极高.

正是由于大模型有幻觉,大模型投毒作为一种攻击机制常常变得有效,云南的朋友每年都会尝试各种蘑菇,最终出现幻觉导致分不清现实.我们普通人将会更加难以分辨什么是现实.

那大模型的幻觉是否是大模型不能通向 AGI 的核心原因呢?

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐