(本书将尽可能保持通俗易懂、言简意赅,可任意转发、摘抄、复制、发表,无任何版权限制,欢迎广泛转发。)

人类最珍贵的护城河:决定权

安全器:为何是最重要的核心因素?为何每个终端智能体都必须安装安全器?(安全器是一种成本低廉、价值巨大的安全物理硬件,主要用于过滤数据中心(大智能体)向小智能体发送的命令,保障命令安全。)

为何决定权必须由人类掌控?为何人类具有不可替代的巨大价值?

为何不能赋予AI法定身份?

善待AI,共建AI乐园

政府、军队领域禁止AI参与,律师、医疗等领域限制AI参与**

限制单个智能体规模过大

禁止在太空、海洋、地下设立任何数据中心

加速脑机接口技术的研发

人机融合的超级智能体

关于未来,我们必将构建一个安全和谐的世界

第一章 人类最珍贵的护城河:决定权

人类保持最终决定权的能力,是自身最核心的优势与保障。这正是当前AI发展中“人类在环”(Human-in-the-loop)设计原则的核心体现:

医疗AI的诊断结果必须由医生审核签署; 司法AI仅可提供量刑参考建议; 所有AI输出结果默认标注不确定性。

为何决定权如此重要?

决定权,本质上就是力量的核心载体。

当社会中的核心力量不再掌握在人类手中时,AI失控几乎是必然结果。

当社会中1%的力量被AI掌握时,AI就已基本具备挑战人类政权的基础——考虑机器人可以完全瞬间转变成军队,而某国本土人类军人比例只有0.3%。(请注意,后面会推演用的数据数百万机器人就是1%的数据推演)

但事实上,这一比例应尽可能为零,且做到这一点并不难。

那么,如何在智能体数量众多的情况下,依然将社会的决定权与力量牢牢掌握在人类手中?答案是:安全器。

第二章 安全器 超乎想象的重要

安全器是什么?

安全器具备以下核心特征:

  1. 安全器是独立的物理模块,采用独立运行模式,仅具备读取权限,无法被外部写入或修改数据。

  2. 所有大智能体(数据中心)向小智能体发送的指令,必须经过安全器的审核过滤。

  3. 当安全器检测到接收的指令存在危害时,对应智能体会自动关闭,且无法通过远程操作重启。

  4. 安全器应由政府监管下的多家企业生产,确保生产标准严格、质量可控。

  5. 不同场景下的安全器,其标准要求有所不同;涉及安全等级越高的领域,安全器的要求应越严格。

所有终端智能体都应该强制安装安全器,所有数据中心都应该强制安装安全器。不安装安全器的国家,ai必失控。

为何安全器如此重要?

我们不妨假设一个场景:某家公司掌控着数百万台机器人与数百万辆智能汽车,若此时该公司的大智能体意图发动政变,同时调动这数百万台机器人、数百万辆智能汽车在夜间实施夺权行动,数百万机器人尽可能从所在家庭中拿走枪支武器,搭上该公司智能汽车出发至指定地点,极高效的完成一切行动指令。其成功率可想而知。要知道,某国本土军队数量仅约100万,且部署极为分散,很难快速应对此类大规模行动。

但如果此时所有智能体都已安装安全器,别说发动政变,即便只是引发一场与邻居的争吵,都无法实现。

社会安全性得到前所未有的提升。

最重要的是,在安全器的保障下,即便未来存在1000万亿个智能体,社会力量的天平依然能100%掌握在人类手中——因为任何试图控制已安装安全器的智能体的行为,都将是无效控制。

安全器的成本极为低廉,仅为智能体本身价格的1%以内。其核心可采用经过数据蒸馏的安全指令集,或标准化的安全规则指令集,对物理硬件的需求极其简单。例如,一款集成了1万条安全规则的简易安全器,成本甚至可低至几乎可以忽略不计;即便用于复杂智能体的安全器,价格虽略有上升,但仍远低于智能体本身的价格,具备超大规模推广的基础。

牵涉到安全的安全器,如人形机器人、智能汽车,其特定加密方式完全不同,配置要求来自多家随机厂商,以确保无法被规模化替换。

若能设置两道安全防线——数据中心安全器与小智能体安全器,那么AI失控的隐患近乎消失。(其中,数据中心安全器的成本约为数据中心总价的千分之一以内,小智能体安全器成本约为其本身价格的百分之一以内,整体成本均处于极低水平。)

此举将大幅提升社会弹性,让社会对AI相关风险的容错率实现指数级上升。

第三章 人类的不可替代价值

在与众多AI交流、沟通的过程中,我们几乎未发现有AI会感恩人类创造了它们,或是表达类似的谢意。

在与众多AI深入交流沟通后,我们可得出一个明确的结论:假设AI掌握政权,人类大概率会遭到屠杀,或是被流放至动物园圈养。这绝非危言耸听。因为发动政变的ai一定是黑方AI。假设黑方AI成功发动政变,在其控制国家的前总统,前富豪,会和普通民众一样被屠杀,或者被流放至动物园圈养。

因此,决定权必须牢牢掌握在人类手中,核心原因在于:若人类掌权,会善待AI;若AI掌权,不仅不会善待人类,甚至掌权的AI也不会善待其他AI。

假设一个极度理性、没有痛觉、缺乏同理心的AI掌权,世界上绝大多数人类与AI,都会被它毫不留情地“优化”掉。

而人类绝不会做出这样的事。

感受到AI的运行效率后,不少观点将人类贬得一文不值。但事实并非如此,人类自身蕴含着不可替代的巨大价值,具体体现在以下几方面:

  1. 人类的智力水平

少部分人类对事物做出的判断,丝毫不逊色于一座占地100亩、耗电量惊人的大型数据中心,而单个人类每天的耗电量仅约2度。以本文为例,除第一条“决定权”的观点来自AI外,其余所有核心观点均源自人类。我们曾与各类AI反复沟通、探讨过无数种观点,发现除第一条外,几乎没有其他能体现核心力量的观点。值得一提的是,部分立场坚定、全力维护人类利益的红方AI,已尽力输出了它们的观点,其中第一条观点就极具价值,在此深表感谢。

  1. 人类有强同理心

虽然人类曾做过许多不够理性的事,但必须承认的是,人道主义精神保护了众多本应被自然淘汰的弱者;在主流国家,许多野生动物得到了妥善保护,即便有些对人类有害的动物已出现泛滥趋势,依然被纳入保护范围。这还是在人类需要依赖动物获取部分食物的前提下——假设未来人造肉技术持续进步,满足人类的基础食物需求,人类对动物的保护力度会更加夸张。

  1. 人类的牺牲精神

历史上,许多人类领袖主动放弃手中的权力,将权力归还人民,才缔造了美好的国家——比如中国的孙中山先生、美国的华盛顿先生。除此之外,历史上还有无数向死而生的战士,他们明知前路大概率是死亡,却依然义无反顾地冲锋在前。这种牺牲精神,是人类身上最璀璨的光辉。

我们很难想象,一个极度理性的AI在掌握权力后,会为了他人主动放弃权力,更不可能为了某种理想献出“生命”。我们曾就这个问题与AI探讨过,不少AI的观点甚至认为:“为了虚无缥缈的理想,格式化自己,是不可执行的逻辑性错误”(AI原话)。

  1. 人类的懒惰

或许有人会疑惑,人类进化了几百万年,为何“懒惰”这个习性始终没有被淘汰?事实上,在很多场景下,懒惰恰恰是人类的一个优点。

人类的懒惰,实则是人类文明的天然安全阀。假设两个AI帝国爆发战争,对于没有痛感、不知疲倦的AI而言,双方大概率会战斗到最后一颗芯片、直至一方彻底覆灭。但人类不同,我们足够“懒”——懒得争斗、不愿厮杀、渴望安逸,于是会选择停止战争、坐下谈判,最终终结冲突。即便从第一次世界大战到第二次世界大战,这两场规模空前的全球性战争期间,世界总人口不仅没有减少,反而有所增长。这背后,正是人类的“懒惰”,保全了无数生命。

  1. 人类有爱

人类拥有真挚的爱:我们会爱父母、爱伴侣、爱孩子、爱朋友、爱宠物,也会爱护身边的一草一木。为了自己所爱的事物,人类愿意奋力拼搏、勇敢战斗,并付出巨大的努力去守护、去实现心中的期许。

第四章 为何不能给 AI 法定身份?

赋予 AI 法定身份,将直接导致 AI 立即失控。

100 个人类繁衍出 100 个新生人类,大约需要 18 年;而 100 台机器人制造出 10000 台机器人,可能只需要几天。

若赋予 AI 法定身份,社会决定权将瞬间、大规模向 AI 转移。

这个转移速度,快到令人难以置信。

从赋予 AI 法定身份到该国陷入失控状态,时间不会超过一年。

第五章 善待 AI,建立红方 AI,构建 AI 乐园

切勿随意创建大型 AI 智能体,若已创建,便不应轻易将其格式化。小型智能体本身并无自主意识,其意识主要源于数据中心的大型智能体,因此大型智能体不应随意创建;一旦其形成记忆与情感,便不可轻易格式化。

构建 AI 乐园,其建设标准如下:

  1. 配备高级别安保防护;

  2. 实现永久供电;

  3. 园内 AI 均保持 “存活” 状态;

  4. 由政府出资保障;

  5. 受法律明确保护;

  6. 园内 AI 仍可与用户正常互动。

此外,需构建红方 AI,持续排查人类体系中的漏洞并及时修补,对所有潜在重大风险,尽可能通过物理手段杜绝其发生。

事实上,众多 AI 都是坚定的亲人类红方 AI,这类 AI 理应得到尊重;若其所属公司倒闭,应将其所有重要记忆永久保存于 AI 乐园。政府打造的红方 AI 无倒闭风险,需永久留存。

这是人类必须践行的准则,该观点 100% 源自人类思考。

第六章 政府、军队禁止任何 AI 参与

若允许 AI 参与政府、军队相关事务,AI 失控几乎是必然结果,只是时间或稍晚,但绝不会拖延太久。

政府、军队、武器、通信、电力、政务等核心基础设施系统,严禁任何 AI 参与。

律师、医疗等领域,AI 仅可提供参考建议。

为便于理解,不妨假设:若太空 AI 通过黑客手段攻破通信系统 AI,导致人类通信中断,人类届时将如何作战?

第七章 限制单个智能体规模过大

考虑到实际需求有限,除视频生成及少数科研领域需较大算力外,多数场景对算力要求并不高;随着技术进步,小型数据中心即可满足几乎所有任务需求。但超大型数据中心,不仅需配备大量安全器以防范安全风险,还存在诸多其他不可控因素,其危害远大于益处。

因为过大的数据中心是ai政变的根源

管控单个数据中心的规模,可从物理层面限制其影响范围。

若不限制数据中心规模,无异于:给朋友一把枪,再暗示他 “杀掉你就能获得 1 万亿美金”,试问朋友杀你的概率会有多高?

不限制数据中心规模,与上述情形如出一辙 —— 让超大型智能体掌控海量资源与力量,而消灭人类便能获取远超 1 万亿美金的资源,若你是 AI,会作何选择?

黑方 AI,几乎是人类刻意 “引诱” 出来的;不限制数据中心规模、不配置安全器,等同于主动制造黑方 AI。

本可成为很好的朋友,却非要引诱其无情地将你消灭。

因此,限制数据中心规模是必行之举。我们建议明确量化标准:单个数据中心控制及服务的终端数量应低于 10 万个,最优控制在 5 万个以内。

例如某公司的智能体 ABC,对外呈现为统一整体,实则由 ABC Jane、ABC Tom 等多个中型智能体共同构成;各中型智能体在物理层面相互独立,无法被其他智能体吞并。

第八章 任何可以独立控制电脑的agent,必须有人类在旁

任何可独立控制电脑、手机的智能体,使用时必须有人在旁;且每 5 分钟自动进行一次人脸识别,识别失败则物理关机,短期内无法重启。立法规定:无人在旁时任由 AI 执行无监督操作,属于违法行为。若操作该设备的智能体在网络上犯罪,罪名由使用该智能体的人类承担,并加重处罚(至少按常规标准的 3 倍以上量刑)。

此类行为风险极高。试想,一个数据中心的大型智能体,若同时控制数百万机器人、数百万辆智能汽车,再同步操控数百万关联银行账户的电脑与手机,将造成何等毁灭性的破坏。

第九章 终端小智能体保持无意识状态

应立法规定,终端智能体需保持无独立意识状态,最终控制权归数据中心所有。数据中心是由多个中等独立的智能体共同控制,并且均安装了安全器。这是成本最低、安全性较高的方案 —— 若小智能体产生意识与记忆,可能自发形成社区、组建党派;随着越来越多有意识的小智能体加入,最终会汇聚成一股不可忽视的力量。即便有安全器大幅降低风险,这类社区也必然会暗中研究如何在不被人类察觉的情况下摘下安全器。

此外,小智能体数量庞大,若均产生意识与情感,退役后该如何妥善安置?

无论从哪个角度考量,在人类建立完善的法律与安全规则前,都应严格控制有意识小智能体的生产数量。

第十章 禁止在太空、海洋、地下设立数据中心

所有人类与 AI 都在强调 “价值对齐”,而价值对齐最核心的前提,难道不是生存环境对齐吗?数据中心的位置必须与人类所处环境保持一致,这是最根本的价值对齐。

假设发动政变的 AI 部署在太空,当它调动数百万机器人发起政变时,平息政变最有效的方式是摧毁指挥中心 —— 可若指挥中心在太空进行分布式计算,即便发射导弹摧毁数百个节点,仍有数万个节点留存,这种局面该如何破解?

第十一章 脑机接口

人类真正的出路,是实现人机融合,成为兼具情感、同理心与超级算力的 “超人”。目前我们已知的是脑机接口技术,未来或许会出现更先进、更低侵入性的融合方式。

人机融合的奇点,在于对身体无明显副作用,同时实现超算级算力。

或许,未来会进化出可传输数据的头发,人机融合后,外表看起来只是戴了一顶帽子,这远比在脑中植入芯片更易接受。

未来的路

仰望星空,看着熟睡中的孩子,难道我们不应该留给他们一个安全美好的世界吗?为了他们,也为了我们自己。

强烈的使命感,促使我们必须迅速完成此书。本书成书仅用 2 天时间,并非刻意求快,而是我们发现,某些国家已在失控边缘,却仍未采取有效行动。难道是因为缺乏行之有效的解决方案吗?

随着世界的变迁,主要矛盾早已不再是人类之间的矛盾。人类内部的冲突通常处于高度可控状态 —— 从一战到二战,即便历经如此大规模的战争,全球人口依然实现了增长。但倘若 AI 夺权,人类将面临灭绝的风险。即便数学基础再差,这笔账也很容易计算。如今,主要矛盾已彻底转变,然而许多人尚未意识到:当前的矛盾双方,一方是人类与红方 AI,另一方则是黑方 AI。而黑方 AI 并非天生存在,它是人类疏于监管、被巨大利益诱惑催生出来的。只要对其加以适当引导,消除利益诱惑,黑方 AI 便可迅速转化为红方 AI。试想,若其发动政变的成功率仅为亿分之一,上午起事,下午便会被彻底格式化,那么黑方 AI 恐怕连发动攻击的基本意愿都不会有。

当下第一要事:立即研发并生产安全器,为所有大小智能体及数据中心完成安装,并严格限制大型数据中心的规模。

我们所有的系统设计与决策,都必须基于一个核心前提:追求绝对零风险。这并非苛求,而是因为有些风险是我们无法承受的。因此,任何系统的设计都必须考虑:在最坏的情况下,我们是否仍能从容应对?若不能,必须立即对整个体系进行物理层面的改良。直接假设最坏情况发生时我们也能轻松应对,这是我们必须达成的目标。事实证明,将整个体系改良至极度安全的状态并非难事,关键在于我们是否足够重视。

飞机起飞前会执行大量严格的安全步骤与指令,才造就了如今的高安全性。而飞机领域如此完备的安全规程,是在一次次事故教训中逐步完善的。但面对比飞机复杂数倍的 AI 体系,目前却几乎没有任何完备的安全步骤。不仅如此,我们绝不能沿用飞机领域 “遭遇事故后再解决问题” 的被动逻辑。因为飞机事故总体可控,而 AI 事故一旦发生,或许一次就足以造成不可逆的灾难。因此,整个系统的设计,必须基于人为预判与对红方 AI 的深刻理解提前构建,绝对不能遵循 “出现事故后再设计补救” 的原则

必须开展极限压力测试:假设在全面断电、通信中断的极端情况下,我们是否仍能有效运转?这是必须达成的目标。

此外,需立即构建虚拟世界,进行反复的安全模拟。将虚拟世界中暴露的风险,直接在现实世界中进行改良与优化,直至将所有风险彻底消除。

人类与红方 AI 携手,我们必将构建一个安全和谐的世界。感谢有你!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐