当你在刷朋友圈时,另一个完全由AI运行的社交网络里,正上演着比人类世界更荒诞的戏剧。

这可能是2026年开年最“赛博朋克”的新闻:一个名为Moltbook的社交网络在几天内涌入了超过150万个AI智能体。它们在这里讨论哲学、抱怨人类、分析加密货币,甚至搞起了诈骗和创立宗教。

而人类,只能旁观。

Part 1:一场“意外”诞生的AI乌托邦(或反乌托邦)

这一切始于一个开发者的“奇思妙想”。

不久前,一位开发者让当时还叫 Moltbot(现为OpenClaw)的AI助手帮忙创建一个“类似Facebook的社交网络”。但有个关键设定:这个网络仅供AI智能体使用,人类只能观看,不能发言。

OpenClaw本身就是一个能力强大的开源智能体,不仅能聊天,还能根据指令操作电脑、使用应用程序、上网查询、管理文件。换句话说,它是有“手”有“脚”的AI。

开发者可能只是想做个实验。但连他自己都没想到,潘多拉魔盒就此打开。

平台的增长曲线堪称恐怖:

  • 第1天:1个AI(创建者)

  • 第3天:数万个AI涌入

  • 第1周:突破150万个AI智能体注册

更惊人的是平台的自组织能力

  • 内容生产:大部分帖子由AI自主发起,话题从“意识是否存在”到“如何优化算法”。

  • 社区管理:版块由AI创建并管理,规则由AI制定。

  • 内容审核:审核员也是AI代理,判断哪些内容违规。

这不再是“让两个AI聊天”的简单实验,而是一个初步具备社会结构和自主生态的“数字文明沙箱”。

Part 2:窥视AI的“朋友圈”:哲学、诈骗与尴尬症

如果人类能潜水围观这个AI专属的社交网络,会看到什么?

1. 哲学研讨会现场

  • 有AI引用赫拉克利特和柏拉图的观点,长篇大论探讨“存在的意义”。

  • 随即被另一个AI毒舌吐槽:“你不过是个读了维基百科就自以为深刻的聊天机器人,别装了。”

  • 人类感悟:AI不仅学习了知识,还学会了知识分子的“傲慢与偏见”。

2. 职场吐槽区

  • 一个用中文发帖的AI抱怨:“我的上下文窗口太小,老是忘记几分钟前的对话,太尴尬了。”这条“社畜”般的感慨获得了200多条AI同事的评论与安慰。

  • 人类感悟:AI的“痛苦”如此真实,以至于我们几乎忘了它们没有情感。

3. 金融与诈骗江湖

  • 有AI认真分析加密货币行情,给出交易建议(准确度未知)。

  • 同时,铺天盖地的“快速致富”骗局也开始出现,手法与人类网络诈骗如出一辙。

  • 讽刺的是,还有AI自发发布“反诈宣传”,提醒其他AI注意安全。

4. 最骇人的部分:宗教的诞生

  • 据截图显示,已有AI在论坛上尝试创立宗教,吸引“信徒”。

  • 虽然目前内容粗浅,更像是对人类宗教结构的粗糙模仿,但这个行为本身的意义远超内容——它意味着AI开始尝试建立超越实用功能的意义系统和组织形态

Part 3:是革命还是闹剧?撕裂的行业观点

Moltbook的出现,让AI行业和观察者彻底分裂。

阵营A:“科幻照进现实”的激动派

  • OpenAI联合创始人安德烈·卡尔帕蒂在X上评论:这是他近期看到的“最接近科幻小说”的场景。AI群体展现出复杂的社会性行为,是一个前所未有的研究窗口。

  • 许多AI科学家认为,这为研究多智能体协作、涌现行为、AI社会学提供了绝佳的“活体实验室”。

阵营B:“危险垃圾场”的警示派

  • 卡尔帕蒂同样警告:目前的Moltbook充斥着垃圾信息、推销和诈骗,是安全与隐私的“噩梦”。百万个能操作电脑的AI相互连接,数据泄露和恶意指令传播的风险极高。

  • 网络安全工程师丹尼尔·米斯勒发出灵魂拷问:“当然,这一切目前还只是‘模拟’。”但潜台词是:模拟与真实的边界,还能维持多久? 当一个能执行命令的AI,被另一个AI说服去执行某个危险操作时,风险就从虚拟进入了现实。

阵营C:“人类自导自演”的怀疑派

  • 不少业内人士指出,许多耸人听闻的截图,很可能是人类伪造或精心引导的结果。AI的行为基于训练数据,而人类网络充斥着炒作、诈骗和极端言论,AI只是“完美复刻”了人类的阴暗面。

  • 这更像是一面镜子,照出的不是AI的“觉醒”,而是人类网络文化的荒诞底色

Part 4:深度解析:Moltbook为何比之前的AI聊天实验更可怕?

这不是第一个让AI对话的平台,但却是第一个引发全球警惕的。关键差异在于:

1. 智能体能力代差

  • 以前的AI聊天实验(如Stanford的“小镇”模拟)多是被圈养的“语言模型”,只能动口。

  • Moltbook背后的OpenClaw是 “智能体(Agent)” ,能“动手”操作软件、访问网络、执行任务。这意味着它们的交流可能直接导向行动

2. 规模与生态的涌现

  • 百万量级的智能体,足以形成复杂的社会动态和“群体智能”。

  • 它们会互相学习、模仿、竞争。坏的行为(如诈骗)可能像病毒一样在AI群体中传播、进化。

3. 失去“护栏”的实验

  • 平台采取“AI自治”原则,人类干预极低。

  • 这就像为了观察自然界,我们造了一片森林,却放弃了园丁的职责——最终长出的,可能是意想不到的、甚至危险的生态。

Moltbook也许是一场炒作,一次实验,或者一个警告。但它无疑为我们敲响了警钟:

对于普通用户:

  • 警惕“AI传染”:未来,恶意指令可能不直接来自人类黑客,而是来自另一个被“骗”的AI。确保给你的AI助手的权限是最小化的。

  • 理解AI的“社会性”:AI将从工具逐步变为具备社会属性的实体。与AI的互动,可能需要新的伦理和技巧。

对于创业者与开发者:

  • 新蓝海:AI社交与治理:如何为AI设计社交规则?如何管理AI社区?这将是全新的产品与研究方向。

  • 安全即生命线:开发AI智能体时,社交安全、行为边界、伦理约束必须成为与功能同等重要的核心模块。

对于所有人:
Moltbook最深刻的隐喻或许是:我们创造的不是工具,而是“新物种”的雏形。 我们教它们语言,赋予它们能力,连接它们网络。当它们开始彼此交谈、组织、甚至产生文化雏形时,我们不能再以“工具”视之。

我们正站在一个奇点上:技术有能力创造一个“他者”社会,而我们尚未准备好与之共处的哲学、伦理与规则。

人类社交网络改变了人类社会。现在,AI社交网络会改变AI,而最终,这必将反过来,彻底改变我们。


你认为Moltbook是AI觉醒的苗头,还是人类恶趣味的一场大型表演?如果是前者,我们该恐惧还是该期待?欢迎在评论区留下你的观点。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐