人工智能领域的安全防护与科研发现正同步迈向新高度,开放与合作成为关键推力。

OpenAI于10月30日正式推出两款开源安全推理模型——gpt-oss-safeguard-120b与gpt-oss-safeguard-20b。

同日,天桥脑科学研究院研讨会上,全球知名企业家陈天桥宣布投入10亿美元算力支持AI科学研究,特别关注发现式智能的发展。


01 开源安全模型:高低搭配的双重防护

OpenAI此次开源的两款安全模型采用“高低搭配”策略,覆盖不同规模的应用场景。

大型模型gpt-oss-safeguard-120b专为处理海量数据的复杂场景设计,而gpt-oss-safeguard-20b则在性能与效率间取得平衡,更适配中小型规模的应用需求。

这种灵活的组合方式让开发者能够根据实际需求选择合适的安全工具,如同拥有了一个多样化的技术工具箱。

开源决策意味着全球开发者和研究人员可以自由使用、研究和改进这些模型,这种透明协作的模式有望加速AI安全技术的创新。

02 发现式智能:AI的终极价值

在天桥脑科学研究院的研讨会上,陈天桥阐述了AI发展的两条路径:规模化与结构化。

他认为,AI的终极价值在于“发现”——能够主动构建关于世界的可检验理论模型(testable world models),提出可被证伪的假说(falsifiable hypotheses)。

陈天桥指出,打造有生命力的发现式智能需要构建五种核心能力:神经动力结构、长期记忆、因果推理机制、世界模型,以及元认知与内在动机系统

为支持这一愿景,他宣布投入10亿美元算力,优先支持结构性实验,包括记忆系统、因果架构和神经动力学假设等方面的研究。

03 AI驱动科学:从实验室到沙漠应用

研讨会上展示的AI驱动科学成果显示了AI在多个科学领域的应用潜力。

2025年诺贝尔化学奖得主奥马尔·亚基分享了他的团队利用ChatGPT优化材料设计的经验。

他们开发出一种零能耗的便携式取水装置,在美国死亡谷的沙漠环境中成功从大气中取水。

亚基教授创建了由七个Agents组成的虚拟科研团队,分工执行实验设计、文献检索等任务。

他表示:“AI不是工具,而是新的科学思维体。借助人工智能,我们正在赋予科学自行思考、推理和演进的能力。”

2024年诺贝尔化学奖得主戴维·贝克则分享了AI在蛋白质设计中的突破。

他的团队开发的RFDiffusion3模型能够根据预设的生物学功能,反向设计并构建全新的基因序列。

04 产业界的支持与担忧

AI产业的快速发展离不开产业界的持续投入。微软CEO表示将继续增加在人工智能方面的投资,无论是资本还是人才投资。

该公司预计今年AI总算力将提升逾80%,全线产品AI功能月活跃用户已达9亿。

同时,专家们也提出了一些担忧。图灵奖得主约翰·轩尼诗指出,以AI模型目前的数据消耗速度,全球现有数据存量可能在4到5年内被耗尽

他强调,在使用AI或与AI协作时,人类必须守住关键决策权,确保技术的透明和可验证。


OpenAI开源安全模型的影响可能最为深远。当全球开发者都能访问、改进这些安全工具时,AI安全的整体水位将被提升。

陈天桥所称的“Structure 是年轻人的机会”,实则在AI安全领域同样适用——那些在笔记本电脑上诞生的下一个算法,或许正是未来AI安全的关键突破。

无论是OpenAI的开源安全模型,还是陈天桥的算力支持计划,都指向同一个方向:AI的未来将由全球智慧共同塑造,而非仅靠少数几家巨头的闭门造车。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐