DeepMind 速通:从 AlphaGo 到 Gemini
DeepMind是AI领域的关键研究引擎,虽不直接面向消费者,却深刻影响着行业发展。其核心贡献包括:1)强化学习(AlphaGo/AlphaZero)开创了AI自主学习范式;2)AlphaFold革命性解决了蛋白质结构预测难题,开创AI+科学新范式;3)在大模型领域提出Chinchilla定律,纠正行业"唯参数论"偏差;4)多模态模型Flamingo奠定视觉语言模型基础架构。D
当第一次进入 AI 领域时,可能会先听到 ChatGPT、Claude、Gemini、Midjourney。
这些名字往往和“产品”强绑定,于是我们会自然地以为 AI 的进步来自几个“产品公司”。
但如果往底层再挖一层,会发现很多关键能力其实来自一批更偏研究驱动的机构,其中最典型的代表之一就是 DeepMind(现在叫 Google DeepMind)。
DeepMind 有点像 AI 领域的“科研发动机”:它不一定总是做面向大众的产品,但它提出的机制和范式,经常会在几年后成为行业共识,并最终出现在每天使用的 AI 工具里。
这篇文章从三个问题出发,快速建立对 DeepMind 的结构化认知:
-
DeepMind 是谁?
-
它在 AI 的关键方向上到底做了哪些事?
-
为什么可能从来没听过它,但它又如此重要?
一、DeepMind 是谁?为什么它“重要但低调”?
DeepMind 成立于 2010 年,2014 年被 Google 收购,如今与 Google Brain 合并为 Google DeepMind。
它的定位更像“研究组织”,而不是“纯产品公司”。
你可以把它理解成:
他们的目标不是做一个单独的应用,而是把 AI 的能力边界往前推,然后让这些能力进入 Google 生态(搜索、助手、Gemini 等),并影响整个行业。
这也解释了一个现象:
我们可能天天在用由 DeepMind 研究推动的能力,但未必会在产品里看到 “DeepMind” 这个品牌。
二、DeepMind 的里程碑:它做过哪些改变世界的事?
如果只用三条线来概括 DeepMind 的贡献,那就是:
-
强化学习(RL):让机器学会“在复杂环境里自己变强”
-
科学计算(AlphaFold):用 AI 解决传统科学几十年的难题
-
大模型与多模态:把“语言能力”扩展到“视觉/视频/检索/推理”
下面我们用新人能理解的方式逐条讲。
1)强化学习:从 AlphaGo 到“AI 会自己学习”
1.1 AlphaGo:为什么它震撼世界?
2016 年,AlphaGo 在韩国首尔与围棋传奇李世石进行五番棋,最终 4:1 获胜。这一事件通常被认为是现代 AI 的社会级“破圈时刻”。维基百科+1
为什么围棋这么难?
因为围棋的可能局面数量远超过国际象棋,传统“暴力搜索”几乎不可行。AlphaGo 的关键在于结合了两种能力:
-
神经网络:学习“像人类一样判断局面”
-
搜索(MCTS):在关键局面做“更聪明的探索”
它不是单纯记棋谱,而是通过大量自我对弈,逐步学出高水平策略——这背后就是强化学习的思想。
对新人来说,可以把强化学习理解为:AI 不靠人类告诉它正确答案,而是在环境里不断尝试、不断纠正,最终找到更优策略。
1.2 AlphaZero:更极致——不看棋谱,从零开始自学
AlphaGo 还使用了人类棋谱作为起点;
AlphaZero 更进一步:完全不依赖人类数据,仅靠自我对弈,就学会围棋、国际象棋和将棋,并达到顶级水平。
这条路线的重要意义是:
机器不一定需要人类示范,也可以通过“探索 + 反馈”获得超越人类的策略。
强化学习因此被认为是通向“自主智能体(agent)”的重要路径。
2)AlphaFold:为什么说它是“AI 做科学”的代表?
如果说 AlphaGo 让大众相信 AI 可以在复杂游戏里超越人类,那么 AlphaFold 则让科学界相信:AI 可以帮助解决长期科学难题。
2.1 AlphaFold 解决了什么问题?
蛋白质由氨基酸链折叠形成三维结构,而结构决定功能。
但传统实验测一个结构可能需要 几年时间,成本很高。
DeepMind 在 2020 年推出 AlphaFold,并展示它能在分钟级预测蛋白结构,且精度达到非常高的水平。Google DeepMind+1
DeepMind 官方描述是:
-
传统方法:几年、昂贵
-
AlphaFold:分钟级预测,并能显著帮助研究人员理解蛋白如何工作与相互作用Google DeepMind
2.2 为什么它是“范式级”?
AlphaFold 代表的是一种新范式:
AI 不只是做内容生成、也不只是玩游戏,它可以成为科学研究工具。
这也是 DeepMind 的特点:它的很多成果不追求短期产品转化,而是具有更长线的科学与产业价值。
3)大模型:DeepMind 如何影响今天 LLM 的训练与技术路线?
进入大模型时代后,DeepMind 并不是最先把“聊天产品”推到大众视野的公司,但它在训练策略与基础机制上影响巨大。
3.1 Chinchilla:告诉行业“别只堆参数,数据也要跟上”
DeepMind 在 2022 年发表论文《Training Compute-Optimal Large Language Models》,通过训练 400+ 语言模型,总结出一个行业非常关键的结论:
许多当时的大模型“欠训练”(undertrained):模型参数规模上去了,但训练 tokens 不够。arXiv
他们提出 计算最优(compute-optimal)训练规律:
模型规模与训练 token 应该同步扩展——每当模型规模翻倍,训练 token 也应翻倍。
并以此训练了 Chinchilla(70B),在同等算力预算下显著优于更大的 Gopher(280B)。
为什么这件事重要?
因为它把行业从“拼参数”拉回到“数据与算力的最优配置”。
今天你看到的很多趋势——更长训练、更强调数据清洗、更强调高质量语料——背后都有这条规律的影子。
4)多模态:Flamingo 为什么关键?GPT-4V 的前辈之一
很多新人第一次接触多模态,会从“给 AI 一张图,它能回答问题”开始。
但在 2022 年之前,多模态模型通常有两个问题:
-
任务专用:一个任务一个模型,需要大量标注和微调
-
无法 few-shot:不能像 GPT 一样靠提示词快速适配新任务
DeepMind 的 Flamingo 试图解决的就是:
“能否像大语言模型一样,让视觉语言模型具备 in-context few-shot learning?” arXiv+1
Flamingo 的论文标题直白写了:
“a Visual Language Model for Few-Shot Learning”。arXiv
它的核心贡献包括:
-
能处理任意交织的图片/视频/文本输入
-
通过提示词示例实现 few-shot 适配
-
在多项 benchmark 上以 few-shot 方式达到当时非常强的效果
为什么你没听过 Flamingo?
因为它并未像 GPT-4V 那样成为大众产品名,它更像是“多模态架构范式的奠基论文”。
你今天见到的很多视觉语言模型(开源的 LLaVA、BLIP-2 等;闭源的 GPT-4V、Gemini Vision 等),在“桥接视觉编码器 + LLM”的结构上,多少都继承了 Flamingo 的核心思想。
三、DeepMind 的核心方法论:它的研究风格是什么?
如果用一个“新人也能记住的框架”来概括 DeepMind,那就是三句话:
1)规模化(Scale)
DeepMind 擅长用大规模实验得到可复用规律:比如 Chinchilla 的 scaling law。
2)模块化(Modular)
尤其在多模态:不是从零训练一个怪兽模型,而是把强视觉、强语言模型“桥接起来”。
3)闭环(Learning + Search / Feedback Loop)
强化学习与 Alpha 系列体现了“探索—反馈—变强”的闭环。
这三点叠加在一起,形成 DeepMind 的核心优势:
它往往不是做一个点状成果,而是把一个领域推进到可规模化、可扩展的范式。
四、为什么可能没听过 DeepMind,但它又如此重要?
新人常见困惑是:
“如果它这么厉害,为什么我没听过?”
原因很现实:
-
DeepMind 的许多成果不是以消费级产品形式出现
-
很多模型 不开源,因此在开发者圈传播不如开源生态强
-
它更多在幕后驱动 Google 的产品体系(Gemini、搜索、多模态能力等)
所以 DeepMind 的存在感更像“基础设施”:
你不一定知道它的名字,但它改变了你能使用的 AI 能力上限。
结语:一个新人应该怎么“正确理解 DeepMind”?
把 DeepMind 当作一个“方向标”:
-
想理解强化学习:从 AlphaGo/AlphaZero 学习“学习+搜索”的闭环范式
-
想理解 AI + 科学:AlphaFold 是最好的案例
-
想理解大模型训练:Chinchilla scaling law 是行业训练策略的关键转折
-
想理解多模态:Flamingo 是从“任务模型”走向“通用模型”的重要一步
最后用一句最简洁的话总结:
DeepMind 不是最会做大众产品的公司,但它是推动 AI 范式迁移的核心研究引擎之一。
更多推荐



所有评论(0)