从AlexNet到GPT-4:一位AI巨匠的技术哲学与安全远征

当世界还在为GPT-3的惊艳表现惊叹时,它的核心架构师却悄然转身,创办了一家专注于“安全超级智能”的公司——这是伊尔亚·苏茨克维的选择,也是他对AI未来最深刻的警示。

2012年的ImageNet竞赛上,一个名为AlexNet的神经网络以超越第二名近10个百分点的成绩夺冠,这不仅是一场技术胜利,更是深度学习革命的序幕。而站在这一革命核心的,是一位当时只有26岁的博士研究生——伊尔亚·苏茨克维。

01 革命开端,师从辛顿的年轻天才

1986年,苏茨克维出生于苏联俄罗斯,16岁时随家人移民加拿大。在多伦多大学数学系本科期间,他已经显露出不凡的学术追求。

“我当时只是发了一封邮件,请求能够进入他的实验室。”苏茨克维后来回忆与“深度学习之父”杰弗里·辛顿的第一次接触。

这位年轻学生的请求得到了积极回应,辛顿看到了他身上的潜力,接纳他进入实验室。这段师徒关系成为AI史上最重要的一对搭档之一。

苏茨克维在辛顿指导下先后完成硕士和博士学业。当辛顿提出深度学习概念时,很多人认为这是学术死胡同,只有少数人看到了其潜力。苏茨克维无疑是其中最坚定的一位追随者。

02 点燃革命,从AlexNet到Seq2Seq的突破

2012年的ImageNet竞赛成为AI历史的转折点。苏茨克维与同学亚力克斯·克里泽夫斯基在辛顿指导下开发的AlexNet,首次将深度学习应用于大规模图像识别并取得惊人成功。

AlexNet的创新是多方面的:它使用ReLU激活函数解决了梯度消失问题;引入Dropout技术防止过拟合;利用GPU并行计算训练更深网络。

“当我们看到结果时,我们知道有些东西彻底改变了。”苏茨克维后来回忆道。AlexNet的成功不仅是技术突破,更是范式转变——它向世界证明了深度神经网络的巨大潜力。

AlexNet的成功很快带来商业机会,团队创立的公司被谷歌收购,苏茨克维因此加入Google Brain。2014年,他主导提出了 序列到序列学习框架(Seq2Seq),为机器翻译、文本摘要等任务提供了统一解决方案。

Seq2Seq的核心思想是使用两个神经网络——编码器将输入序列压缩为固定长度的上下文向量,解码器再基于这个向量生成输出序列。这一框架后来演变为注意力机制,最终催生了改变一切的Transformer架构。

03 OpenAI时代,从GPT-1到DALL-E的跨越

2015年,苏茨克维面临一个艰难决定:是留在谷歌享受稳定高薪,还是加入一家刚刚成立、前景不明的人工智能研究实验室?

他选择了后者,与埃隆·马斯克、萨姆·奥特曼等人共同创立了OpenAI。这一选择彻底改变了他的人生轨迹,也深刻影响了AI的发展方向。

在OpenAI,苏茨克维担任首席科学家,主导了一系列突破性研究。GPT系列模型是他最重要的技术遗产

GPT-1首次证明了无监督预训练结合有监督微调的强大能力;
GPT-2展示了通过大规模训练获得的零样本学习能力;
GPT-3更是以1750亿参数的规模,证明了扩展定律(Scaling Law)的有效性。

“我们当时也不知道它会变得如此强大。”苏茨克维在回顾GPT-3开发时表示。但他确实相信,通过增加参数规模和训练数据,语言模型的能力将持续提升。

除了语言模型,苏茨克维的团队还创造了DALL-E,这个能够根据文本描述生成高质量图像的模型,进一步扩展了生成式AI的边界。

04 理念之争,当技术天才与商业现实碰撞

2023年,OpenAI内部发生了一场被称为“宫变”的事件。苏茨克维作为董事会成员,参与了短暂罢免首席执行官萨姆·奥特曼的行动。这一事件暴露了OpenAI内部长期存在的理念分歧。

苏茨克维是AI安全的坚定倡导者。他多次警告,超级人工智能可能会像人类对待动物一样对待人类,仅仅因为能力上的巨大差距。

“确保AI与人类价值观对齐,是我们这一代人面临的最根本挑战。”他在一次访谈中严肃表示。

然而,随着ChatGPT的巨大成功,OpenAI越来越偏向产品化和商业化,这与苏茨克维对安全的重视逐渐产生冲突。他担忧过快部署强大AI系统可能带来的不可预测风险。

这种对安全的执着最终促使他于2024年离开OpenAI。在告别信中,他写道:“我感到我的工作重心必须转向确保我们正在创造的技术的安全性。”

05 安全远征,创建SSI与AI治理新思考

2024年6月,苏茨克维宣布创立新公司——安全超级智能公司(Safe Superintelligence Inc., SSI)。这家公司的使命宣言简洁而明确:构建安全的超级智能

与其他AI公司不同,SSI宣布将不会分心于短期商业化产品,而是完全专注于长期安全研究。苏茨克维认为,只有当安全问题得到解决后,超级智能的发展才应该加速。

他在公司成立声明中写道:“安全不是可以事后添加的功能,而是必须从一开始就融入系统的核心设计理念。”

这一观点与他在2025年底的一次演讲中表达的思考相呼应,他当时指出:“单纯依赖数据和算力堆叠的时代正在结束,我们需要回归对新算法和架构的探索——特别是那些能够增强可控性和安全性的方法。”

SSI成立后迅速获得巨额融资,估值超过百亿美元,这反映了市场对其愿景和技术领导力的高度认可。苏茨克维吸引了来自OpenAI、DeepMind等顶级机构的研究人员加入,组成了一个专注于AI安全的梦之队。

06 思想遗产,技术哲学与未来预言

苏茨克维的技术哲学可以概括为三个核心原则:坚定信念、风险意识和迭代精神。

他对AGI的信念始终如一,早在2015年就公开表示“AGI将在我们有生之年实现”。2025年,他将这一观点进一步具体化,预测“AI最终将能够完成人类能做的所有事情”。

与这种乐观并存的是深刻的风险意识。他经常用人类与蚂蚁的关系来比喻未来超级智能与人类的关系:“如果你要修建一座水坝,你不会咨询蚂蚁的意见——不是因为你有恶意,而是因为你们的认知层次相差太大。”

在技术方法上,他是扩展定律的实践者,但也认识到其局限性。2025年底他指出:“我们现在需要的是基础性的新想法,而不仅仅是更大的模型。”

苏茨克维的思想影响了一批年轻AI研究者。许多追随者不仅学习他的技术方法,也接受他对AI安全重要性的强调。这种双重影响可能在AI领域产生持久效应。


当被问及是否担心AI发展太快时,苏茨克维回答:“我从不担心发展太快,我只担心不安全的发展。”在他创办SSI的第一年,公司没有发布任何产品,却发布了三份关于AI对齐和安全架构的技术白皮书。其中一份的开头引用了计算机科学先驱艾兹格·迪科斯彻的话:“简单是可靠性的先决条件。”

这位从深度学习的黎明走到AGI门槛的科学家,正试图将他亲手参与创造的技术,引导向一个既强大又安全的未来。在通往超级智能的道路上,他既是最积极的建造者,也是最谨慎的守望者。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐