【导读】大模型王座易主Anthropic,太空数据中心成真,「AI泡沫」反成创业红利?2025年底的Y Combinator博客中,谈到了2025 年 AI 领域的四大变局。

从孵化器的角度来看,最显著的变化是Anthropic成为创始人中最受欢迎的大模型。

曾经,OpenAI在很长一段时间里是绝对的领先者,其API使用率高达90%以上。

但到了2025年,Anthropic的使用率超过了OpenAI,达到52%以上。同时Google Gemini(占比约 23%)也迅速崛起。

这并非偶然,Claude在今年大火的氛围编程上表现是最好的。对于很多创业者来说,构建产品时,Anthropic的模型是最佳选择。

不过,绝大多数使用场景其实并非用于编码,而是由于使用者熟悉了一种大模型之后的「溢出效应」。

而且不同的模型,如果与它对话多了后,会觉得模型的回复有个性。播客中提到:ChatGPT有点那「黑猫」(神秘、强大且带有一丝丝诡异),而Claude更像是那种无忧无虑、非常乐于助人的金毛寻回犬。

Gemini介于两者之间。而正是由于大模型带有的不同个性,决定了人们选择哪种大模型。

此外,Gemini正在取代谷歌搜索,成为人们检索信息的窗口,以获取实时信息。Gemini甚至比Plexity(另一款信息检索的AI工具)更好。

Plexity速度很快,但不总是准确,而Gemini虽然没有Plexity那么快,但如果我问它关于当天发生的事情,它的回答通常都很准确。

创业者的机会来自在模型间的套利

接下来对话的嘉宾分享了他的个人经验。 他在今年购买一套房子的时候,他不得不花很长时间与ChatGPT对话,往对话框里面填充了所有的和待购买房子有关的检查报告等信息,就是想让ChatGPT了解的情况和房地产经纪人之间的信息更加对称,从而由大模型帮他出谋划策,分析相关情况。

这样的案例很典型的代表了普通人每天在真实场景中反复进行的与大模型的协作。不仅是文档编辑或表格计算,而是结构化提示、上下文编织,从而与智能体协同。

这些本应被封装为「日常AI工作流」的能力,却仍被塞进一个通用聊天框里手工完成。

这正是留给AI创业者的机会,我们不该让普通人用临时脚本搭建自己的「购房智能代理」,而应当创建一个个可复用、可协作、可沉淀的垂直AI应用。这些应用能自动聚合多源文档、动态构建决策知识图谱、实时比对市场数据、生成合规话术建议等。

这样的垂直AI应用,以真实生活任务为中心,封装提示工程、记忆管理、多模态上下文维护,从而构建辅助人类做判断的一体化智能工作台。

而在面对高价值决策(如房产交易),人们也不会信任单一模型的「独白」,而是同步调用Claude、Gemini、ChatGPT三路输出,再引入第四轮「元辩论」——让Claude对其他模型的结论进行交叉质询。

而这同样是很多B轮阶段的AI原生创业公司正在做的事,他们对多种大模型构建了一个编排层,把所有这些模型都整合起来,这样每当有新模型发布时,他们就可以灵活地替换模型,或者使用那些在某些特定任务上表现更好的特定模型。

理论有一家创业公司使用Gemini 3来进行上下文设计,然后再把结果输入到OpenAI模型中去执行,他们会根据新模型的发布情况不断进行替换,每个类别的智能体工作中表现最佳的模型可能都不同。

而他们之所以能够这样做,是因为他们有独属于自己的模型评估体系。作为一家垂直领域的AI智能体公司,他们的核心壁垒不是自己的模型,而是私有的评测数据集。

有了这个数据集,可以构建「模型调度中枢」,一个实时评估各家新模型、通过组合增强的智能决策路由器。

而这对于消费者在个人层面,实际上是在对各种模型进行套利操作,而创业者将辅助用户更好的用好各种大模型。

基础设施科幻化

能源焦虑逼出「太空数据中心」

2024年夏天吗?有一家公司叫StarCloud,它是最早提出要在太空中建设数据中心的公司之一,当时人们对这个想法的反应是在互联网上嘲笑他们,说这是最愚蠢的想法。

大约18个月后,突然谷歌开始在做这件事,埃隆·马斯克也在做这件事。

为什么会这样呢?其中一个原因是,目前美国正在进行的AI基础设施建设的强度非常大,以至于缺乏足够的电力供应。

有三家YC创业公司,它们正在解决数据中心建设的问题。Boom和Helion正在试图利用核聚变能源。一家创业公司Zephr Fusion正通过建设太空数据中心来解决没有土地的问题。它们的团队成员是国家实验室的工程师,他们整个职业生涯都在建造托卡马克和核聚变能源设施。

有一天,他们来到实验室,看了看物理原理、数学公式和模型,然后说:「你知道吗?如果我们在太空中进行核聚变,实际上是可行的。」

所以,他们正在进行一项为期5 - 10年的宏伟计划,试图将其变为现实,因为数学计算表明这是可能的,如果他们成功了,这实际上是太空中获得吉瓦级(GW)能源的唯一途径。所以,也许不久之后,我们将拥有一个更完美的三重组合,来解决数据中心建设的问题。

AI泡沫的辩证思考

算力过剩是创业者的福音

播客中嘉宾还谈到,与本科生交谈的时候,都说当下有一个巨大的AI泡沫,例如英伟达和OpenAI之间疯狂的资金循环,但YC合伙人提出了独特的视角:基础设施的「泡沫」往往是应用层的红利。

20世纪90年代的电信泡沫,数千亿美元堆积在电信领域,当时也存在泡沫。但正是因为有大量未使用的、相对廉价的额外带宽,成本足够低,像YouTube这样的东西就能够诞生。

当下正是由于AI泡沫的存在,意味着将会有更多的计算资源。巨头之间的激烈竞争,对大学毕业,试图在AI应用层创业的人也是利好。

就像回到互联网时代,在2000年之前,有大量资金投入到电信基础设施建设中,但那些都是大型项目,大学生不会参与其中。他们能参与的是在宿舍里手搓的脸书或Youtube

AI时代的Facebook或Google还尚未创立。当下竞争激烈的基础模型和GPU属于基础设施范畴。

不过相比2024年,AI领域的创业点子不再唾手可得。

在过去,创业者只要等待几个月,很可能就会有某个重大宣布,让一系列全新的创业点子成为可能,所以当时找创业点子的难度似乎比以往任何时候都容易。而现在,这种轻松找到创意的情况有所改变,找点子的难度回归到了正常水平。

今年有一份名为《AI 2027》报告,这份有点悲观的研究报告说社会将在2027年开始崩溃。但后来他们悄悄地把时间修订了,说不是2027年了,但他们保留了这个标题。

也许这并不令人惊讶。对这种快速起飞,人工智能技术突然出现巨大突破并快速发展的观点应当持怀疑态度,即使按照幂律定律,它也是对数线性的。所以它在之后的增长速度较慢,需要10倍的计算资源,并且仍然会逐渐达到极限。

类似的事也发生在创业者身上,一些AI应用公司在早期取得了快速的收入增长,如部分公司在未雇佣大量人员的情况下就实现了较高的年经常性收入(ARR),但后续的发展并不顺利,未能实现进一步的规模扩张。但也有像Gamma 这样的公司,仅凭约 50 人的团队就实现了 1 亿美元的 ARR,这验证了AI 赋能下可以产生极高的人效比。

然而,随着客户对产品的期望提高了,而且所有公司都在竞争相同的客户群体,这就是导致公司仍然像人工智能出现之前一样招聘大量人员。创业者最终都会受到缺人的限制,而不是受到创意的限制。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐