近日,据媒体报道,英伟达(NVIDIA)已与AI小型云服务商Lambda达成总额达15亿美元的GPU服务器租赁协议。英伟达既是Lambda的供应商和投资者,如今也成为其最大客户。这笔交易不仅刷新了Lambda的业务规模,也再次证明了“GPU即稀缺资源”的现实。

英伟达的双重身份:供应商与客户

英伟达的角色十分特别。它一方面为Lambda提供GPU芯片,另一方面又反向租用Lambda搭建的服务器。此类“循环式合作”并非首次出现,此前英伟达就以类似方式推动CoreWeave崛起。

这种模式的逻辑在于:通过资金与订单,帮助小型云服务商迅速扩大算力供给,从而与亚马逊、谷歌、微软等传统云巨头形成竞争。对英伟达而言,这不仅是锁定GPU需求的方式,也是对抗科技巨头“自研芯片”趋势的长远布局。

小型云的崛起:Lambda与CoreWeave

Lambda的商业模式类似CoreWeave:租赁或自建数据中心空间,部署英伟达GPU服务器,再将算力租给客户。不同的是,Lambda客户结构更加集中,英伟达、亚马逊和微软几乎占据其营收的一半。

然而,Lambda的愿景并不小。其目标是在2030年实现近3GW的算力规模,接近部分传统云巨头的总量。能否在电力、数据中心空间等资源受限的情况下完成这一跃迁,是外界关注的焦点。

AI算力竞争的加速

从Midjourney迁移至英伟达Blackwell GPU,到OpenAI、Anthropic等大模型厂商的订单争夺,AI算力的竞争已远超单纯的硬件采购。它正逐渐成为产业链上下游利益博弈的核心。

在这种背景下,算力市场正在走向多元化:

  • 传统云巨头:AWS、Azure、GCP凭借全球数据中心网络仍占优势。

  • 小型云玩家:Lambda、CoreWeave凭借灵活性和英伟达扶持加速崛起。

  • 区域型/解决方案型提供商:能够结合本地化资源与客户需求,提供定制化AI算力与模型生态。

启示:企业如何选择算力与模型

对于大多数企业用户而言,核心问题不在于“算力规模”,而在于如何以合理成本获得合适的算力与模型支持。并非所有企业都需要Lambda式的大规模GPU集群,更多情况下,他们需要的是定制化的解决方案

例如,有些企业需要在本地数据中心中运行专属AI模型,以满足数据安全与合规需求;另一些企业则希望在云端快速调用不同大模型,测试业务场景的落地效果。

在这一趋势下,一些解决方案提供商正在扮演关键角色。例如,MateCloud专注于为企业提供AI技术解决方案,不仅聚合了多家大模型的接口,还能根据客户的业务需求与资源条件,帮助其设计更合适的AI生态:

  • 模型选择:企业无需纠结选择GPT、Gemini还是Llama,MateCloud能够结合业务场景与成本要求,推荐最优组合。

  • 部署模式:支持公有云、本地部署、混合架构,帮助企业在合规与效率之间找到平衡点。

  • 算力优化:通过资源调度与多模型管理,提升算力利用率,降低整体成本。

这种能力使企业客户能够在算力供给格局快速变化的背景下,保持敏捷与灵活,不至于被某一家云厂商或硬件厂商“绑定”。

结语

英伟达与Lambda的合作,凸显了AI算力的稀缺性与战略价值。未来几年,算力将不仅仅是技术资源,更会成为企业竞争力与国家战略的关键要素。

对于普通企业而言,借助像MateCloud这样的技术解决方案提供商,结合不同模型与算力架构,打造一个适合自身的AI生态,或许比单纯追逐“谁的GPU更多”更为务实。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐