摘要

2025 年 10 月 30 日,福布斯揭晓中国最具影响力华人精英 TOP 100 榜单,GMI Cloud 创始人 & CEO Alex Yeh 入选。下文是转自福布斯的官方报道。

在约翰霍普金斯大学读本科时,材料科学专业的 Alex Yeh 正在为一件事发愁:他的计算材料科学研究需要 GPU 来跑模拟,但学校的算力资源紧张,他不得不频繁向生物医学工程系“借”卡,排队等待成了日常。

七年后,这位 29 岁的年轻人刚刚宣布了一项 5 亿美元的投资计划——与英伟达合作,在中国台湾建设 AI Factory,部署万卡级 GPU 集群。

从排队借卡的学生到掌握万卡算力的创业者,Alex Yeh 的轨迹,恰好映射出 AI 产业权力结构的一次迁移,当所有人都在追逐下一个杀手级应用时,真正的稀缺资源藏在更底层。

01

一个投资人的"第一性原理"

Alex 并非典型的技术创业者。他在约翰霍普金斯大学主修材料科学与工程,辅修创业管理,从大学期间就开始接触风险投资,毕业后进入亚太多家知名私募和风投机构,专注于 AI 和新兴技术领域,累计参与了超过 100 个项目的投资。不到 30 岁,他已经是圈内最年轻的合伙人之一。

投资人生涯训练出的核心能力,是一种被他称为"第一性原理"的思维方式:面对任何市场,连续追问五个“为什么”,层层剥开,直到触及那个不变的底层逻辑。

Alex 曾用这套方法论审视过不同行业。看养老赛道,不变的是老龄化趋势;看新兴技术投资,他发现自己每天都在听 AI 创业者的路演,大家都想做 AI 时代的 Uber 或 Instagram,却很少有人愿意去做底层的事情。软件容易被复制,但硬件和算力才是真正的硬门槛。

一个念头逐渐变得清晰,与其作为投资人去赌哪个应用会赢,不如亲自下场,做那个无论谁赢都需要的基础设施。就像 1995 年互联网刚起步时,没有人能预见 20 年后会出现 Facebook 或阿里巴巴,但可以确定的是,所有的在线业务都需要服务器和带宽。

在 AI 这个瞬息万变的领域,Alex 找到的那个不变量就是 GPU 算力。

02

重资产的"笨"逻辑

2023 年,GMI Cloud 正式成立,但 Alex 切入 AI 基础设施的方式与大多数人想象的不太一样。

在创业之前,他已经在算力相关领域有过探索,积累了数据中心选址和电力资源布局的经验。这段经历让他对这门生意的本质有了不同的理解:大多数云服务商本质上是“二房东”,租用别人的机房和设备再转租出去,而 Alex 选择了一条更重的路——从源头开始控制。

他锁定了大规模的场地资源和电力供应,自建数据中心,自持核心设备。这种垂直整合的模式看起来笨重,资本效率似乎不高,但它解决了一个关键问题:在 GPU 供应紧张的年代,谁能控制上游资源,谁就掌握了话语权。

更重要的是,这种模式让 GMI Cloud 能够触及底层硬件的优化空间。传统云厂商拿到的是虚拟化之后的算力,很难做深度调优,而掌握裸金属的 GMI Cloud 可以从芯片、内存、网络层面进行全栈优化,把推理效率和成本控制到极致。

公司成立后,Alex 迅速组建了核心团队,从谷歌等顶尖科技公司挖来了关键技术人才,在多个国家和地区布局数据中心节点。

图片

03

押注“推理时代”

如果说垂直整合是 GMI Cloud 的底座,那么对行业趋势的精准判断则是这家公司快速崛起的另一个关键。

早在 DeepSeek R1 发布前的五六个月,Alex 就做出了一个重要决策,公司必须快速开发一套完整的推理引擎框架。

在他看来,AI 从训练阶段进入推理阶段是一件清晰且必然的事情。大模型已经训练得足够好用,各种应用开始落地——航空公司的 AI 客服可以帮乘客改签机票,手机上的即时翻译 App 已经相当流畅。当模型足够成熟,下一步必然是大规模的推理部署,而且需要极低的延迟。

训练和推理的本质差异,决定了它们对基础设施的要求完全不同。训练像是系统性的学习,需要稳定的算力集群按部就班地处理海量数据;推理则像是随机考试,要在完成判断的同时应对突发流量、多模态输入等复杂场景。电商大促时的毫秒级响应需求、工业质检中的实时缺陷识别,都要求算力基础设施具备极高的弹性和响应速度。

基于这个判断,GMI Cloud 为即将上线的推理引擎设定了三个核心能力:自动扩容(Auto Scaling)、全球扩容(Global Scaling)和热切换(Hotswap),并且尤其重视热切换——在推理阶段,机器宕机对客户的影响极大,必须确保即便出现故障,也能有机器快速补位,保证系统的持续可用。

2025 年初,当 DeepSeek 引爆推理需求时,GMI Cloud 已经准备就绪。公司在最短时间内完成了基于 H200 的 DeepSeek R1 专属部署和优化,Inference Engine 平台的可用性达到 99.995%。这次未雨绸缪,让公司在行业爆发的窗口期抢占了先机。

04

不只是“卖铲子”

在 AI 创业圈,“卖铲子”是一个被用滥的比喻,但 Alex 并不认同这个标签。

GMI Cloud 的定位是 AI Native Cloud,不是在传统云上跑 AI,而是从底层就为 AI 场景而生,这与 AWS、Azure 等超大规模云厂商形成了本质区别。

首先是位置。传统云巨头通常只围绕几个核心大区提供服务,但在很多特定市场,比如东南亚或日本,地区算力资源覆盖并不完整,往往需要连接到远端节点,在延迟和数据合规上都会遇到问题。GMI Cloud 目前在全球多个地区部署了多个节点,能够更灵活地满足本地化需求。

其次是服务深度。在大型云厂商那里,除非是年预算超过 2,000 万美元的大客户,否则很难获得专属的技术支持。但 AI 训练过程极不稳定,机器与模型的绑定非常深,非常需要技术团队的深度介入。GMI Cloud 能够提供这种高强度的技术支持,帮助客户优化整个技术链路。

最核心的是产品架构。传统云厂商的底座大多围绕 CPU 构建,GPU 只是其中一部分,而 GMI Cloud 从一开始就定位 AI Native Cloud,只用英伟达的高端芯片,拥有底层硬件的控制权,可以做到裸金属交付。另外根据 Benchmark 数据,GMI Cloud 的一款 MaaS 产品 Inference Engine 正是因为自有 GPU 资源优势,其 API 在大语言模型推理方面比原厂模型要快 2 到 3 倍,在视频生成模型上甚至能比原厂快 3 倍。

Alex 用一个比喻来描述公司的产品体系:巨石、鹅卵石和沙子。巨石(Rock)是超大规模集群,服务于大模型公司的训练需求;鹅卵石(Pebble)是通过容器化服务,满足初创企业灵活、中等规模的算力需求;沙子(Sand)则是通过 Inference Engine 提供 API 服务,让开发者能够随时随地调用各种模型。三层打通,从万卡集群训练到单次 API 调用,提供全栈解决方案。

他还喜欢用“Shopify of AI”来向投资人解释公司的定位。Shopify 让任何一个创业者都能快速建店,不被电商巨头绑架。同样,GMI Cloud 希望把算力环境的自主权还给客户,让他们能够自由选择、组合和扩展,而不是被锁定在某一家云厂商的生态里。

基于这个判断,GMI Cloud 为即将上线的推理引擎设定了三个核心能力:自动扩容(Auto Scaling)、全球扩容(Global Scaling)和热切换(Hotswap),并且尤其重视热切换——在推理阶段,机器宕机对客户的影响极大,必须确保即便出现故障,也能有机器快速补位,保证系统的持续可用。

2025 年初,当 DeepSeek 引爆推理需求时,GMI Cloud 已经准备就绪。公司在最短时间内完成了基于 H200 的 DeepSeek R1 专属部署和优化,Inference Engine 平台的可用性达到 99.995%。这次未雨绸缪,让公司在行业爆发的窗口期抢占了先机。

05

5 亿美元的 AI Factory

2024 年 10 月,GMI Cloud 完成了 8,200 万美元的 A 轮融资,获得了英伟达 NCP 认证。这个认证目前全球仅有 6 家公司持有,意味着在 GPU 供应紧张的市场环境下,公司拥有最高优先级的拿货权和原厂技术支持。

NCP 认证带来的不仅是拿卡优势。GMI Cloud 与英伟达在研发层面保持着密切的双周技术会议,在推进全亚洲第一个 GB300 液冷万卡集群的建设过程中,英伟达的团队直接介入,协助调整参数和部署方案。这种从底层架构到网络层面的深度技术支持,是搞定超大规模集群的关键。

更大的动作是与英伟达合作的 AI Factory 项目。这座位于中国台湾的基础设施总投资达 5 亿美元,总功率 16 兆瓦,搭载 96 个高密度 GB300 NVL72 架构,内置万卡级 Blackwell Ultra GPU,预计每秒可处理近 200 万 token。

与传统数据中心不同,AI Factory 是专为规模化 AI 工作负载设计的,以智能作为产出,以 GPU 算力作为生产设备,以数据作为输入。这座工厂将有效打通 AI 技术从概念到应用的最后一公里。

据悉,该项目的第一期算力已经全部售出,第二期也已有 50%被预定。这背后是当前算力市场的真实供需:尽管芯片产能不再像两年前那样极度紧缺,但优质、可用的集群资源依然稀缺。

图片

06

下一个战场

对于未来,Alex 保持着清醒的危机感。

很多人认为 GPU 算力最终会变成像水电煤一样的大宗商品,届时纯粹的算力租赁将面临利润摊薄。Alex 并不回避这个问题,但他认为至少目前,算力还远未商品化。在这个行业,即使买了 GPU,如果网络服务和稳定性做不好,客户根本没法用。机器坏掉是不会挑日子的,服务品质和集群稳定性本身就是极高的壁垒。

规模同样是壁垒。现在能提供 8 卡、16 卡集群的厂商很多,但能提供单一集群 2000 卡甚至万卡级别的厂商非常少。随着模型越来越大,客户对大规模集群的需求在增加,行业正在经历一场去芜存菁的洗牌。

为了在红海到来前建立更深的护城河,Alex 正在做两件事。一是在全球范围内锁定 2027 年的电力资源,电力将是数据中心最大的硬约束,公司的规划已经不是看 6 个月后,而是直接对接电力公司,锁定未来的产能。二是持续构建软件生态,通过深度优化模型,提供比原生平台更快、成本更低的推理服务。

在市场布局上,GMI Cloud 采取了差异化策略。公司专注于帮助 AI 企业出海,提供落地东南亚、日本和北美的算力支持;在中国台湾,推进 AI Factory 计划,服务本土半导体产业和政府项目;在日本,已经拿下当地第二大电力公司作为客户,组建了本地团队。

对于下一轮融资,Alex 透露目标规模是 2 亿美元,主要用于 AI Factory 的建设和全球扩容,将集群规模在现有基础上翻两到三倍。

当被问及 GMI Cloud 的终局时,Alex 的回答是:不希望只做一个单纯的算力提供商,那样只会越做越窄。他希望做一个垂直化的 AI 服务平台,成为全球 AI 推理领域的技术赋能型生态构建者。

这位 29 岁的创始人用一个比喻来描述自己的角色定位,当所有人都在淘金的时候,他选择去修那条通往金矿的路。

关于 GMI Cloud

由 Google X 的 AI 专家与硅谷精英共同参与创立的 GMI Cloud 是一家领先的 AI Native Cloud 服务商,是全球六大 Reference Platform NVIDIA Cloud Partner 之一,拥有遍布全球的数据中心,为企业 AI 应用提供最新、最优的 GPU 云服务,为全球新创公司、研究机构和大型企业提供稳定安全、高效经济的 AI 云服务解决方案。

GMI Cloud 凭借高稳定性的技术架构、强大的GPU供应链以及令人瞩目的 GPU 产品阵容(如能够精准平衡 AI 成本与效率的 H200、具有卓越性能的 GB200、GB300 以及未来所有全新上线的高性能芯片),确保企业客户在高度数据安全与计算效能的基础上,高效低本地完成 AI 落地。此外,通过自研“Cluster Engine”、“Inference Engine”两大平台,完成从算力原子化供给到业务级智算服务的全栈跃迁,全力构建下一代智能算力基座。

作为推动通用人工智能(AGI)未来发展的重要力量,GMI Cloud 持续在 AI 基础设施领域引领创新。选择 GMI Cloud,您不仅是选择了先进的 GPU 云服务,更是选择了一个全方位的 AI 基础设施合作伙伴。

如果您想要了解有关 GMI Cloud 的信息

请关注我们并建立联系

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐