个人理解:
2026 年的创新速度不会放慢
我们不能无限制地继续堆算力,所以行业必须改为‘规模化效率’
“合成解析流水线(synthetic parsing pipelines)”:2026 年的文档处理不会再是“一个模型吃掉整份文件”的单体做法。相反,系统会把文档拆解成不同元素(标题、段落、表格、图片等),再把每一类元素交给最擅长理解它的模型
用户先定义目标,再进行验证;一组自主智能体负责执行,并在关键节点请求人类审批
人类可以不断微调与让AI 改变技能边界
智能体与智能体之间的通信将走向主流
“数据主权([data sovereignty])”与一等的权限管理([first-class permissioning]):不在“更大的模型”,而在“更聪明的数据”
AI 不仅回答问题,还会直接影响结果 -- AI参与过程与决策
未来不会是“一招鲜吃遍天”的巨型模型,而是多个更小、更高效、在特定场景下甚至更准确的模型组合
[prompt injection]:提示注入:通过恶意提示诱导系统泄露信息或执行不当行为

2026年将重塑AI与科技世界的趋势

2026年AI变局?

IBM解读(简体中文译文)
原文:The trends that will shape AI and tech in 2026(IBM)
发布时间:2026年1月1日
作者:Anabelle Nicoud(IBM Think 专栏作者)
本文由ChatGPT+特立独行的猫(本人)联合翻译。

在科技行业里,一年往往像其他行业的十年。
想想看:一年前,我们还在讨论 ChatGPT 连“strawberry”里有几个字母“r”都数不清。来自中国前沿实验室的推理模型(例如 [DeepSeek-R1])还没有席卷全球;开源的推理型智能体也还没真正走红。那时,Claude 的专用编程智能体还不存在。IBM 的 [Granite 3.0] 刚刚问世。关于“智能体([agentic])”的讨论也才刚开始:协议 [MCP] 在春季才刚有起色,并得到 Sam Altman 的一次“重量级背书”。与此同时,在基础设施层面,芯片与算力资源开始变得稀缺,这让一些拥有资源的新地区获得了竞争优势。过去几周里,IBM Think 采访了十多位科技领域专家——研究人员、创业者,以及来自 IBM 和其他机构的领导者——请他们预测来年的关键趋势。

大家有一个共同判断:2026 年的创新速度不会放慢。

IBM 苏黎世研究院(Zurich Laboratory)的首席研究人员 Peter Staar 说:“这是一个疯狂的时代,而且只会越来越快。” 新的“智能体能力”会带来新的商业与个人机会。IBM 杰出工程师 Chris Hay 说,他在 AI 创作上看到了类似音乐制作人 Rick Rubin 的影子:“我不把它局限在写代码。我觉得我们都会变成‘AI 作曲家’——无论你是市场人员、程序员,还是产品经理(PM)。 ” 很多人认为,“效率”会成为新的前沿。IBM 首席研究科学家 Kaoutar El Maghraoui 在节目《Mixture of Experts》中表示:“[GPU] 仍然会是主力,但基于 [ASIC] 的加速器、[chiplet](小芯片拼接)设计、模拟推理([analog inference]),甚至量子辅助优化器([quantum-assisted optimizers])都会成熟。也许还会出现专为智能体工作负载设计的一类新芯片。” 在经历了对 AI 投资回报率([ROI])的长期怀疑之后,AI 能力会为企业业务开创新的做法。开源的推理模型与智能体也会继续“试探边界”,推动企业 AI 更快落地。同时,随着越来越多企业关注“AI 主权([AI sovereignty])”,信任与安全会成为更高优先级。以上只是序幕。接下来是 18 条专家预测,带你看清 2026 年企业科技的大方向。

从量子到效率:新的算力前沿
• 量子计算将首次在某些任务上胜过经典计算机 | Jamie Garcia(IBM)
IBM 公开表示:2026 年将是一个关键节点——第一次出现这样一种情况:某台 [量子计算机] 能在某个问题上“总体上优于”任何纯经典方法(也就是超过传统计算机能做到的最好水平)。IBM 认为,这一里程碑将有机会推动药物研发、材料科学、金融优化等领域的突破——这些行业普遍面临“组合爆炸”式的复杂难题。IBM 战略增长与量子合作伙伴负责人 Jamie Garcia 说:“我们已经从理论阶段走出来了。今天我们正在用业内最先进的量子计算机做真实用例。虽然还不是生产级规模的问题,但这些都是‘价值信号’:随着量子技术成熟,价值会继续提升。我们在药物研发、材料发现、以及金融和物流优化的研究上都看到非常快的进展。” 她还强调了 AI 与量子计算的融合:像 [Qiskit Code Assistant] 这样的工具,已经在帮助开发者自动生成量子代码。IBM 也在打造一种“以量子为核心的超级计算架构”,把量子计算与高性能计算([HPC])和 AI 基础设施结合起来,并由 [CPU]、[GPU] 等多种计算引擎协同支持。此外,AMD 与 IBM 正在探索如何把 AMD 的 CPU、GPU 和 [FPGA] 与 IBM 的量子计算机结合,以更高效地加速一类新兴算法——这些算法在“只靠经典计算”或“只靠量子计算”的单一范式下都还难以触达。

• 硬件效率将成为新的“规模化”策略 | Kaoutar El Maghraoui(IBM)
El Maghraoui 认为:2026 年会出现“前沿模型 vs. 高效模型”两条路线并行的格局。一边是拥有数十亿参数的超大模型;另一边是更“硬件友好”的高效模型,它们能在相对普通的加速器上跑得更好、更省资源。她的核心判断是:“我们不能无限制地继续堆算力,所以行业必须改为‘规模化效率’。” 2025 年,算力需求超过供应链能力,迫使企业围绕算力可得性做优化。硬件策略因此分化:要么用更强的“超级芯片”做纵向扩展(scale-up,例如 H200、B200、GB200 等);要么做横向扩展(scale-out),通过边缘侧优化、量化([quantization])突破和小型大语言模型([small LLMs])来降低成本。这也意味着“边缘 AI([edge AI])”会从口号变成现实。并且硬件竞赛不再只看 GPU:GPU 仍是主力,但 ASIC 加速器、chiplet 设计、模拟推理、甚至量子辅助优化都会走向成熟。她还预测:可能会出现专为智能体任务设计的新型芯片。

不止是模型:AI 系统与智能体的崛起
• AI 的胜负将由“系统”决定,而不是模型 | Gabe Goodhart(IBM)
Goodhart 认为:到 2026 年,AI 模型本身会逐渐“商品化”。也就是说,买方可以更容易地选择适合自己场景的模型,模型不再是最核心的差异点。真正决定竞争力的是“系统层面的编排([orchestration])”:把不同模型、工具与工作流组合起来,形成可持续运转的整体。他解释说:“当你在用 ChatGPT 时,你其实不是在和某个‘模型’对话,而是在和一个软件系统互动。它包含网页搜索等工具、各种脚本化任务,通常还有一个智能体循环([agentic loop])。” 他预测会出现更“协作式的模型路由([model routing])”:小模型负责大量日常工作,必要时把复杂任务交给大模型。谁能把这种系统级集成做得最好,谁就更可能塑造市场。

• “智能体式解析”将取代单体文档处理 | Brian Raymond(Unstructured
Raymond 认为:2026 年的文档处理不会再是“一个模型吃掉整份文件”的单体做法。相反,系统会把文档拆解成不同元素(标题、段落、表格、图片等),再把每一类元素交给最擅长理解它的模型。这样做能在降低计算成本的同时提升准确度,因为每个元素都由更合适的“模型类别”来解读。Unstructured 的业务是把 [非结构化数据(unstructured data)] 转成适合 AI 使用的“干净数据”。他把这个趋势称为“合成解析流水线(synthetic parsing pipelines)”:最终形成一层“灵活的重建层”,在尽量保持原文结构、来源链路([lineage])与语义一致性的前提下,重建出更精确的文档表示。Unstructured 近期把 IBM Research 的 [Docling] 的目标检测能力([object detection])整合进来,以提高整体准确率。下一步是“智能体式解析(agentic parsing)”:你可以把它想成一支由 AI 智能体组成的“领域专家团队”,持续扫描企业语料库,建立更深的语义画像,并在一个多维图([multidimensional graph])上为所有内容建立索引。这样一来,搜索可以同时跨越意图、结构、内容与元数据,让原本难以触达的内部知识能实时被调用。这些进展共同指向一种“更自觉”的企业数据系统,为 2026 年更快决策与更智能的工作流打基础。

• 跨部门、跨渠道的“超级智能体”将出现 | Chris Hay(IBM)
Hay 表示,我们已经走出“单一用途智能体”的时代。2024 年的智能体往往很小、很专门:写邮件的、做调研的。如今随着推理能力增强,智能体能规划、调用工具并完成更复杂任务。他把下一阶段称为“超级智能体(super agent)”。他预测:2026 年会出现“智能体控制平面(agent control planes)”和“多智能体仪表盘(multi-agent dashboards)”。你从一个入口启动任务,智能体就能在多个环境里协作——浏览器、编辑器、收件箱——而你不必再分别管理一堆工具。界面(UI)也会更“可变形”:不再是静态软件,而是可按场景自适应的应用,让每个用户都像“AI 作曲家”。Hay 说:“谁掌握了超级智能体的入口,谁就更可能塑造市场。”

• AI 智能体将从“个人助手”变成“AI 统筹的团队”,普通人也会成为智能体构建者 | Kevin Chung(Writer)
Writer 的首席战略官 Kevin Chung 认为:2026 年会由三股趋势推动 AI 走出“个人效率工具”阶段。
第一,AI 会从个人使用转向“团队与工作流编排(workflow orchestration)”:跨部门连接数据,把项目从想法推进到落地。
第二,推理能力增强后,系统不只是“照指令做”,还会更主动地预测需求。这会把 AI 从被动助手变成能参与问题解决与决策的合作伙伴。
第三,也是最令人兴奋的一点:智能体的创建会被“平民化”。设计和部署智能体的能力,将从开发者扩展到普通业务人员。技术门槛下降后,最能解決真实问题的人会驱动一波新创新。

• 在工程与 IT 中,AI 将从工具变成队友 | Ismael Faro(IBM Research)
Faro 认为:2025 年的智能体系统,让大语言模型与编程助手变得更“动态”。而这只是开始。他预测软件实践会从“氛围式写代码(vibe coding)”走向一种更结构化的方法:用户先定义目标,再进行验证;一组自主智能体负责执行,并在关键节点请求人类审批。他把这种工作方式称为“目标-验证协议(Objective-Validation Protocol)”。这会催生新的“智能体运行时(agentic runtimes)”,用于执行复杂工作流并提供控制机制;智能体的行为也会从静态、写死的输出,转向在策略驱动的架构(policy-driven schemas)下动态适配,在灵活性和可控性之间取得平衡。他进一步提出一种“智能体操作系统(Agentic Operating System, AOS)”的概念:它将标准化智能体群(agent swarms)的编排、安全、合规与资源治理。只要企业在安全、资源管理、合规和运维上保持纪律,就能利用“专家型系统智能体”在关键任务计算中重新获得领导力。

• 多模态 AI 将像人类一样“理解世界” | Aaron Baughman(IBM)
Baughman 表示,生成式模型需要具备多感官能力([multimodal AI]),才能像人类一样理解世界,甚至捕捉我们容易忽略的信号。他在体育领域使用多模态 AI,并参与 IBM 与美国网球公开赛(US Open)、ESPN Fantasy Football、以及高尔夫大师赛(The Masters)的相关项目。他认为 2026 年我们会更常看到多模态 AI:它能把语言、视觉与行动串联起来,在一个更接近现实世界的环境里“感知并行动”。未来甚至可能出现“多模态数字员工”,能够自主完成多种任务,例如帮助解读复杂的医疗案例。但自主并不意味着取消人类监督。他强调“人类参与回路(human-in-the-loop)”的重要性:人类可以不断微调与让AI 改变技能边界。

• 智能体与智能体之间的通信将走向主流 | Kate Blair(IBM Research)
距离 Anthropic 推出 [MCP] 还不到一年,IBM 也有 [ACP],Google 则有 [A2A]。Blair 认为:如果 2025 年是“智能体之年”,2026 年将是多智能体系统进入生产环境的一年。关键在于协议的成熟与趋同。她领导 IBM 的 BeeAI 与 Agent Stack 项目,这两个项目都已贡献给 Linux Foundation。她提到 Linux Foundation 近期宣布成立 Agentic AI Foundation,并接收了 Anthropic 贡献的 MCP。她认为开放治理的社区标准,将释放更多创造力、创新和解决方案。她表示 A2A 项目即将迎来首次重要发布,而且 A2A 与 MCP 正在合作,尝试用“一张统一卡片(unified card)”描述实体:无论该实体在 MCP 中是工具/资源,还是在 A2A 中是智能体。这类统一描述会推动互操作性([interoperability]),让不同体系的智能体共享注册表、发现机制和使用方式。她期待 2026 年看到更多“广泛落地的生产级用例”,让智能体真正能和智能体对话协作。

企业AI:将被重新被发明

• AI 将带来真实 ROI……并且要“安全地做到” | David Lanstein(Atolio)
Atolio 为企业提供安全、私有的 AI 平台。他们观察到:客户既想快速试验新技术,又担心失去对 AI 数据的控制。Lanstein 认为:明年的关键趋势,是企业从“尝鲜与兴奋”转向“私有且安全的部署”,同时对 ROI 提出更现实、更严格的要求。他指出,数据泄露持续侵蚀企业信任,而生产环境中“提示注入攻击([prompt injection])”仍是未完全解决的难题。因此,“数据主权([data sovereignty])”与一等的权限管理([first-class permissioning])将成为不可谈判的要求。他认为答案不在“更大的模型”,而在“更聪明的数据”:用高质量、带权限约束的结构化数据喂给模型,才能产出更智能、更相关、更可信的回答。他对未来的兴奋点在于:要实现这一点,必须出现多方面的融合——对安全的重新重视、更懂上下文与用户需求的解决方案,以及 MCP 生态的持续演进。

• 智能体普及将迫使企业重做“身份与访问管理”策略 | Shlomi Yanai(AuthMind)
AuthMind 专注解决网络安全里的难题:让企业近实时地看清每个“身份”的访问权限与活动,从而在攻击发生前阻断。Yanai 预测:未来几年,组织里的“非人类身份”(例如 AI 智能体等)数量将显著超过人类用户。这会重塑企业安全与治理,并上升为董事会级别的议题:企业必须确保每个智能体都被记录在案,并按照预期方式行动,同时提升生产力与安全性。因此企业要回答三个问题:我们是否知道组织里存在的每一个 AI 智能体?它们在访问什么?当它们访问系统时,我们是否确信它们做的事情是正确且合规的?对所有“身份”(不仅是人类,也包括 AI 智能体)进行发现、观察与防护,将成为负责任、安全采用 AI 的基础能力。

• “机器自动化”将真正成型 | Steven Aberle(Rohirrim)
Aberle 认为:明年最强的趋势,是 AI 开始处理复杂的企业工作流——不再只是概念验证,而是能端到端执行深度任务的可靠系统。生成式与智能体系统将能理解意图,在庞大的网络中搜索信息,选择合适工具,并持续推进直到达成结果。他认为这会催生全新的平台类别,甚至新的市场,因为我们不再受限于单个人或单个应用能“记住”的东西。他强调 Transformer 架构的作用:它让系统能够吸收海量文本、代码与历史,并在有效护栏([guardrails])下给出更细腻、更精准的回应。我们正在进入一个时代:AI 不仅回答问题,还会直接影响结果。以采购(procurement)为例,这意味着能追踪需求、提前发现缺口并给出修复建议,让专业人士更快、更清晰地做出更公平、更高效的决策。

开源塑造未来

• 开源 AI 将继续在“规模与国家/地区”上多元化 | Matt White(PyTorch Foundation)
PyTorch Foundation 执行董事 Matt White 表示:行业已验证“小而专”的模型会成为核心。蒸馏([distillation])、量化(quantization)和更省内存的运行时(memory-efficient runtimes)推动推理([inference])下沉到边缘集群与嵌入式设备,背后驱动因素包括成本、延迟与数据主权。他认为 2026 年开源 AI 的三股关键力量是:
(1)全球模型多元化——尤其是来自中国的多语言与推理强化模型发布;
(2)互操作性成为竞争轴——框架与运行时围绕共享标准对齐;
(3)治理更“硬”——安全审计的发布流程与透明的数据管线。
随着智能体系统出现,PyTorch 作为训练、仿真与编排的通用基底角色会更重要。开发者需要多模态推理、记忆组件与安全对齐评测的灵活工具,而这正是开源的优势所在。

• 规模化扩张会受限,实体 AI 将加速 | Peter Staar(IBM Research Zurich)
Staar 预测:2026 年 AI 研究会更偏向“可触摸的现实”。他认为机器人与“实体AI(physical AI)”会明显升温。虽然大语言模型仍会主导,但单纯扩大规模带来的边际收益在下降。“人们开始厌倦规模化扩张,转而寻找新想法。” 他看好能在真实环境中感知、行动并学习的 AI——这会成为下一轮创新的技术难点与前沿。同时,开源仍会影响竞争格局。他用一句话概括:“领先者更想封闭,追赶者更倾向开放。” 他还提到 NVIDIA 正在推动开放生态——因为它的商业模式更依赖 GPU 的广泛采用,而不是把模型做成私有壁垒。随着 AI 从屏幕走向现实世界,合作可能会更快加速。

• AI 将从“巨型通用模型”转向“领域推理系统” | Anthony Annunziata(IBM / AI Alliance)
Annunziata 认为:开源 AI 在 2024 年末迎来高光(例如 Meta 的 [Llama])。此后生态继续扩张,小而专的领域模型表现越来越强,例如 IBM 的 Granite、Ai2 的 [Olmo 3],以及 DeepSeek 的模型。这个趋势会在 2026 年加速。他预测我们会看到更小的推理模型,同时具备多模态能力,也更容易为特定领域做微调([finetuning])。强化学习([reinforcement learning])等方法的进步,也会让企业更愿意采用开源 AI,从而进一步提升对“小而高效模型”的需求。他强调:未来不会是“一招鲜吃遍天”的巨型模型,而是多个更小、更高效、在特定场景下甚至更准确的模型组合。在智能体方面,他认为通用智能体不够用:法律、医疗或制造业需要“领域增强”的模型与架构,能反映专业工作流。他主张开源是“必要条件”:如果未来是自动化 AI 能力大量承担工作,那么交互标准必须开放,否则就会出现割裂的资讯孤岛,或者赢家通吃的平台垄断。

把“信任”当成战略

• 去中心化 AI 将走出原型阶段 | Tomás Hernando Kofman(Not Diamond)
Kofman 认为:企业“钟形曲线中间的大多数”会从实验走向生产级系统。但转型不容易:AI 团队需要在评估(evaluation)、可靠性(reliability)、优化(optimization)、效率、可扩张性(scalability)和可维护性(maintainability)上投入大量资源。如果不投入,就会陷入“卡住”的循环:能力不足导致系统没用,而没用又让企业更难争取资源继续投入。在前沿领域,挑战又不同。他认为将面临三大难题:持续学习(continuous learning)、记忆(memory)与可扩张性。因此,我们在模型架构层面和智能体系统层面都会继续投入。他预测会出现“去中心化的智能体网络”:智能体彼此学习、共享信息,并在很长时间尺度上保留重要知识(数周、数月甚至数年)。这类系统能更持续地自我改进,也允许智能体与模型精进更高效、更专注的能力。

• 协作式防御将对抗 AI的武器化 | Ben Colman(Reality Defender)
Reality Defender 提供深度伪造([deepfake])检测工具。Colman 表示:在深度伪造与“被武器化的 AI”危机面前,没有任何单一机构能独自解决问题。尤其在今年末尾出现了新的威胁向量,例如“被武器化的 AI 智能体”。因此,战略合作伙伴关系是必要的——不仅为了增强防御,也是为了预判下一波更复杂的模型与行业特定漏洞。他观察到安全正在走向“分层防护”:把多种防线叠加起来,一个层面的缺口可以被另一个层面覆盖,从而形成更难被突破的整体。他认为下一阶段的关键是“集成”:当这些新技术与检测平台耦合,就能形成“纵深防御(defense in depth)”策略,使组织在所有媒体形式、入口点、用例和工具链上都受到保护,而不是依赖单点方案。

• AI 韧性将成为关键能力 | Anthony Marshall(IBM Institute for Business Value, IBV)
Marshall 表示:组织不能承受 AI 项目被打断,但企业能控制的因素有限。因此,“AI 主权(AI sovereignty)”——即在不依赖外部实体的情况下治理 AI 系统、数据和基础设施——正在变成关键任务。IBV 的调研显示:93% 的受访高管认为,到 2026 年必须把 AI 主权纳入商业战略。这不是再“可选项”,而是实质性风险管理。一半高管担心对特定地区算力资源过度依赖(在中东和亚太尤为明显),因为这会带来数据泄露、数据访问受限、以及知识产权被盗等风险。透明与信任仍是优先事项:监管者和消费者都要求组织解释 AI 智能体是如何得出某个结论。企业必须设计能“展示推理过程”的智能体,即使输出非常复杂。为此,企业需要通过“模块化”构建主权:构建一个让工作负载、数据和智能体能在可信地区与可信供应商之间切换的AI 环境。最后,持续监控也必不可少,用于在 [模型漂移(model drift)] 影响性能或引入偏差(bias)之前及时发现并纠正。

文末:名词与机构简明解释(按出现顺序)
[AI]:人工智能。文中主要指生成式 AI 与“智能体系统”。
[推理模型 / reasoning model]:更强调“多步推理、计划与自我校验”的模型类型。
[智能体 / agent / agentic]:能自主规划、调用工具、分解任务并在多步骤中推进目标的 AI 系统。
[IBM Think]:IBM 的内容/观点平台与专栏。
[DeepSeek-R1]:来自中国前沿实验室的推理模型(文中作为例子提及)。
[Claude]:Anthropic 公司的 AI 助手/模型系列。
[Granite 3.0]:IBM 的 Granite 系列模型/版本(文中作为例子提及)。
[MCP]:Anthropic 推出的一个智能体/工具交互协议(Model Context Protocol 的常用简称)。
Sam Altman:OpenAI 的领导者之一(文中提及其对 MCP 的认可)。
[GPU]:图形处理器,广泛用于 AI 训练与推理。
[ASIC]:专用集成电路,面向特定任务定制的芯片。
[chiplet]:把多个小芯片模块化组合的设计方式。
[analog inference]:模拟电路/模拟计算用于推理,以提升能效(概念性描述)。
[quantum-assisted optimizers]:借助量子计算或量子思想辅助的优化器/优化方法。
[ROI]:投资回报率(Return on Investment)。
[AI sovereignty]:AI 主权:在数据、模型、基础设施等方面保持可控与可治理。
[量子计算机]:利用量子力学特性进行计算的计算机。
[Qiskit Code Assistant]:IBM 相关的量子开发辅助工具,用于生成/辅助量子代码。
[HPC]:高性能计算(High-Performance Computing)。
[CPU]:中央处理器。
[FPGA]:现场可编程门阵列,可在硬件层面重新配置。
AMD:半导体公司,生产 CPU、GPU 等。
[edge AI]:在边缘设备/边缘服务器上运行的 AI(不依赖远端云端)。
[quantization]:量化:用更低精度表示权重/激活以降低算力与内存成本。
[LLM]:大语言模型(Large Language Model)。
[orchestration]:编排:把模型、工具、流程组合成可运行的系统。
[agentic loop]:智能体循环:规划-执行-评估-再规划的多步闭环。
[model routing]:模型路由:按任务把请求分配给不同模型。
Unstructured:公司/项目名称,提供把非结构化数据转为可用数据的能力。
[unstructured data]:非结构化数据,如文档、PDF、图片、邮件等。
[Docling]:IBM Research 相关的文档解析/理解技术(文中提及其目标检测能力)。
[object detection]:目标检测:识别图片/页面中对象的位置与类别。
[multidimensional graph]:多维图结构,用于表达复杂关系与多种索引维度。
Writer:企业 AI 平台公司(文中作为受访者公司)。
[human-in-the-loop]:人类参与回路:关键步骤由人类审核/干预。
[vibe coding]:较随意、依赖感觉的写代码方式(文中用来对比更结构化的方式)。
Objective-Validation Protocol:文中提出的工作方式:先设目标再验证,由智能体执行。
[AOS]:Agentic Operating System:用于管理智能体群的“操作系统式”框架概念。
[multimodal AI]:多模态 AI:同时处理语言、图像、音频、视频等多种信息。
Anthropic:AI 公司,推出 Claude 与 MCP。
[ACP]:IBM 提及的智能体/协议相关项目缩写(文中作为并列例子)。
Google [A2A]:Google 的 agent-to-agent(智能体到智能体)相关项目缩写。
Linux Foundation / Agentic AI Foundation:Linux 基金会及其相关的智能体 AI 基金会项目(文中提及)。
[interoperability]:互操作性:不同系统/协议之间能协同工作。
Atolio:企业 AI 平台公司(文中受访者公司)。
[prompt injection]:提示注入:通过恶意提示诱导系统泄露信息或执行不当行为。
[data sovereignty]:数据主权:数据的存储、访问与治理可由组织自主掌控。
AuthMind:网络安全公司(文中受访者公司)。
Identity & Access Management(IAM):身份与访问管理:管理账号、权限与访问审计的体系。
Rohirrim:企业工作流/采购领域的 AI 创业公司(文中受访者公司)。
Transformers:深度学习架构,现代大语言模型的基础之一。
[guardrails]:护栏:对模型/系统进行约束以降低风险、提高可靠性。
PyTorch Foundation:PyTorch 开源生态的基金会组织。
[distillation]:蒸馏:把大模型知识压缩到小模型。
[inference]:推理:模型在部署阶段生成输出的过程。
[physical AI]:实体AI:能在现实世界中感知、行动与学习的 AI(常与机器人相关)。
NVIDIA:半导体公司,GPU 生态的重要推动者。
Meta [Llama]:Meta 的开源/开放权重模型系列 Llama。
Ai2 [Olmo 3]:Allen Institute for AI(Ai2)的模型系列之一(文中提及)。
[finetuning]:微调:在特定数据上继续训练以适配特定任务。
[reinforcement learning]:强化学习:通过奖励信号优化行为/策略。
AI Alliance:IBM 等参与的 AI 联盟组织(文中提及)。
Not Diamond:多模型 AI 基础设施平台公司(文中受访者公司)。
Reality Defender:提供深度伪造检测的网络安全公司(文中受访者公司)。|
[deepfake]:深度伪造:用生成式模型合成的音视频/图像伪造内容。
defense in depth:纵深防御:多层防线叠加的安全策略。
IBM Institute for Business Value(IBV):IBM 的商业价值研究机构,发布调研与洞察。
[model drift]:模型漂移:数据分布变化导致模型性能随时间下降的现象。
注:本文为面向非技术读者的易读型译写。为保持专业准确性,关键术语在首次出现时用方括号标注,并在文末集中解释。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐