Claude Cowork:当AI开始“打工“的时候
摘要:Anthropic发布的ClaudeCowork AI助手引发市场震荡,导致软件服务类股票市值蒸发8300亿美元。该产品采用AgenticAI架构,通过“子智能体协调”将复杂任务拆解并行处理,基于ReAct范式实现推理与行动的结合。作为本地运行的混合架构应用,Cowork特别适合需要多步骤、多模态协调的复杂任务,并推出法律、销售等专业插件,直接威胁垂直SaaS市场。研究表明其技术存在协调难题
自1月28以来,软件和服务的股价蒸发近8300亿美元。
“美股方面,周三开盘不久后,甲骨文重挫4.2%。
随之,其他软件巨头也纷纷走低:Adobe下跌 2.6%,Salesforce跌3.3%,Atlassian跌3%……
仅在当地时间周二交易中,短短24小时,软件、法律科技、数据服务公司市值蒸发了约2850-3000亿美元。
路透称,自1月28以来,软件和服务的股价蒸发近8300亿美元。”
市场在慌什么?答案是Anthropic刚发布的Claude Cowork——一个能在你电脑上自主工作的AI助手。
我花了两个晚上研究它背后的技术,发现这玩意儿不简单。它不是简单的“AI+自动化”,而是把近几年学术界最前沿的几个概念攒在一起,做成了一个能用的产品。
今天把Claude Cowork拆开来看看。
它到底是什么?
Claude Cowork是一个基于Agentic AI架构的桌面应用。
等等,“Agentic AI”是什么?这个词最近才在学术圈火起来。2025年5月,一篇发在arXiv上的论文《AI Agents vs. Agentic AI: A Conceptual Taxonomy》专门辨析了这两个概念[1]。
简单说:
- AI Agent(AI智能体)是单一的任务执行者,你给它一个指令,它执行,完事。
- Agentic AI(自主AI系统)不一样,它能把复杂任务拆解成多个子任务,协调多个“子智能体”并行工作,还能在过程中自己调整计划。
Claude Cowork属于后者。
它的核心能力是“sub-agent coordination”(子智能体协调)。官方文档里说得很直白:“Claude breaks complex work into smaller tasks and coordinates parallel workstreams to complete them.”
用人话说就是:你给它一个大活儿,它会自己拆成好几个小活儿,同时干,干完了再组装起来给你。
这个思路其实来自2024年一篇叫《ChatDev: Communicative Agents for Software Development》的论文。研究者设计了一个“虚拟CEO”智能体,负责把任务分给不同部门的智能体,然后整合输出。Cowork应该也是借鉴了这套架构[1]。
为什么需要它?
因为人类的工作方式变了。
以前我们用软件,是“点点点”——点开文件、复制、粘贴、保存。AI出现后,变成了“对话”——你说一句,它生成一段文字或代码。
但这两种模式都有问题:
- “点点点”模式太碎片化,你得自己管理所有细节。
- “对话”模式太浅层,AI每次只能回答一个问题,做不了复杂任务。
Cowork的出现,是为了解决“我有一堆文件需要整理,但我不想一个个告诉AI该怎么做”这类需求。
比如:你的Downloads文件夹乱成一团,里面有合同、截图、发票、PPT。你希望AI能:
- 识别文件类型
- 创建对应文件夹
- 移动并重命名文件
- 生成一个汇总表格
这事儿单靠对话式AI做不到,因为涉及太多步骤和判断。但Cowork可以,因为它用的是“ReAct”范式。
它是怎么做到的?
ReAct是“Reasoning and Acting”的缩写,2022年由普林斯顿大学和Google Brain团队提出[2]。
传统的“Chain-of-Thought”(思维链)prompting只负责推理,不负责行动。ReAct把推理和行动交织在一起:
Thought(思考): 我需要先找到所有PDF文件
Action(行动): 搜索Downloads文件夹下的.pdf文件
Observation(观察): 找到15个PDF文件
Thought: 我需要判断这些PDF的类型
Action: 读取每个PDF的前几页内容
...
这个循环一直持续,直到任务完成。
Wei等人在2022年发表的《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》论文证明,让LLM生成“中间推理步骤”能显著提升复杂任务的表现[3]。ReAct在此基础上加入了“行动”环节,让AI不只是想,还能做。
Cowork的实现中,这些“行动”包括:
- 读写本地文件
- 调用外部工具(如搜索引擎)
- 使用插件(Plugins)扩展能力
这就引出了下一个问题。
它工作在哪里?
你的本地电脑上。
这个设计很关键。不同于ChatGPT或Gemini这种纯云端服务,Cowork需要访问你的文件系统,所以它必须在本地运行。
目前只支持macOS的Claude Desktop应用。你需要:
- 安装Claude桌面应用
- 开通付费订阅(Pro/Max/Team/Enterprise)
- 手动给Cowork授权访问某个文件夹
这种“本地运行+云端模型”的混合架构,好处是数据不离开你的设备,坏处是你得保持网络连接。
值得一提的是,Cowork的对话历史存储在本地,不受Anthropic数据保留政策约束。这意味着你的工作记录不会被上传到云端——除非你明确分享。
什么时候用?
当任务复杂度超过“三次对话”的时候。
如果你的需求是“帮我写一封邮件”,用普通对话模式就够了。但如果是“把这50张发票截图整理成Excel,计算总额,生成月度报表,并发送给财务”,Cowork就派上用场了。
论文《The role of agentic AI in shaping a smart future》提到,Agentic AI适合的场景包括[4]:
- 需要持续上下文的任务(长时间运行)
- 需要多模态协调的任务(处理文本、图片、表格)
- 需要分布式劳动的任务(多步骤并行执行)
这些场景的共同特点是:任务本身需要“计划-执行-调整”的循环,单次对话完成不了。
谁在用?
理论上是“所有知识工作者”,但实际上门槛不低。
Cowork目前是“research preview”(研究预览版),功能还不稳定。有用户反馈说它会误删文件,所以Anthropic建议不要用于“受监管的工作负载”。
从市场反应来看,最慌的是法律、销售、财务等领域的软件公司。为什么?因为Cowork发布了一堆行业插件:
- Legal Plugin(法律插件):起草合同、检索判例
- Sales Plugin(销售插件):研究潜在客户、准备商务谈判
- Finance Plugin(财务插件):分析财务报表、构建模型
这些插件本质上是“预先训练好的专业子智能体”。它们被集成进Cowork后,就能自动完成原本需要专业软件才能做的事。
这就是为什么股市会跳水——市场担心这些插件会取代现有的垂直SaaS工具。
成本如何?
分两部分:订阅费和算力成本。
订阅费:
- Pro:$25/月
- Max:$149.99/月(Cowork最早对这个tier开放)
- Team/Enterprise:定制价格
算力成本:Cowork运行时会持续调用Claude API,消耗token。因为是“Agentic”模式,它会生成大量中间推理步骤,token消耗比普通对话高3-5倍。
但从另一个角度看,如果Cowork能替你完成一个原本需要2小时的任务,节省下来的时间成本远高于API费用。
这背后涉及一个学术问题:Agentic AI的“效率边界”在哪里?
有研究指出,当任务复杂度超过一定阈值时,Agentic AI的性能会快速提升;但如果任务过于简单,反而会因为“协调成本”导致效率下降[1]。这就是为什么Cowork不适合回答“今天天气怎么样”这种问题。
我的一些观察
研究Cowork的时候,我翻了不少论文。有几个有意思的发现:
- ReAct不是万能的
ReAct在2022年火了,但后续研究发现它也有局限。2024年的一篇论文《Exploring ReAct Prompting for Task-Oriented Dialogue》指出:在某些任务中,ReAct的成功率低于传统方法,但用户满意度反而更高[5]。
原因是:ReAct生成的推理轨迹更“像人”,让用户觉得AI在“认真思考”,即使最终结果不完美,用户也更愿意接受。
这对产品设计是个启发——有时候“透明度”比“准确度”更重要。
- 多智能体协调是个难题
Cowork能协调多个子智能体并行工作,听起来很酷。但学术界对这事儿有争议。
2025年的一篇综述《Agentic AI: A Comprehensive Survey》提到,多智能体系统存在“拜占庭问题”——当某个子智能体出错时,整个系统可能崩溃[7]。
解决方案之一是引入“Contract Net Protocol”(合同网协议),让子智能体之间通过“招标”方式分配任务,减少单点故障[6]。不知道Cowork有没有用类似机制。
- Agentic AI的“灵魂侵蚀”
这个词来自一篇2024年的论文《BMAM: Brain-inspired Multi-Agent Memory Framework》[7]。研究者发现:长时间运行的Agentic AI会逐渐“忘记”早期的任务目标,出现“目标漂移”。
他们提出的解决方案是设计一个类似人脑的记忆系统,包括:
- 情景记忆(episodic memory):记住具体事件
- 语义记忆(semantic memory):记住概念和知识
- 显著性记忆(salience-aware memory):记住重要信息
Cowork会不会遇到类似问题?目前还不清楚,但这是个值得关注的方向。
写在最后
Claude Cowork不是第一个Agentic AI产品,也不会是最后一个。
但它的出现,标志着AI从“对话工具”向“工作伙伴”的转变。这个转变的核心不是技术本身,而是“自主性”——AI开始能自己拆解任务、协调资源、调整计划。
这对人类意味着什么?
短期来看,某些重复性的知识工作会被自动化。长期来看,人类和AI的协作模式会彻底改变——我们不再需要事无巨细地指挥AI,而是给它一个目标,让它自己去完成。
这听起来很美好,但也有风险。当AI能自主行动时,如何确保它的行为符合人类意图?如何防止它做出不可逆的错误决策?
这些问题,学术界还在研究。而Cowork,已经在路上了。
参考文献
[1] Sapkota, R., et al. (2025). AI Agents vs. Agentic AI: A Conceptual Taxonomy, Applications and Challenges. arXiv:2505.10468
[2] Yao, S., Zhao, J., Yu, D., et al. (2022). ReAct: Synergizing Reasoning and Acting in Language Models. arXiv:2210.03629
[3] Wei, J., Wang, X., Schuurmans, D., et al. (2022). Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. arXiv:2201.11903
[4] Soodeh Hosseini, Hossein Seilani. (2025). The role of agentic AI in shaping a smart future: A systematic review.
[5] Elizabeth, M., et al. (2024). Exploring ReAct Prompting for Task-Oriented Dialogue: Insights and Shortcomings. arXiv:2412.01262
[6] Mohamad Abou Ali, Fadi Dornaika. (2025). Agentic AI: A comprehensive survey of architectures, applications, and future directions. arXiv:2510.25445
[7] Yang Li, Jiaxiang Liu, Yusong Wang, Yujie Wu, Mingkun Xu. (2026). Brain-inspired Multi-Agent Memory Framework (BMAM). arXiv:2601.20465
更多推荐



所有评论(0)