全球咨询巨头埃森哲(Accenture)宣布将AI工具使用情况与中高层管理者晋升直接挂钩,成为首个将AI技能作为领导力评估核心指标的大型企业。当埃森哲将AI使用情况与晋升挂钩时,舆论焦点集中在"解雇威胁"和"技能焦虑"上,我看到的是一场更深刻的人才评估权力的转移——从人类主观判断,转向算法辅助的"量化自我"。

这场转移的边界在哪?HR如何在其中定位?这是我想探讨的。


一、考核什么,就是在定义什么是"有价值的人"

埃森哲的机制设计很有意思:登录频率、使用时长、功能调用、成效量化。这四个维度层层递进,本质上是在回答一个问题——什么样的人值得被提拔?

传统晋升评估依赖上级的主观判断:业绩数字、项目经验、人际影响力。埃森哲的新体系则引入了一个外部裁判——系统后台数据。这意味着,"你是否在用AI"不再是个人选择,而是组织公民身份的准入条件。

更深一层看,这是工作价值的定义权从业务结果向过程数据的迁移。当AI工具成为基础设施,"会用"和"用得有效"之间的鸿沟,可能比"会用"和"不会用"更大。埃森哲的分层分类考核,正是试图在"基础门槛"和"卓越标准"之间建立区分度。

但这里有一个危险:数据能捕捉的,是行为痕迹;捕捉不到的,是判断质量、创造直觉、关系信任。如果晋升体系过度依赖量化指标,我们可能正在奖励"AI表演艺术家"——那些擅长让系统记录高活跃度,却未必创造真实价值的人。

更尖锐的问题是:当AI能力快速从"差异化优势"沦为"基础门槛"(就像20年前的"熟练使用Office"),下一轮晋升竞争将转向什么?我的猜测是"AI无法评估的能力"——跨领域整合、模糊情境决策、政治嗅觉、叙事建构。而这些,恰恰是目前考核体系最薄弱的环节。


二、"强制绑定"背后的组织文化悖论

CEO朱莉·斯威特的"解雇威胁"和55万员工的AI培训,构成了一组矛盾信号:既要全员普及,又要淘汰落后。这种张力揭示了数字化转型中的经典困境——效率与包容如何平衡?

我的观察是,埃森哲正在采用一种"休克疗法"式的文化重塑:通过晋升杠杆的刚性约束,打破"AI是IT部门的事"或"年轻人更擅长"的路径依赖。这种自上而下的推动,在短期内确实能快速改变行为模式。

但风险同样明显,且比我初稿中写的更深层:

资深员工的隐性知识流失:那些依赖经验直觉而非数据驱动的决策者,可能在考核中处于劣势。但他们的组织记忆和客户关系难以被AI量化。

"非共识尝试"空间的压缩:当所有人都被训练使用同一套AI工具、追求相似的效率指标,边缘探索和创新多样性会被系统性驱逐。AI是基于概率的、求稳的。如果全员KPI都绑定AI,组织会变得极其趋同——这对一家以创意咨询为生的公司,是福是祸?

人才池的隐性缩水:这种激进政策可能会导致埃森哲在人才市场上变得"挑食"。它可能招不到那些天才型的"偏才",只能招到高度工业化、标准化的"AI操作员"。长期来看,标准化创新的陷阱正在形成。

KPMG、亚马逊、Meta的跟进,说明这不是埃森哲的孤立实验,而是行业层面的评估范式转移。HR需要警惕的是:当"AI素养"成为普适门槛,真正的差异化竞争力可能转向提出正确问题的能力、质疑AI输出的批判思维、以及在人机协作中保持主体性的意识——而这些,恰恰是当前考核体系最难量化的。


三、HR的新角色:算法治理的守门人

埃森哲改革对HR profession的最大启示,不是"我们也要做AI考核",而是HR必须成为组织内部"算法治理"的关键参与者。

具体而言,三个层面的介入是必要的:

第一,数据伦理与法律风险的审查者

员工AI使用数据的采集范围、存储期限、访问权限——这些不能仅由IT和法务决定。HR需要确保绩效数据的收集不侵犯员工隐私,不强化偏见,不制造数字牢笼。

但更紧迫的是"自动化决策的解释权"(GDPR第22条、中国《个人信息保护法》第24条)。如果我因为"AI调用次数不足"未获提拔,公司必须提供人工干预选项和算法解释。这在欧盟已是硬性约束,在其他地区也将成为合规暗雷。建议HR前置伦理审查,而非事后补救。

第二,评估效度的验证者

"使用AI"与"业务成效"之间的因果关系,需要严谨验证。HR应推动对照实验或准实验设计:比较同等条件下,高AI使用组与低AI使用组的实际产出差异,而非简单相关。否则,我们可能把相关性误认为因果性,把工具使用误认为能力本身。

第三,变革韧性与人才多样性的守护者

任何考核改革都会遭遇阻力,但"AI强制绑定"的敏感性在于,它触及员工对技术替代的恐惧。HR需要设计心理安全机制:透明的沟通、缓冲的过渡期、申诉与复议渠道、以及针对资深员工的差异化发展路径。

更重要的是为"不可量化"的价值创造空间:mentorship、文化守护、跨界联想、非共识创新。不是所有人都能或应该成为"AI专家",组织的健康生态需要能力结构的多样性。


四、一个更根本的问题:当AI评估人类,谁评估AI?

埃森哲改革的深层隐喻,是评估权力的双重转移:人类用AI工具工作,同时被AI系统评估。这形成了一个闭环——算法不仅塑造行为,还定义价值。

作为HR,我们需要保持一种批判性的参与:拥抱技术带来的效率提升,同时守护那些使组织成为"人"的组织的特质。这包括:

保留人类判断的最终裁决权:数据是输入,不是判决

定期审计算法影响:评估考核体系是否无意中排斥了特定群体或行为模式

在技术狂热中保留"人"的位置:7030万岗位的替代风险(花旗报告)提醒我们,AI的渗透势不可挡;但埃森哲的改革也警示我们,如果HR不主动定义技术应用的边界,边界将被技术自身定义


写在最后

埃森哲的AI晋升考核,是人才管理史上的一个标志性节点。它标志着"数字痕迹"正式成为职业资本的一部分,也预示着HR职能的进一步分化——一部分人成为算法系统的运营者,另一部分人坚守人性化组织的塑造者。

我的立场是:技术应当增强而非替代人类的判断力。怀疑不是为了否定技术,而是为了在技术狂热中保留"人"的位置。

埃森哲的改革有其合理性——55万人的组织,没有刚性约束,转型速度追不上技术迭代。但HR的职责,是在"必须改变"和"改变什么、保留什么"之间找到动态平衡。

这篇文章的终极价值,或许不在于给出了答案,而在于提出了正确的问题:当算法开始定义价值,谁来定义算法?

可复制的组织力:拆解即梦Seedance 2.0,HR与管理者必学的AI时代组织重构逻辑

人效 | AI时代的人力资源部:从“事务性支撑”到“组织算力调度”

亚马逊裁员1.6万背后的冷思考:告别"工具人",HR的真正转型是"价值回归"

人力资源专业人士必备的 12 项人工智能技能:一份全面的指南

人力资源部AI转型路线实施指南(HRD实践版)

​直面FOBO:HR拥抱AI的五大人机协作新法则​

各位同行,你们组织中是否也在讨论将AI能力纳入考核?最大的顾虑是公平性、隐私、法律合规,还是人才多样性?欢迎分享观察与一线操作细节。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐