前言

这周AI圈有两件事挺值得聊:一是GitHub上获得8.5万Star的Hermes Agent被中国团队EvoMap实锤架构级抄袭,对方被锤后回应"你删号";二是Anthropic悄悄给Claude上了强制实名认证(KYC),国内用户直接不在支持地区列表里。

两件事性质不同,但都绕不开一个问题:开源圈的信任,以及AI工具对中国开发者的可用性。


一、Hermes Agent 被锤抄袭:实锤有多实?

事件经过

Nous Research 是硅谷一家有一定名气的开源AI实验室,靠微调模型起家,旗下 Hermes 系列大模型在 LLM 社区影响力不小。2026年2月25日,他们发布了 Hermes Agent v0.1.0,MIT开源协议,主打"自我进化的AI智能体"——也就是说,模型可以在运行中自动优化自身行为策略。

这个项目上线后迅速走红,两个月拿下 8.5万 GitHub Star。

然后问题来了。

4月15日,中国AI团队 EvoMap 发布了一份详细的技术对比报告,核心指控:Hermes Agent 的"自进化"能力,本质上是对他们开源项目 Evolver 引擎的系统性复刻。

技术对比:哪里撞了?

EvoMap 的报告列了7个高度雷同的技术点,核心集中在自进化仓库的架构上。关键时间线是这样的:

  • Evolver 最早提交:2025年12月(有 commit 记录)
  • Hermes Agent 自进化仓库创建:2026年3月9日,比 Evolver 晚了约36天

EvoMap 的比对结果:两个项目在模块划分、状态管理接口、进化策略的抽象层次上几乎同构,连部分函数命名风格都高度相似。

Nous Research 的回应是:我们的主仓库私有阶段早就有这套架构。但这个回应被指出两个漏洞:私有仓库的内容无从验证,无法作为原创证据;而且被指控的7个同构特征全部集中在3月9日才创建的自进化子仓库里,跟主仓库的创建时间没关系。

"你删号"是怎么回事

整个事件最让人瞠目的,是 Nous Research 的态度。被多方追问后,他们在某个讨论帖里回复了大致意思为"你这账号别玩了"(you should delete your account)的话。

这在 GitHub 和 HuggingFace 社区引发了不小反应——不管技术争议结果如何,这种处理方式很难说成熟。

开发者该关注什么

对普通开发者来说,这件事的实际影响是:

  1. Hermes Agent 的自进化能力是否可信? 如果架构本身有争议,其稳定性和未来维护都是问题
  2. 开源协议的边界在哪里? MIT 协议允许修改使用,但通常要求保留原始版权声明,大量"借鉴"而不注明来源,本质上违反了开源精神
  3. 如何判断一个开源项目是否独立原创? 可以参考 commit 历史、issue 记录、设计文档的时间线,而不只是看 Star 数

python

复制

# 举例:如何用 git 快速核查一个仓库的真实提交时间线
import subprocess

def get_first_commit_date(repo_path):
    result = subprocess.run(
        ["git", "log", "--reverse", "--format=%ai", "--", "."],
        cwd=repo_path,
        capture_output=True,
        text=True
    )
    lines = result.stdout.strip().split('\n')
    if lines:
        return lines[0]  # 最早的 commit 时间
    return None

# 使用示例
date = get_first_commit_date("/path/to/repo")
print(f"最早提交时间: {date}")

这不是万能方法(私有仓库无法直接验证),但对评估公开仓库的原创性有一定参考价值。


二、Claude 强制 KYC:国内开发者怎么办

发生了什么

4月14日,Anthropic 在官方帮助中心更新了《Identity verification on Claude》公告,正式宣布对 Claude 网页版推行 KYC(Know Your Customer)实名认证机制。

具体要求:

  • 上传政府签发的证件(护照或驾照)
  • 配合 Persona 平台完成人脸识别验证

触发条件目前还在逐步推出(rollout),主要针对高频使用、订阅高级计划、以及某些敏感功能场景。

中国用户的处境

问题在于:Persona 的身份验证服务不支持中国大陆用户。

这意味着即使你愿意完成认证流程,系统层面也无法完成验证——直接被排在支持地区列表之外。根据已有报道,即便通过某些方式完成了验证,封号风险也比以前高了不少,且申诉成功率偏低。

同时,Anthropic 的认证合作方 Persona 此前曾发生数据泄露事件,这也让部分用户对上传证件抱有顾虑。

另一个值得关注的信息:Claude 在最近半个月内发生了7次较大规模的服务故障,其中一次全球宕机持续了约3小时。稳定性问题叠加实名认证,正在加速一些国内开发者迁移的决策。

对 API 开发者的影响

目前 Claude API 不受 KYC 政策直接影响,通过 Anthropic API 调用 Claude 的应用不需要进行实名认证。

受影响的主要是直接使用 claude.ai 网页端的场景。

对于依赖 claude.ai 的开发者,现有几条路可以走:

方案 A:切换到 API 调用

如果你原来主要用网页版,可以改用 API 直连:

python

复制

import anthropic

client = anthropic.Anthropic(api_key="your-api-key")

message = client.messages.create(
    model="claude-opus-4-5",
    max_tokens=1024,
    messages=[
        {"role": "user", "content": "Hello, Claude"}
    ]
)
print(message.content)

API 目前不要求实名认证,且稳定性通常优于网页端。

方案 B:通过 API 聚合平台访问

国内有多个 API 聚合平台兼容 Claude 接口,可以规避 KYC 限制,同时提供人民币计费,对国内开发者更友好。

方案 C:评估替代模型

从技术能力来看,GPT-4o、Gemini 1.5 Pro、国产模型(Qwen、DeepSeek、Kimi)在大多数场景下已经可以覆盖 Claude 的核心用途。如果你主要依赖 Claude 进行代码辅助或长文档处理,这几个模型都值得测试一下。

python

复制

# 用 OpenAI 兼容接口快速切换模型测试
from openai import OpenAI

# 可以把 base_url 替换成任意兼容 OpenAI 格式的服务
client = OpenAI(
    base_url="https://api.your-provider.com/v1",
    api_key="your-key"
)

response = client.chat.completions.create(
    model="deepseek-chat",  # 替换为你想测试的模型
    messages=[{"role": "user", "content": "介绍一下你自己"}]
)
print(response.choices[0].message.content)

总结

这两件事放在一起看,其实指向的是同一个问题:AI 工具的可信度和可用性,正在变成比模型能力更现实的选型因素。

Hermes Agent 的事提醒开发者:Star 数不等于可信度,引用开源项目时最好自己追一下来源和 commit 历史。Claude KYC 的事则让国内开发者意识到,单点依赖一个境外平台的风险正在具体化——API 优先、多模型备份,变得比以前更有必要。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐