引言

随着人工智能技术的快速发展,深度学习框架的安全性问题日益凸显。NVIDIA Megatron-LM作为业界领先的大规模语言模型训练框架,其安全漏洞不仅影响单个企业,更可能波及整个AI生态系统。本文将深入分析Megatron-LM v0.12.1版本中修复的双重注入漏洞,揭示AI基础设施安全的薄弱环节。

ComfyUI遭攻击

大规模AI基础设施遭遇定向攻击

网络安全研究机构XLab近日发现针对ComfyUI框架的活跃攻击活动。ComfyUI是当前广泛用于部署大型AI图像生成模型的开源框架。攻击者通过该框架漏洞植入名为Pickai的C++后门程序,已导致全球近700台服务器失陷。中国国家网络安全通报中心于2025年5月27日发布高风险预警,敦促相关单位立即采取防御措施。

XLab在技术分析报告中指出:"随着各行业私有化部署AI模型的快速兴起,ComfyUI...不可避免地成为网络攻击的首要目标。"

Pickai后门分析

后门程序技术特征分析

Pickai(名称源自"扒手"的谐音)是一款轻量级但功能强大的Linux后门,具有远程命令执行和反向Shell访问能力,其显著特征包括:

  • 主机端隐匿技术:采用反调试手段、进程名称欺骗和强健的持久化机制
  • 网络弹性设计:通过硬编码域名实现多层命令控制(C2)故障转移

XLab通过逆向工程发现,该恶意软件使用的h67t48ehfth8e[.]com域名尚未注册。研究人员随即注册该域名并捕获到至少695台受感染服务器的遥测数据,主要分布在德国、美国和中国境内。

"攻击者迅速做出反应,更新Pickai使用有效期长达5年的新域名historyandresearch[.]com,表明其对抗清除行动的坚决态度。"

供应链攻击风险加剧

更令人担忧的是,Pickai样本被发现托管在商业AI平台Rubick.ai的官方网站上。该平台为包括亚马逊、Myntra、The Luxury Closet和Hudson Bay在内的200多个知名品牌提供电商运营支持。这一发现引发严重的下游恶意软件传播担忧,使此次事件升级为供应链攻击。尽管XLab已于5月3日通知Rubick.ai,但截至发稿该平台尚未作出公开回应。

技术细节深度剖析

XLab对Pickai的技术分析显示: 加密字符串存储在.rodata段,使用0xAF进行异或加密。研究人员开发了定制化的IDAPython脚本进行静态分析,成功提取出关键配置信息:

  • 命令控制服务器地址
  • 进程欺骗选项
  • 持久化服务名称

Pickai通过多路径复制实现持久化,并伪装成合法Linux系统服务:

文件路径 服务名称
/usr/bin/auditlogd auditlogd
/sbin/dmesglog dmesglog
/var/run/healthmon healthmon

对于非root用户,则通过用户空间的systemd实现持久化,使用nano、vim和ssh.config等常见名称规避检测。"Pickai在每个文件末尾附加随机数据,明显旨在规避基于哈希值的检测。"

通信协议与活动追踪

Pickai采用简单的1024字节填充数据包协议,使用LISTEN|、UPDATE|和STATUS|等关键词。该恶意软件每两分钟与C2服务器通信获取指令,并每12小时轮换一次C2服务器优先级列表。

XLab成功捕获到实时命令活动:"我们在XLab命令追踪系统中实现了Pickai的协议,6月6日仅观察到两条指令,均触发了反向Shell连接。"

清除难度极高

Pickai采用多实例、多路径持久化策略,使得清除工作异常困难。XLab警告称:"Pickai的冗余持久化机制使其具备顽固木马特性——任何残留副本都可能导致完全复活。"

漏洞详解

1. 攻击向量分析

该漏洞允许攻击者通过精心构造的输入数据,在模型训练过程中注入恶意代码。双重注入机制使得攻击更加隐蔽,传统的安全扫描工具难以检测。第一层注入用于绕过输入验证,第二层注入则在模型推理阶段执行,实现远程代码执行。

2. 影响范围评估

v0.12.1之前的所有版本均受影响,包括在生产环境中广泛部署的v0.10.x和v0.11.x系列。受影响的不仅是直接使用Megatron-LM的企业,还包括基于该框架开发的下游应用和服务。

安全防护指南

紧急响应措施

  • 立即升级到v0.12.1或更高版本
  • 对现有训练数据进行安全审计
  • 启用输入数据验证和沙箱隔离
  • 监控异常模型行为和资源占用

长期安全策略

  • 建立AI模型供应链安全管理体系
  • 实施持续安全测试和代码审查
  • 部署运行时保护和入侵检测系统
  • 制定应急响应预案和数据恢复计划

AI供应链安全

此次漏洞暴露了AI供应链安全的系统性风险。从训练数据、框架依赖、模型部署到推理服务,每个环节都可能成为攻击入口。企业需要建立端到端的安全治理框架,确保AI系统的可信性。

总结与展望

NVIDIA的快速响应展现了负责任的安全态度,但AI安全防护之路任重道远。随着模型规模和复杂度的增加,传统安全方法面临新挑战。未来需要从架构设计、开发流程、运维监控等多个维度构建AI安全防御体系,在推动技术创新的同时筑牢安全底线。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐