背景

观点内容摘取自《第四届数字信任大会暨ISACA中国2025年度大会》嘉宾的演讲与分享,内容代表了演讲嘉宾的经验分享/意见观点。 

详细版本PPT更新在ISACA中国区官网。

🚀 第一部分:警钟长鸣 - 大语言模型10大风险 (OWASP TOP 10 2025)

随着大语言模型(LLM)的广泛应用,安全漏洞也呈现出新的形态。OWASP Top 10 for LLM Applications 2025 列出了当前LLM应用面临的十大主要风险

风险编号 名称 简要说明
LLM01 提示注入 (Prompt Injection)

用户构造特殊提示词,操控模型行为 2。

LLM02 敏感信息泄露

通过模型输出暴露敏感数据、专有算法或机密细节 3。

LLM03 供应链问题

供应链漏洞可能导致输出偏差、安全漏洞或系统故障 4。

LLM04/05 数据和模型投毒 / 不当的输出处理

恶意修改训练样本操控模型输出,或模型输出未经校验直接执行/发布 5。

LLM06 过度代理 (Excessive Agency)

模型在产生意外或被操纵的输出时执行有害操作 6。

LLM07 系统提示泄露

用于引导模型行为的指令可能包含未打算被发现的敏感信息 7。

LLM08 向量和嵌入的弱点

生成、存储或检索向量和嵌入的方式中的弱点可能被利用 8。

LLM09 误导信息

模型生成看似可信的虚假或误导性信息 9。

LLM10 无限制消耗

扰乱服务、耗尽目标的财务资源,甚至通过克隆模型行为窃取知识产权 10。

第二部分:AI治理基石 - 国际标准框架

为应对上述风险,国际标准化组织(ISO/IEC)发布了一系列AI治理标准。

1. ISO/IEC 23894:人工智能-风险管理指南

该标准指导AI风险管理过程应贯穿AI系统的整个生命周期,确保系统的安全、可靠和合规运行 。

2. ISO/IEC 42001:2023:人工智能管理体系 (AIMS)

ISO/IEC 42001是首个国际上针对人工智能管理体系(AIMS)的标准,旨在帮助组织以负责任的方式开发、提供或使用AI系统 。


第三部分:法律合规前沿 - 欧盟《AI法案》(AI Act)

法律合规是AI治理的强制性要求。欧盟《人工智能法案》(AI Act)是世界上第一部基线且具有法律约束力的人工智能产品安全立法,已于2024年8月2日正式生效 。


    第四部分:AIMS实施关键步骤与核心要素

    组织在建立ISO/IEC 42001管理体系时,有几个关键步骤必须明确:

    1. 角色定位 

    2. 制定AI方针 

    最高管理者应制定AI管理方针,它需要结合组织的角色,明确以下要素 33:

    • 目标和原则: 明确AI管理的目标、效果和遵循的道德法律标准。

    • 数据管理: 确保AI系统使用的数据准确、完整、安全和合法。

    • 系统设计: 确保AI系统设计合理、可靠、安全和可维护。

    • 透明性和可解释性: 建立机制让人工智能系统的决策过程和结果可透明、可解释。

    • 道德和法律合规: 开展伦理风险评估、制定应急预案、遵守隐私保护等措施。

    3. AI风险评估与处置 

    风险管理是AIMS的核心。组织需要建立**人工智能风险评估(AI Risk Assessment)人工智能系统影响评估(AIIA)**过程 。

      Logo

      有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

      更多推荐