一 大模型上线登记产生的制度背景

大模型上线登记是基于《生成式人工智能服务管理暂行办法》的具体落实。

在较长一段时间内,互联网治理的核心对象是“信息服务提供者”。监管逻辑基于一个前提:信息由人生产,平台或算法负责分发和排序。

而生成式人工智能的出现,改变了这一前提。模型不再只是辅助工具,而是可以直接生成文本、观点、解释和判断,其输出结果本身就构成信息内容,并可能被用户直接采信和传播。

在政策层面,这意味着信息生产主体发生了结构性变化。如果缺乏准入审查和运行约束,模型一旦上线,就可能在短时间内放大内容风险、舆论风险和社会影响风险。

正是在这一现实背景下,监管重点从“算法是否合规”进一步前移到“模型是否具备安全上线运行的条件”,大模型上线登记由此成为一项制度性安排。

二 大模型上线登记在政策体系中的制度定位

从整体监管框架来看,大模型上线登记并不是孤立存在的制度,而是处于互联网算法治理体系中的关键环节。

如果从政策逻辑进行分层,可以将相关监管机制理解为三个阶段:

第一阶段,是技术属性与算法类型的确认。

这一阶段主要解决“是否属于受监管算法”“是否涉及深度合成”等基础判断,侧重技术属性识别。

第二阶段,是模型上线前的综合安全评估。

这一阶段即为大模型上线登记,其核心问题是:模型在真实社会环境中运行,是否具备基本的安全性、可控性和责任承载能力。

第三阶段,是模型上线后的持续监管与执法。

包括日常监测、投诉举报处理、风险处置、责任追究等,重点转向运营主体的持续履责能力。

由此可以看出,大模型上线登记承担的是“准入闸口”的角色,是模型从技术形态走向社会运行之前的关键制度节点。

三 政策视角下的适用对象范围

在政策实践中,是否需要进行大模型上线登记,并不以模型规模大小、参数数量或是否通用作为核心判断标准,而是更关注模型的实际社会属性。

政策重点关注以下几个方面:

* 是否对不特定用户提供服务

* 是否具备信息生成能力,如文本生成、问答、内容创作等

* 生成结果是否可能被用户直接使用、传播或作为参考依据

* 模型输出是否可能对公众认知、社会讨论或舆论环境产生影响

只要模型同时具备“生成能力”和“公众可访问性”,即进入政策关注范围。

这一判断逻辑体现出监管从“技术形态导向”向“使用场景导向”的明显转变。

四 上线登记重点审查的政策核心内容

从政策文件与实践逻辑综合来看,大模型上线登记并不是对单一技术指标的检查,而是围绕整体治理能力展开的系统性评估。

第一 模型功能与能力边界的清晰程度

政策高度关注模型是否被清楚界定其功能定位和使用边界。

* 是否准确描述模型能力

* 是否存在夸大或弱化真实能力的情况

* 是否对潜在高风险使用场景设置明确限制

在政策逻辑中,能力边界不清晰,往往意味着责任边界不清晰,而责任不清是监管最为警惕的状态之一。

第二 内容安全与风险防控体系的完整性

政策关注的并非是否“宣称重视安全”,而是是否建立了真实可运行的风险防控体系,包括:

* 内容风险的识别机制

* 针对不同风险类型的分级处置规则

* 人工审核和应急干预能力

监管并不要求模型完全不产生风险,但要求风险在出现时能够被识别、被控制、被处置,而不是失控扩散。

第三 数据合规与模型治理的制度逻辑

在政策视角下,数据问题不仅是技术问题,更是合规和治理问题。

* 政策重点关注训练数据来源是否合法

* 是否存在来源不明、授权不清的情形

* 是否建立数据管理、更新和清理机制

同时,也关注模型是否具备持续治理逻辑,而非一次性构建后放任运行。

第四 上线运行后的责任与处置机制

政策审查并不止步于“上线前”,而是延伸到“上线后谁来负责”。

* 是否明确责任主体

* 是否建立问题发现、处置和复盘流程

* 是否具备日志记录和溯源能力

在监管逻辑中,模型一旦进入社会运行,就必须有明确的责任承载结构,否则风险一旦出现,将难以及时有效应对。

五 政策角度下对“是否允许上线”的判断逻辑

需要明确的是,政策并未要求模型达到“零风险”状态。

监管真正关注的,是风险是否处于可控、可治理的范围内。

从政策实践看,通常重点考察以下要素:

* 风险类型是否已被识别

* 风险处置路径是否清晰

* 责任主体是否明确

* 运行过程是否可追溯、可核查

政策判断的不是模型“会不会出问题”,而是“出问题时是否具备托底能力”。

以上内容属于个人经验总结,一切信息以主管部门及其相关法律法规为准。

以下附《生成式人工智能服务管理暂行办法》的部份内容:

生成式人工智能服务管理暂行办法

第一章 总 则

第一条 为了促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益,根据《中华人民共和国网络安全法》、《中华人民共和国数据安全法》、《中华人民共和国个人信息保护法》、《中华人民共和国科学技术进步法》等法律、行政法规,制定本办法。

第二条 利用生成式人工智能技术向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的服务(以下称生成式人工智能服务),适用本办法。

国家对利用生成式人工智能服务从事新闻出版、影视制作、文艺创作等活动另有规定的,从其规定。

行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等研发、应用生成式人工智能技术,未向境内公众提供生成式人工智能服务的,不适用本办法的规定。

第三条 国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。

第四条 提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德,遵守以下规定:

(一)坚持社会主义核心价值观,不得生成煽动颠覆国家政权、推翻社会主义制度,危害国家安全和利益、损害国家形象,煽动分裂国家、破坏国家统一和社会稳定,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情,以及虚假有害信息等法律、行政法规禁止的内容;

(二)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视;

(三)尊重知识产权、商业道德,保守商业秘密,不得利用算法、数据、平台等优势,实施垄断和不正当竞争行为;

(四)尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益;

(五)基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。

第二章 技术发展与治理

第五条 鼓励生成式人工智能技术在各行业、各领域的创新应用,生成积极健康、向上向善的优质内容,探索优化应用场景,构建应用生态体系。

支持行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等在生成式人工智能技术创新、数据资源建设、转化应用、风险防范等方面开展协作。

第六条 鼓励生成式人工智能算法、框架、芯片及配套软件平台等基础技术的自主创新,平等互利开展国际交流与合作,参与生成式人工智能相关国际规则制定。

推动生成式人工智能基础设施和公共训练数据资源平台建设。促进算力资源协同共享,提升算力资源利用效能。推动公共数据分类分级有序开放,扩展高质量的公共训练数据资源。鼓励采用安全可信的芯片、软件、工具、算力和数据资源。

第七条 生成式人工智能服务提供者(以下称提供者)应当依法开展预训练、优化训练等训练数据处理活动,遵守以下规定:

(一)使用具有合法来源的数据和基础模型;

(二)涉及知识产权的,不得侵害他人依法享有的知识产权;

(三)涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形;

(四)采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性;

(五)《中华人民共和国网络安全法》、《中华人民共和国数据安全法》、《中华人民共和国个人信息保护法》等法律、行政法规的其他有关规定和有关主管部门的相关监管要求。

第八条 在生成式人工智能技术研发过程中进行数据标注的,提供者应当制定符合本办法要求的清晰、具体、可操作的标注规则;开展数据标注质量评估,抽样核验标注内容的准确性;对标注人员进行必要培训,提升尊法守法意识,监督指导标注人员规范开展标注工作。

第三章 服务规范

第九条 提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务。

提供者应当与注册其服务的生成式人工智能服务使用者(以下称使用者)签订服务协议,明确双方权利义务。

第十条 提供者应当明确并公开其服务的适用人群、场合、用途,指导使用者科学理性认识和依法使用生成式人工智能技术,采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务。

第十一条 提供者对使用者的输入信息和使用记录应当依法履行保护义务,不得收集非必要个人信息,不得非法留存能够识别使用者身份的输入信息和使用记录,不得非法向他人提供使用者的输入信息和使用记录。

提供者应当依法及时受理和处理个人关于查阅、复制、更正、补充、删除其个人信息等的请求。

第十二条 提供者应当按照《互联网信息服务深度合成管理规定》对图片、视频等生成内容进行标识。

第十三条 提供者应当在其服务过程中,提供安全、稳定、持续的服务,保障用户正常使用。

第十四条 提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。

提供者发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。

第十五条 提供者应当建立健全投诉、举报机制,设置便捷的投诉、举报入口,公布处理流程和反馈时限,及时受理、处理公众投诉举报并反馈处理结果。

第四章 监督检查和法律责任

第十六条 网信、发展改革、教育、科技、工业和信息化、公安、广播电视、新闻出版等部门,依据各自职责依法加强对生成式人工智能服务的管理。

国家有关主管部门针对生成式人工智能技术特点及其在有关行业和领域的服务应用,完善与创新发展相适应的科学监管方式,制定相应的分类分级监管规则或者指引。

第十七条 提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。

第十八条 使用者发现生成式人工智能服务不符合法律、行政法规和本办法规定的,有权向有关主管部门投诉、举报。

第十九条 有关主管部门依据职责对生成式人工智能服务开展监督检查,提供者应当依法予以配合,按要求对训练数据来源、规模、类型、标注规则、算法机制机理等予以说明,并提供必要的技术、数据等支持和协助。

参与生成式人工智能服务安全评估和监督检查的相关机构和人员对在履行职责中知悉的国家秘密、商业秘密、个人隐私和个人信息应当依法予以保密,不得泄露或者非法向他人提供。

第二十条 对来源于中华人民共和国境外向境内提供生成式人工智能服务不符合法律、行政法规和本办法规定的,国家网信部门应当通知有关机构采取技术措施和其他必要措施予以处置。

第二十一条 提供者违反本办法规定的,由有关主管部门依照《中华人民共和国网络安全法》、《中华人民共和国数据安全法》、《中华人民共和国个人信息保护法》、《中华人民共和国科学技术进步法》等法律、行政法规的规定予以处罚;法律、行政法规没有规定的,由有关主管部门依据职责予以警告、通报批评,责令限期改正;拒不改正或者情节严重的,责令暂停提供相关服务。

构成违反治安管理行为的,依法给予治安管理处罚;构成犯罪的,依法追究刑事责任。

第五章 附 则

第二十二条 本办法下列用语的含义是:

(一)生成式人工智能技术,是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。

(二)生成式人工智能服务提供者,是指利用生成式人工智能技术提供生成式人工智能服务(包括通过提供可编程接口等方式提供生成式人工智能服务)的组织、个人。

(三)生成式人工智能服务使用者,是指使用生成式人工智能服务生成内容的组织、个人。

第二十三条 法律、行政法规规定提供生成式人工智能服务应当取得相关行政许可的,提供者应当依法取得许可。

外商投资生成式人工智能服务,应当符合外商投资相关法律、行政法规的规定。

第二十四条 本办法自2023年8月15日起施行。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐