查看原文
其他

关于《生成式人工智能服务管理办法(征求意见稿)》的五点完善建议

北大法宝 2023-12-24
⊙ 本文长约3180字,阅读需时2分钟

本文来源:
网络法学术研究组

北大法宝法律法规库



4月10日,国家互联网信息办公室公布了。作为全球首部针对生成式人工智能的立法草案,征求意见稿积极回应了新型风险挑战,全面规范了生成式人工智能的研发、利用,以确保生成式人工智能产业健康有序发展。征求意见稿的及时出台,彰显出中国以人为本、安全发展并重的治理理念,体现出网信部门对内容安全治理与责任分配的高度关注。在当前各类生成式人工智能服务广受关注、千帆竞发之际,其必将发挥凝聚共识和规范指引的重要作用。

作为科技产业、社会经济发展的一项变革性技术与关键性力量,人工智能未来将深刻影响各国经济、科技和军事等综合实力对比,甚至重塑世界竞争格局。目前全球人工智能发展呈现中美两国引领、主要国家激烈竞逐的总体格局。4月21日习近平总书记在二十届中央全面深化改革委员会第一次会议指出,要强化企业科技创新主体地位,从制度建设着眼一体推进科技创新、产业创新。

在此背景下,中国政法大学数据法治研究院教授张凌寒、对外经贸大学法学院副教授许可、中国社科院大学法学院副教授刘晓春、中国人民公安大学法学院教授苏宇、北京大学法学院助理教授彭錞、中国信通院政策与经济研究所高级工程师程莹、北京航空航天大学法学院副教授赵精武本着系统性协同性立法、提高规范落地性可操作性、促进产业健康发展的主旨展开研讨,提出以下五点建议:


01



体例结构

优化结构突出重点,科学设置章节安排

共21条,涉及研发、提供服务、生成内容安全、用户管理、监督检查与法律责任等多个调整对象与监管环节,内容复杂,规范主体多样。为实现立法宗旨,指导多个主体更好履行义务,宜做出分章拆分,优化条文结构。建议根据条文内容划分为“总则、一般规定、信息内容服务、监督检查与法律责任”四章,贴合立法逻辑,结构清晰,保障生成式人工智能基本规范体系的形成。


02



规制范围

明确“提供者”范围,调整“内容生产者责任”为“生成内容应当符合”

原文

修改建议

第五条 利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。

第五条 任何组织和个人利用生成式人工智能产品向公众提供聊天和文本、图像、声音生成等服务,包括通过提供可编程接口等方式支持公众自行生成文本、图像、声音等,属于生成式人工智能服务提供者(以下称“提供者”),生成内容应当符合。

生成内容涉及个人信息的,应当承担个人信息处理者的法定责任,履行个人信息保护义务。

修改理由

1. 将“包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等”修改为“支持公众自行生成文本、图像、声音等”,与本管理办法第2条“面向中华人民共和国境内公众提供服务”的表述保持一致,进一步明晰规制范围。

2. 为全面覆盖信息内容安全要求,将“承担内容生产者责任”改为“生成内容应当符合”,更全面地覆盖相关信息内容监管要求。


03



训练数据

明确“数据来源合法性”含义,将规制对象由“训练数据”调整为“数据处理行为”

原文

修改建议

第七条 提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。

用于生成式人工智能产品的预训练、优化训练数据,应满足以下要求:

(一)符合等法律法规的要求;

(二)不含有侵犯知识产权的内容;

(三)数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形;

(四)能够保证数据的真实性、准确性、客观性、多样性;

(五)国家网信部门关于生成式人工智能服务的其他监管要求。

第七条 研发生成式人工智能产品,应当确保预训练数据、优化训练数据等训练数据来源合法,不得窃取或者以其他非法方式获取数据。

训练数据处理行为应当符合以下要求:

(一) 符合《中华人民共和国网络安全法》等法律法规的要求;

(二) 不侵犯他人知识产权;

(三) 涉及个人信息处理活动的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形;

(四) 采取必要措施,保证用于生成输出结果的训练数据的真实性、准确性、客观性、多样性;

(五) 国家网信部门关于生成式人工智能服务的其他监管要求。

修改理由

1. 将规制对象由“训练数据”调整为“数据处理行为”,义务和责任直接指向生成式人工智能的研发行为。

2. 增加“不得窃取或以其他非法方式获取数据”的表述,明确数据来源合法性的含义,与上位法《数据安全法》第32条的表述保持一致。

3. 增加“采取必要措施,保证用于生成输出结果的训练数据的真实性、准确性、客观性、多样性”,明确监管目标同时使得监管有的放矢。


04



整改措施

指引企业积极探索技术整改方案,增加“技术参数调整”等其他可行措施

原文

修改建议

第十五条 对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。

第十五条 对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练、技术参数调整等方式防止再次生成。

修改理由

结合产业实践和技术实际运行情况,增加“技术参数调整等”措施,指引企业积极寻求多套解决方案,更为及时有效防范违法有害信息生成。


05



执法手段

与现有制度衔接,精准设定备案评估范围并整合相关条款

原文

修改建议

第十七条 提供者应当根据国家网信部门和有关主管部门的要求,提供可以影响用户信任、选择的必要信息,包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等。

删除第六条

第十七条  网信部门和有关主管部门依据职责对生成式人工智能服务开展监督检查。提供者应当依法予以配合,并提供必要的技术、数据等支持和协助。

具有舆论属性或者社会动员能力的生成式人工智能服务提供者,应当按照履行安全评估和备案管理相关手续。

修改理由

1. 坚持依法行政原则,强调“依据职责”获取相关技术信息,明确监管部门获取必要信息的合法性基础。

2. 精准划定需要开展备案和安全评估的服务范围。依据《和中的日常监测、评估、备案制度,建议明确范围为“具有舆论属性或社会动员能力的提供者,加强与现有制度的衔接协调,为日后规范完善和落地实施预留空间。


-END-

编辑排版丨金梦洋

审核人员丨张文硕

本文声明丨本文章仅为交流之目的,不代表北大法宝的法律意见或对相关法规/案件/事件等的解读。 

▼ 往期精彩回顾 北大法宝怎么“让法律更智能”?
法宝重磅 | ChatGPT来了,法宝人工智能研究院告诉你真相ChatGPT等生成式AI监管规定来了,数据来源需合法!
北大法宝宣布联合百度文心一言 打造法律人工智能新生态
OpenAI独家回应|ChatGPT为何不向所有中国用户开放注册?
ChatGPT的创新与挑战什么都懂的ChatGPT如何看待爱情?ChatGPT来袭,法律人真的要失业了吗?
专访ChatGPT:2023涉外律师高度关注的十个问题,我给出了高质量回答
高绍林:ChatGPT法律智能化应用及其规制
会议综述丨“ChatGPT对法律人工智能研发和立法的影响”研讨会成功举行

点击下方公众号名片

获取更多信息

继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存