《生成式人工智能服务管理暂行办法》解读
发布时间:2023-07-24

本文内容由z6com·尊龙凯时新动力数字金融研究院提供

作者:杨垚立

AIGC的发展,,,一方面因其强大的知识和内容生成能力,,,,让行业看到其广泛的应用场景。。另一方面,,也由于AIGC存在不透明、、、、不可解释性,,,使得其在知识产权、、、安全、、、、伦理和环境四个方面的面临巨大挑战。。。。

为规范我国AIGC发展,,,保障合规,,,,合法,,,合情,,,,合理、、安全,,,由互联网信息办公室牵头,,,经发改委、、、教育部、、、、科技部、、工信部、、、公安部、、、、广电总局同意发布《生成式人工智能服务管理暂行办法》(以下称“办法”)。。相较于之前的征求意见稿,,,办法仍保持发展与安全并重、、包容审慎和分类分级监管的基本态度,,在具体表述上有所变化,,,,在可操作性上也更加清楚

1.明确我国对AIGC的态度

首先该办法明确管理范围为向国内提供服务,,,,在国内进行技术研发向境外提供服务的不在本办法管理范围内。。。

该办法阐明我国对AIGC的态度为积极支持、、引导AIGC发展,,,并使得AIGC可以发挥更大的社会和商业价值。。。。强化国家对生成式人工技术层面的鼓励,,,,明确服务层面的“包容审慎”。。但相较于征求意见稿中较为笼统的表述为支持自主创新、、鼓励安全可信,,,,在办法中则明确对服务的态度为“包容审慎”,,在算法、、、框架、、芯片、、配套软件平台等基础技术方面则为鼓励,,,并且提出“推动基础设施和公共训练资源平台建设”。。。。

2.在道德伦理层面提出要求

该办法要求AIGC服务及生成内容“符合社会主义的价值观”、、防止出现民族、、、、信仰等歧视、、、尊重商业道德、、、尊重他人合法权益、、、“防止生成虚假信息”等。。。。

同时,,,,在保障内容真实准确的方面的可行性有明显提升。。。征求意见稿中要求“生成的内容应当真实准确,,采取措施防止生成虚假信息”可操作性难度大,,,与生成式人工智能不可控的特征相冲突,,,办法中改为提升透明度,,,提高准确性、、可靠性,,,可行性明显提升。。。

3.明确服务提供者为最主要责任人

确认AIGC服务提供者为最主要的责任人,,也就是说即使服务提供者是内容的“搬运工”也要承担主要责任。。管理办法将“提供者”定义为“利用生成式人工智能技术提供生成式人工智能服务(包括通过提供可编程接口等方式提供生成式人工智能服务)的组织、、个人”。。提供者需承担责任包括:

● 个人信息保护

● 训练数据来源的合法性

● 制定标注规则、、、培训标注人员、、、、保障标注正确性

● AIGC服务具有防沉迷能力

● 生成内容不包含歧视性

● 对不合规内容及时进行修正

● 保障用户正常使用,,,,同时需提供指引防止用户不当使用

● 生成内容按照《互联网信息服务深度合成管理规定》进行标识

● 提供可以影响用户信任和选择的必要信息

相较于征求意稿,,,,正式版中删除要求用户提供真实身份信息的表述。。。。相当于对生成式人工智能服务不再要求实名制。。。。同时正式稿中还放了松算法备案和安全评估要求,,按征求意见稿中表述“利用生成式人工智能产品向公众提供服务前”均需进行评估和按要求备案,,,办法中放松为“具有舆论属性或者社会动员能力的生成式人工智能服务”需进行安全评估和算法备案。。这两处表述的放松更表现了国家对AIGC发展“包容审慎”的态度。。

4.监管责任更加明确

办法中对监督检查和法律责任的主体定义为“网信、、、、发展改革、、、、教育、、、科技、、、、工业和信息化、、、公安、、、、广播电视、、新闻出版等部门,,,依据各自职责依法加强对生成式人工智能服务的管理。。。。”较征求意见稿中以网信责任为主的表述更加具体。。。。

同时,,,,增加对于国家监督检查人员的要求。。。“参与生成式人工智能服务安全评估和监督检查的相关机构和人员对在履行职责中知悉的国家秘密、、商业秘密、、个人隐私和个人信息应当依法予以保密,,,不得泄露或者非法向他人提供”,,,,更符合生成式人工智能的技术和行业特征。。。。

站点地图