征求意见93天后,全球第一部AIGC(AI生成内容)管理办法出台了。
7月13日,网信办等七部门正式发布了《生成式人工智能服务管理暂行办法》(下文简称“《办法》”),该办法自2023年8月15日起施行。
中国互联网协会研究中心副主任、北京师范大学法学院博士生导师吴沈括在接受新京报贝壳财经记者采访时表示,相比较于征求意见稿阶段,《办法》在发布主体、文件名称、内容宽度上有很大的变化,本身也反映了我们国家在治理决策层面对AGC治理的思路的进一步深化和延伸,“它作为全球第一部AIGC法,反映的是中国在数字治理和人工智能治理层面新的思路,强调的是一种生态式的治理方案。”
国家网信办有关负责人表示,《办法》提出国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。
鼓励生成式人工智能技术发展 鼓励算法芯片等基础技术自主创新
“我认为《办法》是积极的,总体来讲是鼓励深层次人工智能发展,鼓励我们自己发展芯片,同时里面也有对尊重知识产权、个人信息包含等的相关要求。”谈到对此次出台《办法》的感受,网络安全研究专家、北京汉华飞天信安科技有限公司总经理彭根告诉新京报贝壳财经记者。
贝壳财经记者注意到,在《办法》第二章技术发展与治理中,“鼓励”一词高频出现。
如第五条提到“鼓励生成式人工智能技术在各行业、各领域的创新应用,生成积极健康、向上向善的优质内容,探索优化应用场景,构建应用生态体系。”第六条提到“鼓励生成式人工智能算法、框架、芯片及配套软件平台等基础技术的自主创新,平等互利开展国际交流与合作,参与生成式人工智能相关国际规则制定。”
对于《办法》的发布,北京理工大学法学院教授、外交部国际法咨询委员会委员洪延青在公众号《网安寻路人》中简评称,整个《办法》往促进生成式AI发展这个方向,靠了很大一步,“第二条强调了‘面向公众提供’服务,进一步明确了监管意图;第四条基本围绕着内容管理、歧视性待遇、商业和市场秩序保护、个人合法权益保护,以及生成内容的准确性和可靠性;第七条依旧强调了训练数据的重要性,这是生成式AI监管的重要切入点。”
在回答《办法》对促进生成式人工智能健康发展有哪些考虑这一问题时,国家网信办有关负责人提到,支持行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等在生成式人工智能技术创新、数据资源建设、转化应用、风险防范等方面开展协作。推动生成式人工智能基础设施和公共训练数据资源平台建设。促进算力资源协同共享,提升算力资源利用效能。推动公共数据分类分级有序开放,扩展高质量的公共训练数据资源。鼓励采用安全可信的芯片、软件、工具、算力和数据资源。
吴沈括表示,《办法》强化了对AIGC生态基础要素的支持,其中关于算力资源的共享、公共数据资源的开放共享等反映了对AIGC发展的重视。
对生成式人工智能服务实行包容审慎和分类分级监管
吴沈括对贝壳财经记者表示,在《办法》的文本设计当中,对于产业生态的培育和促进,对于各方主体合规治理的指引,以及对于安全底线的坚守是三个非常重要的制度基础和切入的重点,其中值得注意的地方是《办法》突出了关于AIGC的分类分级监管思路,以及后续细化监管规则的持续出台。
根据《办法》第十七条,提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。
洪延青表示,第十七条事实上提出了生成式AI的分类分级管理思路,对具有舆论属性和社会动员能力的生成式AI,沿用网信办过去的监管工具。
贝壳财经记者注意,到《办法》也提到了针对未成年人的服务规范,第十条规定,提供者应当明确并公开其服务的适用人群、场合、用途,指导使用者科学理性认识和依法使用生成式人工智能技术,采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务。
国家网信办有关负责人表示,《办法》在治理对象上,针对生成式人工智能服务。在监管方式上,提出对生成式人工智能服务实行包容审慎和分类分级监管,要求国家有关主管部门针对生成式人工智能技术特点及其在有关行业和领域的服务应用,完善与创新发展相适应的科学监管方式,制定相应的分类分级监管规则或者指引。此外,《办法》要求采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务。规定提供者应当按照《互联网信息服务深度合成管理规定》对图片、视频等生成内容进行标识。
“我最大的感受是《办法》进一步强调了深度合成管理规定的内容,要对图片和视频进行标注,让我们能够判断出到底图片视频是由AI生成的,还是人去录制和拍摄的,这是一个很关键的一个地方。”彭根对贝壳财经记者表示。
提供使用生成式人工智能服务应当坚持社会主义核心价值观
贝壳财经记者注意到,从4月11日《办法》征求意见稿出台,到本次《办法》正式发布,在对大模型的内容监管方面,均明确提供和使用生成式人工智能服务应当坚持社会主义核心价值观,不得生成煽动颠覆国家政权、民族歧视,暴力色情、虚假有害信息等法律和行政法规禁止的内容。
但另一方面,由于生成式AI底层算法的本质就是“猜出”最符合上文内容的“下文”,具备一定随机性,因此如何应对生成式AI难以避免出现的“幻觉”问题也成为了难题。
有大模型研发机构工作人员对贝壳财经记者表示,要解决生成内容的安全问题,就需要额外配备和训练AI人员人数相同的安全审核人员,“其实国内各个厂商都有生产大模型的技术,算力、硬件、软件都不是问题,唯独市场是否要放开,如何规避不安全的内容存在问题。目前来看解决办法之一是在提问层就做一次审核,不过这要付出额外的成本。”
对于难以避免的“幻觉”行为可能导致的内容风险,《办法》第十四条第二款规定,提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。
多位专家均向贝壳财经表达了同一观点,即AIGC内容风险也并非完全无法把控,因为大模型生成的内容的素材来源于其预训练数据,因此对这些数据进行把控,就能大概率降低生产内容的风险,“以符合社会主义价值观的内容训练出的大模型,其生成的内容也大概率会符合社会主义价值观。”
《办法》第七条或体现了这一观点,第七条规定,生成式人工智能服务提供者(以下称提供者)应当依法开展预训练、优化训练等训练数据处理活动,应使用具有合法来源的数据和基础模型,涉及知识产权的,不得侵害他人依法享有的知识产权等。
洪延青认为,《办法》第七条依旧强调了训练数据的重要性,这是生成式AI监管的重要切入点,但对训练数据的质量作出了尽职性的要求,而非结果式的要求。
国家计算机网络与信息安全管理中心高级工程师张震表示,生成式人工智能模型经过训练后,对一些概念具备了较为稳定的“认知”,围绕相关概念的生成内容往往表现出惊人的一致性。一旦模型在训练过程中引入偏见歧视等有害信息,在模型实际应用中很可能呈现放大化输出。三是生成式人工智能具备可引导性。生成式人工智能模型在原有的人工智能“预训练微调”范式上,增加了“对齐”的训练环节。
值得注意的是,《办法》除了对提供者提出义务外,对生成式人工智能的用户也提出了义务。
《办法》第九条第二款规定,提供者应当与注册其服务的生成式人工智能服务使用者(以下称使用者)签订服务协议,明确双方权利义务。而第十四条第二款则规定,提供者发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。
“《办法》在安全层面坚持了技术要素层面的安全、组织管理层面的安全以及数字内容层面的安全,结合了安全性设计、合法性设计和伦理性设计的综合治理思路。对于各方主体的合规义务、法律责任做出了明确的规定。同时,对包括用户数字素养在内的基础性生态要素也做出了专门的要求。从这个意义上来讲,目前的办法在制度的宽度、广度和深度上都有显著的延伸。”吴沈括对贝壳财经记者表示。
新京报贝壳财经记者 罗亦丹
编辑 宋钰婷
校对 陈荻雁