生成式人工智能服务管理办法征求意见,AI语言模型如何规制?

AI1年前 (2023)发布 aixure
29 0 0
导读:就在阿里巴巴宣布所有产品将接入AI大语言模型通义千问的同一天,4月11日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》(下称征求意见稿),并公开征求意见。 近期,互联网大厂相继推出AI语言模型,从百度的文心一言到阿里巴巴的…

就在阿里巴巴宣布所有产品将接入AI大语言模型“通义千问”的同一天,4月11日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》(下称“征求意见稿”),并公开征求意见。

近期,互联网大厂相继推出AI语言模型,从百度的文心一言到阿里巴巴的通义千问。而另一边,ChatGPT引发的个人和商业数据泄露,也引发争议。

以ChatGPT为代表的人工智能生成内容(AIGC)创新技术如何规制?征求意见稿对隐私、知识产权、肖像权、名誉权、训练数据、人工标注、标识、不公平竞争、防沉迷等提出了规范。

↑图据视觉中国

院士担心形成知识茧房?

办法:要进行安全评估和备案

此前,中国工程院院士、前北京邮电大学校长、网络空间安全专家方滨兴接受红星新闻采访时指出,要警惕的是,当大家习惯于ChatGPT,什么都问它,它什么都解答,就会形成知识茧房,甚至三观都会被左右。这对各国政府来说都是一个大问题。

征求意见稿规定,利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。

方滨兴4月11日接受红星新闻采访时表示,征求意见稿回应了公众的一些担忧,起到了全面规范的作用,规定得越详细,越好操作。

奇安信集团副总裁张卓接受红星新闻采访时认为,征求意见稿的发布,意味着国家对AIGC的监管治理已经提上日程。具体来看,首先,征求意见稿强调了安全评估和算法备案的前提性和必要性;其次,强调了服务提供者需确保数据安全和个人信息保护合规,尤其是隐私保护;最后,夯实了违规责任的处罚措施,包含追究刑事责任。

↑2023年3月24日,湖北宜昌,网民展示手机上有关百度“文心一言”的信息。图据视觉中国

防止歧视,防止生成虚假信息

防止损害肖像权、名誉权和个人隐私

征求意见稿提出了AIGC产品服务所需满足的五点基本要求,包括体现社会主义核心价值观,维护国家安全、经济秩序与社会秩序等;采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视;尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争;采取措施防止生成虚假信息;尊重他人合法利益,防止损害肖像权、名誉权和个人隐私。

此外,服务提供者不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。

ChatGPT的“信口胡诌”曾受到关注,这是现有模型固有的一个缺陷。

方滨兴表示,对于有害和虚假信息,现在都有相应的检测、判断技术,服务提供者应对模型生成的信息进行选择、过滤、矫正。他进一步指出,“采取措施”和措施不足是两个概念,“不是说过滤不了有害信息,互联网就不发展”,服务提供者应按法律法规要求采取措施。

从Deepfake技术2019年爆红以来,到去年起兴起的Stable Diffusion技术、MidJourney,换脸技术、图像生成技术就引发了对肖像权、名誉权的巨大争议。

由于ChatGPT会保留用户输入数据以进一步训练自身,其引发严重的隐私和数据安全担忧。日前,ChatGPT被曝数据泄漏,多名用户反馈,看到了其他用户与ChatGPT的对话记录以及姓名、邮箱、信用卡最后四位数字等。当地时间4月5日,OpenAI发布声明宣布了六方面整改措施,包括“保护儿童”“尊重隐私”等。

该技术的使用对商业机密也构成威胁。近日,三星被曝芯片机密代码遭ChatGPT泄露,引入不到20天就出3起事故。

当地时间3月31日,出于隐私等方面的考虑,意大利个人数据保护局宣布禁用ChatGPT,并要求OpenAI在20天内按要求提供整改措施。

↑文心一言 图据视觉中国

AIGC带来安全风险

专家:全球范围内新兴领域立法速度加快

目前,全球监管部门都在关注AIGC带来的安全风险。据《华尔街日报》报道,拜登政府已经开始研究是否需要对ChatGPT等人工智能工具实行检查,美国商务部就相关问责措施正式公开征求意见,包括新人工智能模型在发布前是否应经过认证程序。

“新兴领域立法速度加快,已经成为了世界各国的一个常态,欧盟和美国都在这一周内,提出了对生成式人工智能的治理。我国这次在短时间内提出了生成式人工智能的管理办法,并公开征求意见,在社会范围内集思广益。”4月11日,中国政法大学数据法治研究院教授张凌寒表示,公开征求意见,进一步彰显了加快推进人工智能等新兴领域立法步伐,体现新技术新应用发展到哪里,法治建设就要覆盖到哪里,在当前各类生成式人工智能服务广受关注、千帆竞发之际,将起到凝聚共识和规范指引作用。

我国对网络安全、数据安全等正逐渐形成完备的法律法规体系。2020年的《网络音视频信息服务管理规定》明确提出,对基于深度学习、虚拟现实等技术,具有媒体属性或社会动员能力的音视频信息服务展开安全评估,对非真实音视频信息进行标识。

我国2022年3月开始实施的《互联网信息服务算法推荐管理规定》,就把生成合成类算法作为五类算法推荐技术之一纳入监管。

继算法之后,深度合成技术迎来单独规范。国家网信办2022年1月对《互联网信息服务深度合成管理规定》征求意见,今年1月10日,该规定开始实施。

如今,在AIGC爆火之际,该领域也将迎来监管文件。

张凌寒此前撰文提出,我国应形成“算法治理深度合成治理人工智能治理”的迭代路径,为我国未来通用人工智能立法做准备。征求意见稿制度设计,一方面延续了《互联网信息服务深度合成管理规定》关于标识、评估、备案等既有制度安排,另一方面就训练数据、人工标注等提出了新的合规要求,相比于《互联网信息服务深度合成管理规定》,体现出监管逻辑更新和制度体系迭代的新趋势。

服务提供者承担内容生产者责任

用户不得恶意发帖跟帖

征求意见稿明确AIGC产品服务提供者承担生成内容“生产者”的责任,仅提供可编程接口等方式支持他人自行生成内容也不能免去此责任;涉及个人信息的,承担个人信息处理者的法定责任。

张凌寒表示,“内容生产者责任”体现了网信部门对内容安全责任分配的高度关注。此前张凌寒提出,生成式人工智能的技术产出链条上,技术开发者是关键,因而应在生成式人工智能的技术链上进行可行性的责任分配,包括对技术开发者提出更严格的要求,对部署者结合其应用场景设置义务,在用户层面进一步细化管理。

征求意见稿还规定,提供者应当指导用户理性、合法使用内容。征求意见稿更规定,提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评,实施不正当的商业营销等,应当暂停或者终止服务。

那么,新技术爆发之际,政府如何在管制与创新之间平衡?

“管制和创新,也即安全和发展,是网络立法的永恒命题。一定意义上,不发展就是最大的不安全。”

张凌寒表示,掌握人工智能治理的话语权、规则制定权,抢先形成新的国家竞争优势,已经成为世界不同法域的努力目标。我国在个人信息保护和数据立法领域与欧盟、美国并行,在算法治理和深度合成治理领域则成为了一定意义上的领跑者。以促进ChatGPT为代表的生成式人工智能健康发展为契机,积极构建人工智能治理制度,有助于形成我国真正的制度优势。

红星新闻记者 胡伊文 吴阳 北京报道

责编 官莉

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...