数月以来,以大语言模型ChatGPT为代表的生成式人工智能在全球掀起阵阵狂潮,带来惊奇、欢呼、担忧、恐惧的多重反应。人工智能一日千里的更新迭代,自然引发了监管呼声。日前,国办发布“国务院2023年度立法工作计划”,其中预备提请人大常委会审议的“人工智能法草案”,就此引发公众瞩目。
2023年3月,以马斯克为首的企业界人士联署公开信,呼吁立即暂停AI大模型研究至少六个月;在美国国会听证会上,OpenAI公司CEO奥特曼也表达了“主动求监管”的态度。国家网信办2023年4月11日发布《生成式人工智能服务管理办法(征求意见稿),目前向社会征求意见的工作已结束,也可视为中国立法监管人工智能的初步尝试,属政府立法。
国务院立法工作,大致分为两类,一类是国务院起草法律草案提请全国人大常委会审议,一类是国务院直接制定颁布行政法规。前者从程序上看是人大立法,后者是政府立法。
综观全球各地对人工智能的监管设想,一种迫在眉睫的紧迫感贯穿始终。从科技商业界到文化界,从社会大众到政府机构,各界人士都展现了“人类监管进程,定要赶上人工智能发展速度”的态度,马斯克等人在公开信中的那句“唯有我们有信心让强人工智能系统产生积极效应同时风险可控的时候,我们才应该研发它们”,正是这种紧迫感的集中写照。
紧迫感源于前瞻与预见。全球各界对人工智能发出的警报可分为两大类,形而下的与形而上的。从形而上来讲,“未来99%的人都会失业”“人工智能足够强大后会控制人类”,这些准科幻式或是未来学式的狂想虽然吸引了足够多的关注度,但缺少足够的证明,部分设想也显得天马行空。指望立法监管一下子迈出那么大的步伐,在实践中也缺乏可行性。
从形而下来讲,数据隐私、知识产权、诈骗犯罪等问题,则是公众的普遍隐忧,这些问题在移动互联网时代甚至移动通讯时代就已经非常严重,强人工智能无疑会给违法犯罪插上新的翅膀,加大应对难度,容易引发种种法律问题甚至是伦理争议。如果说形而上的恐惧还只是恐惧的话,那么这形而下的担忧则已经是实际发生过的事实“未来已来”。
日前包头警方发布了一起利用人工智能实施电信诈骗的典型案例,骗子以智能AI换脸和拟声技术,完美地假装好友实施了诈骗;而利用“AI换脸”经营牟利甚至是用于淫秽色情产业的案件也已经屡屡出现。可见,不法之徒已经走在了立法监管的前面。
因此,为人工智能立法应特别注重前瞻性,思考强人工智能可能带来的种种问题,保护公众的人格隐私权、财产权、知识产权;同时立法还应突出针对性:技术本身是中性的,立法是为了更好的监管,监管则是为了更好发展人工智能产业,让他们为人类造福而不是酿祸。
新的立法还应考虑对症下药,参考世界各国与国际组织已经出台的监管尝试,可择善而从,但不盲从,针对性地解决种种已经出现的问题,既要避免误伤善类,也要防止网漏吞舟。
以“AI换脸”为例,“平台强制标注”的技术补丁就是一个值得借鉴的建议;就知识产权问题,欧盟《人工智能法》的协议要求ChatGPT披露其用于开发的受版权保护的材料,美国版权局宣布“纯AI生成内容不受版权保护”,这都是很具针对性的立法实践;而在“AI诈骗犯罪”已出现之际,如何像打击电信诈骗一样打击黑科技骗子,也是立法监管的重头戏。
诚如有识之士所言,人类无法承担无法监管强人工智能的风险。面对种种风险与挑战,监管工作无疑要在“预先防范”与“精准施策”上下功夫。托马斯卡莱尔曾在近二百年前的《时代征兆》一文里感慨蒸蒸日上的机械时代,“如今,不仅外在的、物质的层面受机械控制,内在的、精神的层面也未能幸免。没有什么事情还能顺其自然,也没有什么事情还能用古老的自然方法完成。”展望未来,将这段话里的“机械”换成“人工智能”也足以让我们戒慎恐惧。人工智能值得更具前瞻性与针对性的立法监管,导之向善而非任其作恶。
王兢