欧盟呼吁在未来的人工智能规范中适用“软法之治”
SamuelStolton
14个欧盟国家就有关未来人工智能规范的问题表明了立场,积极敦促欧盟委员会适用“软法”治理手段。
丹麦率先提出一份立场报告,其他科技强国如法国、芬兰和爱沙尼亚的科技部门首脑签署了该报告,共同呼吁欧盟委员会积极推动下一代人工智能技术发展,而不是给其设置障碍。
“我们应当转向‘软法’治理模式,例如自我调控、自主标识(voluntary labelling;译者注:指对产品自愿选择是否标明其成分或构成;相反的为强制标识【Mandatory labelling】,要求须标明其成分或构成)。以及其他自愿式实践,以及强有力的标准化流程,将其作为现有立法中保障符合安全性标准内容的补充。”报告中写道,“当下,科技更新换代日新月异,考虑到我们所面临的这一事实,‘软法’能够让我们从科技中不断学习,并鉴别伴随其而来的潜在挑战。”
比利时、捷克、芬兰、法国、爱莎尼亚、爱尔兰、拉脱维亚、卢森堡、荷兰、波兰、葡萄牙、西班牙和瑞典都签署了丹麦提出的这份报告。
高风险人工智能
14个国家的共同呼吁正是在今年二月欧盟委员会发布《人工智能白皮书》之后提出,《白皮书》主要是为下一代科技发展制定规范框架。
在执行计划中值得注意的是,其中标明了一系列“高风险”技术,以免将来被忽视,包括重要领域中的技术以及被视为具有重要作用的技术。
重要领域范围包括医疗、交通、治安、人才招聘及法律系统;而具有重要作用的技术包括可能致死、致害或可能导致法律风险的技术。如果相关技术不符合要求,将会受到制裁。
同时,欧盟委员会提出,在人工智能技术领域引入“自主标识”方案并不存在高风险。尤其是对14个对人工智能规范支持低干涉的国家而言,这一选择似乎是可以接受的,它们可能更倾向于全面地实施“自主标识”方案。指导文件中表示,这样的做法将“对潜在用户,如公民、企业以及公共行政部门而言,基于安全、负责的具备伦理道德的人工智能与数据而开发出的应用是显而易见的,因而也就可以信任。”
德国可能提出的反对
然而,当下诸多国家提倡的软性政策也许会与欧盟国家的其他立场相冲突。
作为目前的欧盟轮值主席国,德国担心的是欧盟委员会仅仅只是想对被视为高风险的人工智能应用施加限制,其更希望扩大新规则适用的技术范围。此外,德国认为欧盟委员会当前的计划将会导致“如果某些高风险的使用方式不属于既定的任何领域,它们从一开始就不会被涵盖。”
此外,德国在六月份的立场报告中明确提到了远程生物识别技术将对公民自由造成的风险,并说明其会导致对基本权利的侵害。
由于德国市民社会对此问题的关切,以及担心侵犯隐私权以及可能违反欧盟《一般数据保护法案》(General Data Protection Regulation)第4条第14款有关生物数据处理的规定,内政部长霍斯特泽霍夫(Horst Seehofer)带领制定德国计划,在全国范围内展开介绍面部识别系统。
生物识别
立场报告并未提到生物识别中人工智能的使用,也未就在公共空间使用面部识别技术的规范问题进行阐释,这正是欧盟委员会之前不断权衡是否应当引入新规则的领域。
然而,对于欧盟执行部分内容,其并未完全排除引入新规则以规制面部识别技术这一选择。
在九月初与欧洲议会内部市场委员会成员谈话后,通信网络、网络数据和技术总局的基利安格罗斯(Kilian Gross)说道,所有选择事项仍在讨论中。
对于欧洲议会议员马塞勒果拉亚(Marcel Kolaja)提出的“是否可能即将发出禁令”这一问题,格罗斯回答道,“我们不会排除任何一种选择,我们会考虑到所有选项并且认真分析现有立法情况。”
欧盟委员会二月份所发布的《白皮书》的后续行动将在2021年初作出,其中可能涉及一些新措施。
本文内容为摘译,原作者为SamuelStolton,源网址:https://www.euractiv.com/section/digital/news/eu-nations-call-for-soft-law-solutions-in-future-artificial-intelligence-regulation/,发表日期:2020-10-08
本文译者:张琼文,厦门大学法学院2018级硕士研究生,厦门大学法学院法律认知、数据与智能研究中心(实验室)学生助理。
本文刊载于吴旭阳主编:《法律认知、数据与智能通讯》(电子版)2020年10月期。
转载请注明出处。欢迎投稿。