英国政府一份最新报告称,人工智能不需要专门的监管机构,但在公共部门的使用和道德规范方面,需要更加明确。
《人工智能与公共标准:公共生活标准委员会的审查报告》称政府在开放性上“失败”,但又补充说,对“黑匣子AI”(是指数据通过无法解释的方法产生结果)的担忧在很大程度上是错误的。
报告指出:“公共部门组织对其人工智能的使用不够透明,而且很难找出机器学习目前在政府的哪些方面得到了应用。”“现在判断公共部门机构是否成功地坚持问责制还为时过早。”
报告主张使用诺兰原则为英国公共部门引入人工智能(AI),理由是它们不需要重新制定。然而,报告指出,目前的标准在三个方面公开、问责和客观性存在不足。
在报告提出的15项总体建议中,许多都集中在准备、道德和透明度方面。
l 公众需要理解管理公共部门人工智能使用的高级伦理原则,目前是快速和原则、经合组织人工智能原则和数据伦理框架。
l 所有公营机构在将人工智能应用于提供公共服务前,均应发表声明,说明其使用人工智能是否符合有关法例及规例
l 不需要专门的人工智能监管机构,但应成立一个监管保证机构,以确定监管领域的空白,并就人工智能相关问题向个别监管机构和政府提供建议
l 政府应该利用其在市场上的购买力来设定采购要求,以确保私营企业为公共部门开发人工智能解决方案符合正确的标准
l 政府应考虑如何将人工智能影响评估要求整合到现有流程中,以评估人工智能对公共标准的潜在影响
l 政府应该为公共机构建立关于其人工智能系统的声明和披露的指南
在报告发布后,IT服务提供商Insight的技术策略师Alex Guillen注意到这些建议是可行的,但同时也提出了警告。
Guillen表示:“在遵循诺兰原则的同时,将人工智能引入政府应该是完全有可能的。”“首先,公共部门需要记住,目前,人工智能和机器学习等技术最有效的应用是增强(而非取代)人类工人。帮助公共部门工作人员做出更明智的决定,或更快地行动,不仅会改善公共服务;这将有助于让69%的受访者感到满意,他们表示,如果由人类对任何决定做出最终判断,他们会更愿意让公共机构使用AI。
Guillen补充说:“然而,无论人工智能如何在公共部门使用,它都需要被视为一名员工,并为其提供工作所需的培训和信息。”和任何依赖于数据的技术一样,输入垃圾意味着输出垃圾。从警务工作中的面部识别,到帮助英国国民健康保险制度(NHS)的患者诊断和治疗,人工智能需要正确的数据和正确的治理,以避免造成比解决的问题更多的问题。
“否则,任何实施都会受到道德问题的困扰,并受到数据偏见或歧视的指控。”