来自OpenAI、谷歌Brain、英特尔和其他28家领先组织的研究人员发表了一篇论文,提出了一个验证人工智能伦理“工具箱”的声明。
大众对人工智能的担忧从危险的冷漠到停止创新的危言耸听,很明显,这一过程中态度的转变,说明市场中急需一个体系来平衡现实。
研究人员写道:“人工智能系统的开发方式与开发人员所宣称的价值观不一致,这导致了与人工智能系统影响相关的担忧、研究和行动主义的上升。”
研究人员指出,许多参与人工智能开发的玩家已经在阐明道德原则方面做了大量工作,但如果没有办法验证这些原则,这些说法就毫无意义。
“乘坐飞机的人不会因为航空公司宣传安全重要性而信任它,人们信任它,是因为它所伴随的技术基础设施、规范、法律和机构,以确保航空安全。”
他们提出的核心理念之一是,向发现算法偏差的开发者支付报酬。这种做法在网络安全领域已经很普遍;许多公司提供赏金来寻找他们软件中的漏洞。
作者写道:“偏见和安全奖励将把漏洞赏金的概念扩展到人工智能,并可以补充现有的努力,以更好地记录数据集和模型的性能限制和其他特性。”
“我们在这里关注的是在人工智能系统中发现偏见和安全问题的奖励,作为分析和实验的起点,但请注意,其他属性,如安全性、隐私保护或可解释性的奖励也可以探索。”
另一种可能的方式是所谓的“红色团队”,即创建一个专门的团队,以可能的攻击者的心态来发现计划、组织或技术系统中的缺陷和弱点。
“知道一个实验室有一个红队,可能会提高组织在安全和安保声明方面的可信度。”
一支红队本身不太可能给人太多的信心;但与其他措施相结合可以大有作为。来自组织外部各方的验证将是向该公司的人工智能开发灌输信任的关键。
“第三方审计是一种由外部独立审计师而非被审计机构进行的审计形式,可以帮助解决有关自我报告准确性的激励问题。”
“只要拥有关于人工智能系统活动的足够信息,具有强大信誉和专业动机的真实性独立审计机构,就可以帮助核实有关人工智能开发的说法。”
研究人员强调,目前第三方审计的一个障碍是,还没有任何专门针对人工智能的技术或最佳实践。框架,如索赔-论证-证据和目标结构表示法,可以提供一个起点,因为它们已经广泛用于安全关键审计。
审计追踪,涵盖AI开发过程的所有步骤,也被推荐成为规范。研究人员再次指出,商用飞机是一个安全关键系统,他们使用飞行数据记录器每秒捕捉多种类型的数据,并提供完整的日志。
“标准制定机构应与学术界和业界合作,为人工智能系统的安全关键应用开发审计追踪要求。”
最后一个建议是使用隐私保护机器学习来验证AI伦理声明的面向软件的方法。
隐私保护机器学习旨在保护机器学习中使用的数据或模型的隐私,包括在培训或评估期间以及部署期间。
文章中介绍了三种已建立的PPML类型:联邦学习、差分隐私和加密计算。
“在可能的情况下,人工智能开发者应该贡献、使用或以其他方式支持PPML的开源社区的工作,如OpenMined、Microsoft SEAL、tf-encrypted、tf-federated和nGraph-HE。”
这些研究人员代表了世界上一些最知名的机构,提出了一套全面的方法,任何参与人工智能开发的组织都可以为治理和更广泛的公众提供保障,以确保该行业能够负责任地充分发挥其潜力。