图片来源:GETTY IMAGES
两年前,在苹果公司(Apple)还没有正式推出苹果信用卡(Apple Card)的时候,就有很多人在讨论,这张不收费的信用卡将如何助力这家科技巨头进军金融服务行业。
但现如今,当人们讨论苹果信用卡的时候,那经常是因为苹果的人工智能算法出现了故障该公司用这种算法来确定准持卡人的信用额度。
2019年11月,一名丹麦人在推特上发文称,虽然他和太太使用相同的财务信息申请苹果信用卡,但他获得的信用额度足足是妻子的20倍即使正如他承认的那样,他妻子的信用评分其实更高。
火上浇油的是,就连苹果公司的联合创始人史蒂夫沃兹尼亚克也声称,他的太太遇到了同样的事情。苹果信用卡于2019年8月正式推出。到2020年年初,估计有310万美国人持有该卡。
所以,这个问题很可能影响了数以万计的女性。纷至沓来的投诉促使纽约州金融服务管理局(New York Department of Financial Services)展开调查。
尽管该机构最近洗脱了这家数字巨头的性别歧视罪名,但这是在苹果悄悄地将太太们的信用额度提升到与其丈夫相匹配的水平之后才发生的事情。
随着企业开始大规模部署人工智能,人们的关注点正在日益从利用这种技术创造和捕获价值,转向使用人工智能系统所带来的固有风险。诸如人工智能事件数据库(Artificial Intelligence Incident Database)这类监管机构,已经记录了数百起与人工智能相关的投诉从学生考试的可疑评分,到招聘流程对算法的不当使用,再到医疗系统对患者的差别对待,不一而足。
结果就是,企业很快就不得不遵守多个国家的监管新规。这些法规旨在确保人工智能系统是值得信赖、安全、强大且公平的。在这方面,欧盟(European Union)再次引领潮流,去年在其《人工智能白皮书:追求卓越和信任的欧洲之道》(White Paper on Artificial Intelligence: A European Approach to Excellence and Trust)中概述了一个框架,并在2021年4月提出了一个法律框架提案。
企业必须学会应对人工智能风险,不仅因为这将成为一项监管要求,还因为利益相关方期望它们这样做。根据经济学人智库(Economist Intelligence Unit)最近的一项研究,多达60%的高管表示,出于责任方面的担忧,他们的组织去年决定不与人工智能服务供应商合作。
为了有效地管理人工智能,企业必须把握监管法规和社会期望对其使用这项技术的影响,同时铭记该技术独有的特性。我们最近在《哈佛商业评论》(Harvard business Review)撰文详细探讨了这个问题。事实上,搞清楚如何平衡使用人工智能的回报和风险,很可能成为一项新的、具有可持续性的竞争优势。
学习,还是不学习?
从一开始,人们就大肆吹嘘人工智能的超凡能力,即通过学习它研究的数据而不断变好正是这一特性使人工智能成为一项独特的技术。这种良性循环可能导致人工智能的行为总是无法预测,就像微软(Microsoft)2016年推出的聊天机器人Tay所示;或者正如亚马逊(Amazon)使用人工智能筛选求职简历时生动展示的那样,它会导致可能引发公平担忧的结果。
人工智能系统可能在某一天做出一项决定,然后从随后提供给它的数据中学习,并在第二天得出一个迥然不同的决定。这就是为什么美国食品与药品管理局(Food and Drug Administration)等监管机构只批准那些在使用过程中不会演变的算法。
同样,企业也需要决定是否允许自家的人工智能系统实时学习。遗憾的是,不允许人工智能持续学习,将迫使企业放弃该技术的一大关键好处在某些情况下,它能够随着时间的推移表现得更好。在其他情况下,企业需要在风险水平和算法准确性之间进行权衡,而如果企业不允许持续学习,就会妨碍这种准确性的形成。
不断演变的人工智能系统也会增加运营的复杂性,因为同样的人工智能嵌入式产品或服务将在不同国家以不同方式运行。每个国家在监管法规和社会期望方面的细微差异将使得这些运营挑战变得更加复杂。
企业将不得不使用当地数据训练其人工智能,并根据当地法规进行管理。而这势必会限制人工智能的扩展能力。
此外,企业必须将人工智能视为一个需要谨慎管理的应用组合。它们将不得不开发“哨兵”流程来监控这一组合,不断确保它公平、安全和高效运作。组织将不得不频繁测试人工智能系统的输出,而这无疑将增加成本。
例如,纽约市在2017年通过立法成立了一个工作组,专门就自动决策系统的信息应该如何分享给公众,以及公共机构应该如何应对人们可能受到自动决策系统伤害的情况提供建议。
为人工智能的决定负责
另一个关键的差异化因素是人工智能做出复杂决定的能力,例如,在网上向谁推送哪些广告,或者是否给予基于人脸识别的访问权限。责任与决策能力携手并进。迄今为止,那些按照“负责任的人工智能”原则(Responsible A.I.)行事的企业和其他组织,专注于确保基于人工智能的决定对所有利益相关者消费者、雇员、股东和其他利益相关者一视同仁。
如果人工智能算法待人不公,企业就会像苹果公司那样面临法律和声誉风险。它们需要理解其算法可能对人类产生的影响,甚至在某些情况下选择不使用人工智能。随着人工智能系统不断扩展,这些关切将会加剧;就平均而言,一种算法可能是公平的,但在特定的地理环境下仍然可能是不公平的,因为当地消费者的行为和态度可能不符合均值,因此可能没有反映在企业对算法的训练中。
企业别无选择,只能开发流程、角色和功能,以确保人工智能系统是公平和负责任的。一些机构,比如联邦住房贷款抵押公司(Federal Home Loan Mortgage Corporation,也就是人们熟知的房地美公司),已经任命了人工智能伦理官,并建立了人工智能治理结构,以及诸如可追溯协议和多样性训练这类流程来应对这一挑战。这是朝着正确方向迈出的一小步。
此外,这些先行者正在建立审计流程,并开发监控工具来确保人工智能系统的公平运行。
问责制要求企业解释为什么它们的算法会做出这样的决定。这种“可解释性”要求将迫使企业做出取舍。相对容易解释的算法通常不如所谓的“黑匣子算法”准确。有鉴于此,如果企业只使用前者,就会限制人工智能的能力和质量。
考虑到企业高管将不得不在“可解释性”和准确性之间进行权衡,这势必会在全球范围内创造一种不平等的竞争环境,因为市场法规和社会期望因国别而异。
举例来说,蚂蚁金服结合了阿里巴巴生态系统中数千个数据源的输入,为中国的借款人制定信用评级。这个流程使得任何人,甚至是监管机构,都难以理解这些算法的决策方式。尽管阿里巴巴的系统足以让该公司在短短几分钟内批准贷款,但它可能无法在中国以外使用同样的系统,特别是在那些无论是监管法规,还是社会期望都要求更高程度的“可解释性”的经济体。
因此,人工智能公司究竟可以瞄准哪些市场,将在很大程度上受制于监管法规,这将对企业战略产生重大影响。事实上,在2019年的《通用数据隐私条例》(General Data Privacy Regulation)颁布后,一些公司,比如游戏开发商Uber Entertainment,选择远离欧盟。
随着越来越多的政府颁布人工智能的使用规则,企业在部署人工智能之前必须考虑一些关键问题。它们必须扪心自问:
*我们应该在多大程度上差异化我们的产品或服务,以适应不同地区在人工智能法规和市场预期方面的差异?
*在考虑了新的监管格局后,我们是否还应该致力于为全球所有市场提供服务?
*如果人工智能业务的去中心化是大势所趋,我们是否应该建立一个中央组织来领导,或者至少连接和共享数据、算法及最佳实践?
*考虑到人工智能法规和市场预期,我们将需要哪些新角色和组织能力,以确保我们的战略和执行相一致?我们将如何聘用或重新培训人才来获得这些能力?
*我们的战略视野是否适当,能否将我们应对不断变化的技术和监管环境的短期反应与我们的长期人工智能愿景结合起来?
随着人工智能在企业内部和外部流程中的应用变得日益普遍,利益相关者对公平、安全和可信赖的人工智能的期望值不断攀升,企业必然会遭遇人与机器的冲突。首席执行官们越早认识到使用人工智能系统的价值-风险权衡,他们就越可以在一个由人工智能驱动的世界中,更好地应对监管法规和社会期望。(财富中文网)
本文作者范史华(Fran ois Candelon)是波士顿咨询公司(Boston Consulting Group)的董事总经理、高级合伙人,并兼任波士顿咨询公司亨德森研究所(BCG Henderson Institute)的全球董事。西奥多罗斯叶夫根尼奥是欧洲工商管理学院(INSEAD)的决策科学和技术管理学教授,专攻人工智能和商业数据分析研究。
作者:Fran ois Candelon, Theodoros Evgeniou
译者:任文科
END