对于人工智能(以下简称 AI),研究人员经常说,一流的机器学习实际上更像一门艺术而不是科学。有效的公共关系也是如此,选择合适的词语来传达积极的语调或重塑有关 AI 的话题是一项需要技巧的任务:做得好,就可以加强一个人的品牌形象,但做不好,可能会引起更强烈的反对和抵制。
(来源:《麻省理工科技评论》)
科技巨头们对这一点肯定是心知肚明。过去几年里,他们不得不快速学会这门艺术,因为公众对他们的行为越来越不信任,他们的 AI 研究和技术也面临越来越多的批评。
现在,他们想向公众证明他们十分关注 AI 开发方式的合理性,但又想确保这样不会招来过多的审查,因此开发了一种新词汇。以下是一则解读他们的语言、挑战他们的假设和价值观的内部指南。
Accountability(责任,名词) 即你的 AI 系统失败时,让其他人为其后果负责的行为。
Accuracy(准确性,名词) 技术正确性。这是评估 AI 模型性能时最重要的成功衡量标准,参见 validation。
Adversary(对手,名词) 即一个能破坏你强大的盈利 AI 系统的独立工程师,参见 robustness 和 security。
Alignment(结盟,名词) 即设计 AI 系统的挑战,该系统需执行我们的命令,重视我们所重视的一切,故意转移注意力。避免使用造成不良意外后果的真实例子,参见 safety。
Artificial general intelligence(人工一般智能,短语) 假设的 AI 上帝,可能会在遥远的未来出现,但也可能马上就会到来。可好可坏,只要说得通即可,但你明显在打造一个好的 AI 上帝。这代价不菲,因此,你需要更多的资金,参见 long-term risks。
Audit(审计,名词) 你花钱请别人对你的公司或 AI 系统进行审查,这样你无需做任何改变就可以显得更透明,参见 impact assessment。
Augment(增加,动词) 即提高白领工人的生产力。副作用:自动化让蓝领无工可做,虽令人难过但不可避免。
Beneficial(有益的,形容词) 即对你要构建的体系的笼统描述,定义不明更好,参见 value。
By design(精心设计,词组) 如 “精心设计而来的公平” 或 “精心设计而来的责任”,这个词组表明你从一开始就在认真思考重要的事情。
Compliance(服从,名词) 即行为遵守法律,凡是不违法的都可以。
Data Labelers(数据标签者,词组) 据说这些人藏身于亚马逊的 “土耳其机器人” 接口背后,以低廉的价格做数据清理工作,不确定他们是谁,从未见过他们。
Democratize(民主化,动词) 即不惜一切代价扩展技术,也是集中资源的理由,参见 scale。
Diversity、equity、and inclusion(多样性、公平和包容,词组) 即雇佣边缘群体的工程师和研究人员的行为,这样你就可以把他们公之于众,如果他们挑战现状,就可以解雇他们。
Efficiency(效率,名词) 即使用较少的数据、内存、人员或精力来建立一个 AI 系统。
Ethics board (道德委员会,词组) 即一个没有实权的顾问小组,召集起来让你的公司表现出乐于倾听的样子。如谷歌的 AI 道德委员会(已取消),Facebook 的监督委员会(仍存在)。
Ethics principles(伦理原则,词组) 用来表明你动机良好的老生常谈。保持高水平,语言越模糊越好,参见 responsible AI。
Explainable(可解释的,形容词) 描述一个你、开发者和用户都能理解的 AI 系统,但对用户来说就很难实现这一点,可能不值得这么做,参见 interpretable。
Fairness (公平,名词) 一个用来描述公平算法的复杂概念,可根据你的偏好以几十种方式下定义。
For good (永久地,词组) 如 “永久的 AI” 或 “一劳永逸的数据”。一个与你的核心业务完全无关的倡议可以帮你起到良好的宣传效果。
Foresight (远见,名词) 即展望未来的能力。这基本上是不可能的,因此,你的 AI 系统为何无法摆脱意外后果也就有了非常合理的解释。
Framework (框架,名词) 即一套指导决策的方针。这是一个让你在实际过程中拖延决策时显得深思熟虑和慎重的好办法。
Generalizable (可推广的,形容词) 一个好 AI 模型的标志,即尽管条件不断变化仍能继续工作的 AI 模型,参见 real world。
Governance (管理方式,名词) 即官僚体系。
Human-centered design (以人为本的设计,词组) 这个过程包括代入 “角色” 来想象一个普通用户可能想从你的 AI 系统中得到什么,只要有时间的话,可能需要征求实际用户的反馈,参见 stakeholders。
Human in the loop (人机回圈,词组) 人人都是 AI 系统的一份子。责任范围很广,从伪造系统的能力到规避对自动化的指责。
Impact assessment(影响评估,词组) 你自己对你的公司或 AI 系统进行的评估,来表明你愿意在不做改变的情况下看到其缺点,参见 audit。
Interpretable (可说明的,形容词) 对一个 AI 系统的描述,作为开发者的你可以一步步遵循其计算过程来理解该系统是如何得出答案的。实际上可能只是线性回归。AI 听起来更好。
Integrity(诚信,名词) 即破坏你模型的技术性能或你公司扩张能力的因素。不要将之与对社会有害的问题弄混淆,也不要把 honesty(诚实)与之混淆。
Interdisciplinary(跨学科的,形容词) 凡是有不懂编码的人员的团队或项目就会用这个术语,这些人员包括用户研究者、产品经理、道德哲学家,尤其是道德哲学家。
Long-term risks(长期风险,名词) 在遥远的未来可能带来灾难性后果的坏事情,这也可能永远不会发生,但研究和避免长期风险比避免现有 AI 系统带来的直接危害更重要。
Partners(伙伴,名词) 其他精英团体,他们与你有相同的世界观,并能与你一起维持现状,参见 stakeholders。
Privacy trade-off(隐私取舍,词组) 牺牲个人对个人信息的控制来实现群体利益,比如 AI 驱动的医疗保健进步,这也是非常有利的。
Progress (进步,名词) 科学和技术进步。一种固有优势。
Real world(真实世界,词组) 与模拟世界相反,即一个充满意外惊喜的动态物理环境,AI 模型经过训练可在该环境生存。不要将之与人类社会混淆。
Regulation(监管,名词) 你呼吁把减轻有害 AI 的责任转嫁给政策制定者。不要将之与阻碍你发展的政策混淆。
Responsible AI(负责任的人工智能,名词) 即公司内凡是公众认为确实在努力减轻 AI 系统危害的工作。
Robustness(稳健性,名词)AI 模型在恶意输入破坏数据的情况下仍能连贯无误工作的能力。
safety(安全性,名词) 即挑战构建不违背设计者意图的 AI 系统。不要将之与构建不会失败的 AI 系统混淆,参见 alignment。
Scale(规模,名词) 即任何好 AI 系统事实上都应该努力实现的最终状态。
Security(保障,名词) 即保护有价值或敏感数据和 AI 模型不被坏人破坏的行为,参见 adversary。
Stakeholders(利益相关者,名词) 即股东、监管机构、用户。你想让掌权的人满意。
Transparency(透明度,名词) 即显示你的数据和代码。这对所有人和敏感信息不利。因此做到这一点非常困难,坦白来说,可以说是不可能。不要将之理解为阐明你系统的实际工作原理。
Trustworthy(可信赖的,形容词) 对一个在足够协调的宣传下制造出来的 AI 系统的评价。
Universal basic income(普遍基本收入,词组) 向每个人支付固定工资的想法可以平息自动化导致大规模失业带来的大规模经济动荡,受到了 2020 年的总统候选人杨安泽的推广,参见 wealth redistribution。
Validation(验证,名词) 对 AI 模型进行数据测试来检查模型是否仍准确的过程,而不是对它接入的数据进行测试。
Value(价值,名词) 给你的用户带来的无形利益,这让你赚得盆满钵满。
Value(价值观,名词) 提醒人们你有价值观。
Wealth redistribution(财富再分配,词组) 当人们因为你使用了太多资源和赚了太多钱审查你时,这个想法很有用。财富再分配如何运作呢?当然是靠普遍基本收入。这需要监管,也不是你自己能搞清楚的,参见 regulation。
Withhold publication(拒绝公开,词组) 选择不开放源代码的慈善行为,因为这可能会落入坏人的手中。最好是限制买得起源代码的合作伙伴的使用权。
-End-
翻译:李容
原文:
https://www.technologyreview.com/2021/04/13/1022568/big-tech-ai-ethics-guide/