未来的人工智能系统,将如何为我们人类做出最符合道德的选择?

AI1年前 (2023)发布 aixure
69 0 0
导读:人工智能已经在商业、医疗保健和制造领域作出决策。但人工智能算法通常仍会从申请检查和作出最终决定的人那里得到帮助。 如果人工智能系统必须做出独立的决定,而那些决定对人类来说可能意味着生死,会发生什么? 长期以来,流行文化描绘了我们对人工智能的…

人工智能已经在商业、医疗保健和制造领域作出决策。但人工智能算法通常仍会从申请检查和作出最终决定的人那里得到帮助。

如果人工智能系统必须做出独立的决定,而那些决定对人类来说可能意味着生死,会发生什么?

长期以来,流行文化描绘了我们对人工智能的普遍不信任。在 2004 年的科幻电影《我,机器人》中,侦探德尔斯普纳(威尔史密斯饰)在一场车祸中被一个人救起后对机器人产生了怀疑,而一名 12 岁的女孩被淹死。他说:我是合乎逻辑的选择。它计算出我有 45% 的生存机会。莎拉只有 11% 的机会。那是某人的孩子11% 绰绰有余。人类早就知道了。

与人类不同,机器人缺乏道德良知,并遵循编入其中的“道德”。同时,人类的道德是高度可变的。在任何情况下做得“正确”的事情都取决于你问的是谁。为了让机器能够帮助我们充分发挥其潜力,我们需要确保它们的行为符合道德规范。那么问题就变成了:AI 开发人员和工程师的道德规范如何影响 AI 的决策?

自动驾驶的未来

想象一下完全自主的自动驾驶汽车的未来。如果一切按预期进行,早上通勤将是为当天的会议做准备、了解新闻或坐下来放松的机会。

但是如果出现问题怎么办?汽车接近红绿灯,但突然刹车失灵,计算机不得不在瞬间做出决定。它可以突然转向附近的杆子并杀死乘客,或者继续前进并杀死前方的行人。控制汽车的计算机只能访问通过汽车传感器收集的有限信息,并且必须基于此作出决定。尽管这看起来很戏剧化,但我们距离可能面临此类困境只有几年的时间。

自动驾驶汽车通常会提供更安全地驾驶,但事故将不可避免尤其是在可预见的未来,当这些汽车将与人类驾驶员和其他道路使用者共享道路时。尽管特斯拉计划生产,但它尚未生产全自动汽车。在碰撞情况下,如果人类驾驶员处于控制之中,特斯拉汽车不会自动操作或停用自动紧急制动 (AEB) 系统。换句话说,驾驶员的行为不会受到干扰即使是他们自己造成了碰撞。相反,如果汽车检测到潜在碰撞,它会向驾驶员发送警报以采取行动。

然而,在“自动驾驶”模式下,汽车应该为行人自动刹车。有人争辩说,如果汽车可以防止碰撞,那么它就有道德义务在每种情况下超越驾驶员的行为。但是我们会希望自动驾驶汽车做出这个决定吗?

人生有什么价值?

如果汽车的计算机可以评估车内乘客和行人的相对“价值”会怎样?如果它的决定考虑了这个值,从技术上讲,它只是进行成本效益分析。

这听起来可能令人震惊,但已经有一些技术可以让这种情况发生。例如,最近重新命名的 Meta(前身为 Facebook)具有高度进化的面部识别功能,可以轻松识别场景中的个人。如果将这些数据整合到自动驾驶汽车的人工智能系统中,该算法就可以为每条生命赋予美元价值。麻省理工学院的专家及其同事在 2018 年进行的一项广泛的研究中描述了这种可能性。

通过道德机器实验,研究人员提出了各种自动驾驶汽车场景,迫使参与者决定是杀死无家可归的行人还是行人。结果显示,参与者的选择取决于他们所在国家/地区的经济不平等程度,其中经济不平等程度越大,他们就越有可能牺牲无家可归的人。虽然没有完全进化,但这种数据聚合已经在中国的社会信用体系中使用,它决定了人们拥有哪些社会权利。

医疗保健行业是我们将看到人工智能做出可能拯救或伤害人类的决策的另一个领域。专家们正越来越多地开发AI来发现异常在医疗成像,并帮助医生在优先医疗服务。目前,医生说了算,但随着这些技术越来越先进,如果医生和人工智能算法不做出同样的诊断,会发生什么?另一个例子是自动用药提醒系统。如果患者拒绝服药,系统应该如何反应?这如何影响患者的自主权以及系统的整体问责制?

人工智能驱动的无人机和武器在道德上也令人担忧,因为它们可以做出杀人的决定。对于是否应该完全禁止或管制此类技术,存在着相互矛盾的观点。例如,自主无人机的使用可能仅限于监视。一些人呼吁对军用机器人进行道德编程。但这引发了关于程序员在无人机误杀平民的情况下的责任问题。

哲学困境

关于人工智能必须做出的道德决定,存在许多哲学辩论。典型的例子是电车问题。人们常常难以做出可能改变生活结果的决定。在评估我们对此类情况的反应时,一项研究报告称,选择可能因一系列因素而异,包括受访者的年龄、性别和文化。

对于 AI 系统,算法训练过程对于它们在现实世界中的工作方式至关重要。一个国家开发的系统可能会受到该国观点、政治、伦理和道德的影响,使其不适合在另一个地方和时间使用。如果该系统正在控制飞机或引导导弹,您需要高度的信心,它是用代表所使用环境的数据进行训练的。技术实施中的失败和偏见的例子包括种族主义皂液器和不适当的自动图像标签。人工智能不是“好”或“坏”。它对人们的影响将取决于其开发人员的道德规范。因此,为了充分利用它,我们需要就我们认为的“道德”达成共识。

虽然私营公司、公共组织和研究机构有自己的人工智能道德准则,但联合国建议制定他们所谓的“全面的全球标准制定工具”,以提供全球道德人工智能框架并确保人权得到保护。

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...