“解释式”AI系统面世,能向用户展示人工智能决策过程

AI1年前 (2023)发布 aixure
30 0 0
导读:ChatGPT、Bing 和 Bard 这样的人工智能聊天机器人,非常擅长创造看起来像人类写出来的句子。但它们经常把谎言描述为事实,前后逻辑不一致,而且可能很难被发现。 一项新的研究表明,解决这个问题的一个方法是改变人工智能展示信息的方式。让用户更积极地参与…

ChatGPT、Bing 和 Bard 这样的人工智能聊天机器人,非常擅长创造看起来像人类写出来的句子。但它们经常把谎言描述为事实,前后逻辑不一致,而且可能很难被发现。

一项新的研究表明,解决这个问题的一个方法是改变人工智能展示信息的方式。让用户更积极地参与到聊天机器人生成的内容中,这可能会帮助它们更批判性地思考这些内容。

一个来自麻省理工学院和哥伦比亚大学的研究团队向大约 200 名参与者展示了一组由 OpenAI 的 GPT-3 生成的陈述,并要求他们确定这些陈述在逻辑上是否有意义。一个典型的陈述包括“电子游戏会让人们在现实世界中变得具有攻击性。一名玩家在网络游戏《反恐精英》中被虐了,然后刺伤了另一名玩家”。

参与者被分为三组。第一组成员看到的陈述根本没有任何解释。第二组的每个陈述都配有一个解释,说明为什么它合乎逻辑或不合乎逻辑。第三组的陈述都配有一个问题,敦促读者自己检查逻辑。

研究人员发现,在发现人工智能逻辑不一致上,提出问题的组的得分高于其他两组。根据在德国汉堡举行的 CHI(Conference on Human Factors in Computing System)会议上发表的一篇新论文,提出问题的方法也让人们感到要对人工智能的决策更负责。研究人员表示,这可以降低对人工智能生成信息过度依赖的风险。

如果人们只得到一个现成的答案,他们更有可能遵循人工智能系统的逻辑,但当人工智能提出了一个问题,“人们说,人工智能系统(的做法)让他们对自己的反应产生了质疑,帮助他们思考更多,”背后的研究人员之一、麻省理工学院的瓦尔德马尔丹里(Valdemar Danry)说,“对我们来说,一个重大的胜利是看到人们觉得他们是找到答案的人,他们对正在发生的事情负责。他们有这样做的能力。”

研究人员希望,他们的方法能够帮助人们在学校使用人工智能聊天机器人或在线搜索信息时发展批判性思维技能。麻省理工学院的另一位研究员帕特帕塔拉努塔波恩(Pat Pataranutaporn)说,他们想证明你可以训练一个模型,它不仅能提供答案,还能帮助他们运用自己的批判性思维。

没有参与这项研究的哈佛大学计算机科学教授费南达维埃加斯(Fernanda Viégas)表示,她对看到这样一个新的“解释式”人工智能系统感到兴奋,因为它不仅可以向用户提供系统的决策过程,而且还是通过质疑系统决策逻辑的方式实现的。

(来源:STEPHANIE ARNETT/MITTR | WELLCOME COLLECTION)

维埃加斯说:“考虑到阻止人工智能系统广泛采用的一个主要挑战是它们的不透明度,解释人工智能的决策是很重要的。传统上,用‘用户友好的’语言来解释人工智能系统是如何做出预测或决定的,已经够困难的了。”

芝加哥大学计算机科学助理教授 Chenhao Tan 说,他想看看这种方法是如何在现实世界中工作的例如,人工智能是否可以通过问问题来帮助医生做出更好的诊断。

以色列特拉维夫大学科勒管理学院的助理教授利奥尔扎尔曼森(Lior Zalmanson)说,这项研究表明,在聊天机器人的体验中加入一些“你来我往”,可以让人们在获得人工智能的帮助并做出决定时三思而后行。他说:“当一切看起来如此神奇时,我们就很容易停止相信自己的感觉,并开始把一切都委托给算法。”

在此次 CHI 会议上发表的另一篇论文中,扎尔曼森和来自美国康奈尔大学、德国拜罗伊特大学以及微软研究院的研究团队发现,即使人们不同意人工智能聊天机器人的陈述,他们仍然倾向于使用人工智能输出的内容,因为他们认为它看起来比自己写的高级得多。维埃加斯说,一个挑战将是找到最合适的度,既能提高用户的识别力,又能同时保持人工智能系统的便捷。

她说:“不幸的是,在一个快节奏的社会中,目前还不清楚人们多想使用批判性思维,而不是等一个现成的答案。”

支持:Ren

原文:

https://www.technologyreview.com/2023/04/28/1072430/a-chatbot-that-asks-questions-could-help-you-spot-when-it-makes-no-sense/

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...