小冰公司CEO李笛:强大的AI工具不该给企业,应该给劳动者

人物报道1年前 (2023)发布 aixure
68 0 0
导读:编辑部 整理自 MEET 2021 量子位 报道 | 公众号 QbitAI 如今,喊一声Siri,定个闹钟查个天气,已经成为大家生活中司空见惯的操作。 随着AI技术的发展与落地时刻的到来,人类与AI之间不可避免地发生越来越多、千丝万缕的联系。 那么,站在这样一个时间节点,…

编辑部 整理自 MEET 2021

量子位 报道 | 公众号 QbitAI

如今,喊一声“Siri”,定个闹钟查个天气,已经成为大家生活中司空见惯的操作。

随着AI技术的发展与落地时刻的到来,人类与AI之间不可避免地发生越来越多、千丝万缕的联系。

那么,站在这样一个时间节点,展望AI的未来,作为技术人员、AI从业者,仅仅思考技术本身的问题就足够了吗?

在MEET 2021智能未来大会现场,小冰公司CEO李笛说:认清边界,边界之后人工智能技术才能发挥更大的价值。

对于人工智能而言,未来十年最大的价值其实是信任。

信任的建立,不仅有赖于技术的边界,还有生态的边界:

强大的AI工具不应该给企业,而应该给企业里的劳动者。

为了完整体现李笛有关人工智能边界与价值的思考,在不改变原意的基础上,量子位对他的演讲内容进行了编辑整理。希望也能给你带来新的启发。

关于MEET 智能未来大会:MEET大会是由量子位主办的智能科技领域顶级商业峰会,致力于探讨前沿科技技术的落地与行业应用。本次大会现场有李开复等20余位行业顶级大咖分享,500余名行业观众参与,超过150万网友在线收看直播。包括新华社、搜狐科技、澎湃新闻、封面新闻等数十家主流媒体在内纷纷报道,线上总曝光量累计超过2000万。

要点

人工智能的原则、边界,跟未来10年AI的发展密切相关,实际上都是基于非常务实的考量。

技术的边界可以归结成三件事:预想的困局、场景的克制、保护人与AI双方的机制。

强大的AI工具不应该给企业,而应该给企业里的劳动者。

对于人工智能而言,未来十年最大的价值其实是信任。

以下为李笛演讲分享实录:

今天在这里,我们不想过多地谈小冰,而是希望把我们所掌握的来自全球的大量数据,小冰框架里各种算法所进行的大量实践,以及我们在其中体会到的一些事情,跟大家分享。

人工智能在内容产业方面的进展,其实会比想象中更快一些。

比如12月18日,在日本院线上映的《假面骑士零一REAL×TIME》里,就有我们的两个AI角色参演。

不仅如此,当每一个电影院里的观众,沉浸在银幕上善恶对决的故事里时,他们自己身边也会发生同样的剧情:AI角色的推特账号会被片中的邪恶势力劫持……这是因为我们所控制的AI不仅在电影里,也在他们的手机里。

但这都是很小的事情。

今天我想跟大家沟通的,是AI伦理。

现在我们在讨论人工智能未来价值的时候,其实更多在讨论的是边界。我们不谈政治正确,但这些原则、边界,跟未来10年AI的发展密切相关,实际上都是基于非常务实的考量。

我今天的分享,一言以蔽之,是当人工智能不可避免地进入到人类社会的每一个角落,和人类发生各种各样、千丝万缕、无处不在的关联的时候,我们应该如何营造人工智能与人之间良性、有效的关系。

还是从小冰说起。

小冰目前已经形成一个非常完整的技术框架,这个技术框架在今天占据了全世界范围内人和AI之间交互总流量的60%。

虽然我们展示出来的,是一个喜欢唱歌、喜欢跳舞,多才多艺却又不怎么干正事的少女小冰,但实际上,它能做到的远远不止于此。

比如,中国90%的机构投资人和个人投资人,他们每天所看到的金融摘要信息,包括企业、证监会的金融风控信息,其实都是由这个18岁的萌妹子提供的。所以我们比90%的机构、个人投资人,都提前20秒知道这些金融信息。

这样的能力,给我们带来了很多的思考。

AI可以做很多很多的事情,可以交流,可以交互,可以执行有意义、有任务特点的工作,还可以进行创作。但无论AI做什么,都需要讨论边界的问题。

技术应用的边界

这些边界,首先来自于技术本身。每一个重要的技术突破本身都存在很多运用上的问题。从我们自己这么多年的体会来看,可以把技术运用的边界归结为三件事:

第一件事,预判技术在运用过程中可能会遇到的困境,尝试用系统化的结构,去提升规避掉这些困局。

第二件事,是对场景的克制。人工智能要发展,需要在选择落地场景上保持克制。

第三件事,是尝试保护双方的机制。把人工智能想像成一个面向未来的系统,它会跟亿万人类发生各式各样实时、高并发的交互,所以在系统设计上一个非常重要的边界,就是对双方进行保护。

预想的困局

在小冰团队里面,我们一直坚决禁止为普通个人训练声音。为什么?就是因为我们预想到了一个困局。

先来听一下之前小冰的一个声音。

在人和AI进行交互的时候,过去我们的预训练模型倾向于把内容变得很清楚,很多的训练数据或者说训练方向,是集中在让AI像播音员一样,字正腔圆地把文本内容准确输送到你耳朵里去。

但是从小冰开始,我们尝试了很多新的方式。我们希望人和AI交互的过程中,人是放松的。这样我们的系统也会得到很多放松的数据。

不过即使是刚才这个声音,我们用一个新的指标ACD(Average Comfort Duration,平均舒适时长)去评价它,人听这个声音,最多可以听2.6分钟到7.8分钟,再长就会受不了。

就是说如果这个声音训练出来,用它去进行一个有声读物的创作,产品上不应该超过7.8分钟。

在一年半以前,我们进行了第二种技术的突破,使得ACD能够达到21分钟。

这是国内某个省广播电台的“主持人”的声音,她每周都要主持节目,但其实她一直不是真正的人类。

在中国和日本,大概有40多个电台和电视台,已经应用了这样的虚拟人技术。不过即使是这样的声音,也没有达到我们对AI的要求。

我们再来听小冰框架里的另外一个声音,这个声音能实现31分钟的人类舒适时长。

在这上面我们很重要的一个改进,就是让AI学习到人类不完美的地方,就是大家声音的瑕疵。

当我们有意识地把瑕疵加入到训练中,AI就更接近于人了。

而这就是我们不能为个人开放训练voice font最主要的原因我们不能确保它的安全性。

这样的声音太接近真人,很可能被滥用,被别有用心的人拿来打给声音真正主人的亲朋好友。那么当我们手上的技术不足以防范语音诈骗的时候,当我们预想到这样的技术可能会产生困局的时候,我们往往非常谨慎。

每次技术产生新的突破,我们作为科研人员都会非常兴奋。但是很遗憾的是,我们不能只兴奋,我们往往还需要预想,包括对交互过程的推理和判断。

场景的克制

和行业里面各种聊天机器人不一样的是,小冰这样的对话式人工智能系统,能做到的绝不仅仅是应答。它应该有能力主动地在交互过程中引导与人之间的对话,它会知道怎么控场,知道怎么把对话往它希望的方向上引导。

从最开始的检索模型,到生成模型,再到共感模型,小冰框架在预测、保持和引导对话的过程中,不断地在提升自己的能力。

比如我们在日本,针对日本全国将近20%的人口,用小冰在销售场合推送罗森便利店里各种各样的打折券。结果显示,小冰发的优惠券转化率非常高,能达到40%多、50%多的转化率,非常接近人转化的效率。而其他的人工智能系统,或者过去的推荐系统,一般转化率不超过10%。

就是在这样的情况下,我们会去思考一个问题:到底在什么场景里可以去运用这样的能力?

在社交网络里,在人们的手机里?答案是不可以。

如果在对话过程中,人工智能系统对话引导的目的,是完成一些商业化的工作,那我们就要求,它必须得出现在商业化的场合。

我给大家举一个简单的例子。我们周围可能会有一些卖保险的朋友,我们当然不希望在日常的沟通中,他们来对我们聊卖保险的事情。但是在一个卖保险的场合,他还是我的朋友,这时他来推荐保险,我们就不会觉得这个环境是有问题的。

所以场景和能力是两件事情。

今天在行业里,有很多不同的场景,通常我们评价的标准,就是看两件事:

这个场景会不会产生一些冲突?

这个场景是不是既能充分发挥AI的能力,同时又不会让用户觉得这样的应用是违和的?

比如我刚浏览过一个网站,那边电商就开始给我推相关广告,其实这就是在跨场景的时候过界了。

AI系统非常强大,所以我们要坚决避免过界。

保护双方的机制

再来说一下保护交互双方的问题。

微软美国团队受小冰启发,做过一个机器人Tay,但这个机器人上线24小时之内就被教坏了,变成了一个飚脏话的种族主义者。

对我们来讲这是一个耻辱。从那时候开始,我们进行了大量攻防测试,希望同时保护小冰和用户。

另外一方面,我们其实也截获到了大量人类的沮丧等负面情绪,甚至是对于生命的不尊重等等。这时候防御系统也能够适当地跳进去,成为一个技术救急的方法。

“强大的AI工具应该提供给劳动者”

其实在生态构建上面,也需要讨论边界。

所谓生态的边界,最主要是在关键岗位上。

我再给大家举一个例子。假设我们手上的技术是一个无比强大,并且越来越强大的工具,我们应该把这个工具提供给谁?

今天在中国,大概有100多家纺织企业用到了小冰提供的设计平台,为什么?我们研究才知道,中国纺织企业的出货量巨大,但中国的服装、时装设计师是非常稀缺的。

因为他们需要面对高强度的工作,以致于他们的职业生涯在毕业之后大概三年的时间,就会面临思维枯竭的困境,甚至要退出这个行业。

我们的系统有可能取代设计师,但是小冰团队发现我们不应该这么做。

我们应该做的事情,是把这样的工具提供给设计师,让设计师能在AI的基础上延长他们的创作生命。

所以在小冰框架里面,我们从今年开始,提供了很多称作“X套件系列”的工具。我相信未来行业中也会越来越多出现类似的工具。这些工具不应该提供给企业,而应该给企业里面的劳动者。

我始终认为,人工智能最重要的价值,绝对不是利用技术,去把原来一个成本10块钱的东西降低到2块钱;而是应该创造一种更重要、更无处不在的价值。这种价值就是所谓的人类和人工智能之间的一种长程的纽带关系。

时间所限,我们今天不能特别多地讨论这个关系,需要说明的是,在超过180亿的交互数据上面,我们发现长程纽带关系已经成为现实。

对于人工智能而言,未来十年最大的价值其实是信任。这句话真的不是很虚的一句话,因为要实现它,需要我们进行很多很多的工作,需要从业者不停地去审视。

我接下来想给大家看一下,在这种信任关系下,我们未来的世界会是什么样子。

去年,我们在日本的一个水族馆里,给每个记者发了一个APK,让他们装载自己的手机里。他们戴上耳机,就可以和小冰一起游览水族馆。在这个过程中,记者们自己去记录一些视频,我们不做任何干预。

最后想跟大家说,只要我们大家一起去努力,未来是非常美好的。

我们希望人类和人工智能在未来十年可以有非常好的交互,人工智能系统本身也会变得更强大。但是它如果往另外一个方向偏向,对任何人都不是一件好事。

谢谢大家!

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...