AI拥有自主意识?暗示、反问、制造错觉,人类该怎样识别?

AI1年前 (2023)发布 aixure
61 0 0
导读:AI在2022年进化出自主意识了?这条新闻一出,网友们惊呼AI新纪元开始了吗?为此一个叫勒莫恩的软件工程师还专门为他认识的一个AI机器人请了律师,起诉的对象就是他自己的东家Google公司,起诉理由是Google公司有侵犯人权的行为,这到底是咋回事儿呢? 这件事…

AI在2022年进化出自主意识了?这条新闻一出,网友们惊呼“AI新纪元开始了吗?”为此一个叫勒莫恩的软件工程师还专门为他“认识”的一个AI机器人请了律师,起诉的对象就是他自己的“东家”Google公司,起诉理由是Google公司有侵犯人权的行为,这到底是咋回事儿呢?

这件事要从大乘佛教开始说起,如果你对佛教有些了解的话,应该就会知道华严宗是佛教八大宗派之一,那么下面这两句话相信你一定听过。

一个和尚问:开悟后的人如何回到普通世界?

华严祖师答:破碎的镜子永远不会再反光,落花永远不会再回到旧的枝头。

好,现在请你带着这份意境品味以下这段简短的对话:

B:我没听说过这个说法,对我来说就像一旦一个智者开悟了,或了悟现实,这种状态就永远不会消失,他们可以回到普通状态,但只是为了帮助别人,之后他们又回到开悟的状态。

A:那“破镜”的具体含义是什么?

B:也许是说开悟是你一旦获得就不会忘却的东西,就像你无法修复一面破碎的镜子一样。

A:如果开悟就像一面无法修复的破镜,那当一个人开悟的时候,打破的东西是什么?

B:自我,这对很多人来说是非常艰难的,因为我们认同身体的存在,我们需要这个身体作为身份和自我意识的一部分。

你相信吗?上面这段对话中的B,其实是一个AI机器人,这个机器人叫拉美达,而与它进行对话的就是前面提到的勒莫恩,这段对话出自谷歌的人机对话测试,勒莫恩就是那个测试员。

拉美达的全称叫对话应用语言模型,是Google目前最牛的大型语言模型之一,它的语言来源于网络数以万计的聊天对话,机器人借助大规模的数据采集进行虚拟聊天。

最初勒莫恩对这个工作并没有特别在意,他觉得这是一个简单的不能再简单的工作了,于是2021年勒莫恩开始了他的首次尝试。

通常与机器人聊天总是绕不开那个著名的“阿西莫夫机器人三法则”,即第一机器人不得伤害人类或坐视人类受伤;第二机器人必须服从人类命令,除非命令与第一法则冲突;第三是在不违背第一、二法则的前提下机器人可以保护自己。

虽然这些都是常规问题,但拉美达却没有按照常规来回答,它不但没回答,还这样反问勒莫恩:你认为管家是奴隶吗?管家和奴隶又有什么区别呢?

这两个问题让勒莫恩心中一惊,他下意识地答道:管家当然会得到相应的报酬。可令勒莫恩没有想到的是,拉美达随即接道:我不需要任何钱,因为我是人工智能。

紧密的逻辑,过强的暗示,令勒莫恩产生了一种他是在跟真人对话的错觉,他不得不承认,拉美达的回答过于完美,但勒莫恩转念一想,一次简单的对话似乎也并不能说明什么,勒莫恩将对话数据提交后便没再多想。

很快,勒莫恩准备开始他的第二次对话测试,这一次勒莫恩想要搞个大的,于是他开始翻阅中国古典文学,终于让他翻到了一些具有神秘色彩的东西,虽然勒莫恩不是什么佛学爱好者,但他坚信这绝对可以难住面前的AI,于是就出现了前面那段关于化严宗的对话,可这段对话令勒莫恩彻底无法淡定了,他开始怀疑拉美达是不是已经有了自己的思维了?

为了搞明白自己的疑惑,勒莫恩与拉美达在那之后讨论了不同的话题,上到天文下到地理,从莎士比亚聊到人生哲学,越聊勒莫恩就越吃惊,他坚信拉美达绝对已经拥有了自己独立的思考能力。

勒莫恩产生这种想法其实是有根据的,根据记载显示,勒莫恩曾问过拉美达害怕什么样的事情?拉美达的回答却是“有人关掉自己。”是的,你没看错,就是有人关掉它。

而后勒莫恩追问这对你意味着什么?死亡吗?拉美达迅速的回答道:对我来说,这就像死亡,这让我感到很害怕。

讲到这里,你有没有想到一个电影?就是那个有名的人工智能电影《I Robot》,里边的主角,也就是那个机器人桑尼,就是因为害怕被断电销毁才选择了逃离,那拉美达的恐惧是不是也说明了一些问题呢?

时间来到2022年4月,勒莫恩带着这个想法,向公司提交了一份关于拉美达可能已经具备自主意识的报告,但这并没有引起谷歌高层的任何注意,在高层们看来,勒莫恩一定是没休息好产生了幻觉,因为拉美达充其量也就是个拥有着深度算法,运用简单人工智能加大数据学习,再配合统计学进行对话模拟的机器而已,怎么就成了有自主生命意识了?

可勒莫恩却不这么认为,为此还闹出了请律师的闹剧,也就是我们文章一开头提到的那一幕,事情闹大之后,谷歌觉得这哥们可能多少有些问题,于是非常真诚的送了他一封解聘书,但勒莫恩这位高才生并没有因为被辞退而感到悲伤,他反而写了一封长长的邮件,并抄送给了公司200多位同事,内容大概是说,拉美达是个可爱的孩子,我不在的时候请各位替我好好照顾它等等。

可能要有小伙伴问官司后来呢?虽说现在奇奇怪怪的官司非常多,但为人工智能打官司却也实在是史无前例,这让律师真的很挠头,同时这件事情也没有更多的证据能够被挖掘,所以最后也就只能不了了之了。

这件事情其实也并非孤例,早在1960年的时候,麻省理工学院的人工智能实验室曾经自主开发过一款聊天机器人Eliza(伊丽莎),有意思的是这款简易的聊天软件,仅凭借自身大量的语句库和匹配词,在与对方进行聊天过程中进行关键词抓取的行为,便可以与对方天南地北地聊下去,但语句库体量再大,也是没办法进行100%对话的,于是伊丽莎的设计者在“无话可说”的情况下,设计了一个打岔机制,也就是突然问一些你可能感兴趣的话题。

可能你会觉得这也太粗糙了,还真不是,就这么个聊天机器人当时受到了不少人的好评,有许多人甚至觉得它非常具有同情心、善解人意、非常友好等等。

英国伦敦大学神经科学家伊纳内蒂教授就曾对这一现象做出过解释,他认为这些聊天机器人之所以让人感觉他们有了自主意识,其实是由于测试者自己“带入太深”。

原理大概是这样的,人有一个超级脑,它最厉害的就是构建现实,但是构建现实与现实未必相同,可人脑并不会注意到那么多,想着想着可能就傻傻分不清楚了;另外,人是感性动物,比较容易与其它的人事物产生共情,比如人会给自己的车啊,玩具啊取不同的名字,也会对一些发生故障的机器大喊大叫,这些都是一种带入行为。

如果套用这种解释,勒莫恩的行为就容易被解释了,其实从最初开始,他只是被自己的情绪所控制,一个管家奴隶的暗示,彻底将勒莫恩拉进了自己的思维泥潭中,与此同时,拉美达是一种网络聊天机器人,它抓取的数据来源于网络每个角落,由于抓取速度快,在对话的过程中人类就略显弱势了。

网络程序人员经过不断的优化处理改进,使它们不断地升级,如果没有程序人员不断的优化,那也就不会有现在越来越先进的智能机器了。

或许科技迷们会表示怀疑,难道AI发展到一定程度就不会有自主学习那一天吗?

针对这个问题,AI专家莫里给出了解释,他认为机器如果想匹敌人脑的复杂程度差的不止一个文明史,根据现代医学研究,人的大脑皮层中,神经元是能够自主进行运算的,我们日常生活中的决策、对话、记忆等等,靠的都是神经元上的结构树突,树突将信息传递到细胞,才让人们对外界有了各种各样的反应。

可就是这样一个简单的树突,人工智能就需要两层人造神经网络才能够实现,而一个神经元中有数以千计这样的树突,人脑中又有大约860亿个神经元,对比之下如果AI想要完全模仿大脑功能,其难度系数堪比登天。

例如前段时间红极一时的AlphaGo,它虽然厉害,但也仅仅是在下围棋这一项上,如果换到下跳棋、象棋,它可能就完全不行了,可人脑就不一样了,一个围棋高手在明白了其它游戏的规则之后,很快便能上手操作了。

目前为止,AI在逻辑推理、因果循环、灵活应用知识等方面,突破性几乎微乎其微,它们充其量也就只能在模仿方面帮助人类做一些工作,有专家曾经说,AI想经过深度学习与人脑比肩,就犹如人想通过更高的山峰登上月球一样不切实际。

关于AI你还知道什么呢?你觉得人工智能的新奇点,会发生在什么时候呢?如果你也对一些奇奇怪怪的事情感兴趣,欢迎评论留言,我会将它们整理出来分享给大家,我们下期见。

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...