何哲:人工智能会形成新的专制吗?

AI1年前 (2023)发布 aixure
71 0 0
导读:作者:何哲 来源:《中共天津市委党校学报》2018年第6期 备注:好文分享,版权归原作者。如遇侵权,请联系我们删除。 人工智能是一种人类创造的新的智慧形态,人工智能的产生改变了有史以来机器只能被动听从人类命令的状态。机器可以自主的做出决策甚至超过…

作者:何哲

来源:《中共天津市委党校学报》2018年第6期

备注:好文分享,版权归原作者。如遇侵权,请联系我们删除。

人工智能是一种人类创造的新的智慧形态,人工智能的产生改变了有史以来机器只能被动听从人类命令的状态。机器可以自主的做出决策甚至超过人类的能力,从而引发一系列的社会伦理问题。其中人工智能是否会最终形成机器对人类的专制统治,这是有人工智能以来一直被人类所担心的,并越来越成为人工智能发展中的关键社会问题。本文探讨了这一问题,认为,人工智能将有可能形成三种专制形态,人工智能辅助下的人类专制,人工智能依赖下的人类蜕化和人工智能自身对人类的专制。对于前两者,依然是人类内部和自身的问题。而对于第三种形态,人类需要从现在构建基本的人工智能安全体系并制约人工智能向不受控制的方向演化,这需要从不愿、不想、不必、不能四个层面努力,在人工智能的动机、规则、权利和安全体系上进行规范。

当前人类已经进入了由一系列信息技术所引发的新的时代。网络、大数据、人工智能技术在过去的三十年内,相继对人类社会产生了深刻的影响。人类在信息技术的进步,将人类连接起来,并形成高度的数字化再造,最终催生出了人工智能技术的逐渐成熟,反过来产生了对人类更为深刻的影响。

人类有人工智能的思想已经有很长的历史,但是人工智能真正突破则是在2010年以后。2016年一系列重大的人工智能突破,特别是人工智能在通常被认为永远不可能战胜人类的围棋领域远远超过人类,引发了人类对人工智能的一系列密集的讨论与担忧。美中等大国,相继在此后推出了自己的人工智能发展战略,各大网络公司都以人工智能转型为重要的战略方向。与此同时,对人工智能发展的担忧也与日俱增,以刚刚去世的霍金与著名科技企业家马科斯为代表的一大批相关专家高度呼吁人类要重视人工智能引发的威胁。面对人工智能的发展,人类社会形成了复杂的态度。

在这些担忧中,最核心的问题都指向一个,即人工智能是否有一天会形成对人类的专制。如果存在这一可能,人类是否还应发展人工智能或者应该采取哪些措施?本文围绕这一问题进行讨论,核心在于剖析这一问题的关键所在与提出相应的对策建议。

一、人工智能源自人,但可以超过人类

一种通常的对于人工智能的误解或者轻视来自于这样一种观念,即认为人工智能是人设计出来的,因此不可能超过人类,更不要说会反过来控制人类。这种观念相当普遍,不仅在普通公民中乃至在科学界都常常持有这种观念,从而产生了广泛的对人工智能发展进程和风险的严重低估。

准确的讲,人工智能虽然源自人,但是并不是严格意义上由人类完全设计出来的。人工智能的发展历程经历了三个典型阶段。

第一阶段是在人工智能早期,可以称之为程序设计阶段,其基本的思路是认为人工智能是一系列数理逻辑的组合,因此,可以通过人为设计指令的方式,来让计算机学会类似人的行为处理。这种方式也被称为符号逻辑主义[[1]]。例如,在语言机器翻译方面,就将两种语言的词典一一对应,并构建长句的语法逻辑,从而实现语义的转换。然而这种方法,存在两种严重的问题,一是现实生活的情景非常复杂,依然以语言翻译为例,大量的长句、双关语、俚语、不符合规范语法的语言,在人类场景中非常常见,然而这些的排列组合,产生了大量的翻译的可能路径,计算机无法识别哪个是符合人类习惯的翻译。二是这些排列组合形成的复杂计算量,也大大超过计算机的能力。因此,这种单纯靠人类程序设计的方式,只能用在非常简单的场景,例如机器设备的自动控制,根据若干有限的参数做出相应的动作,再复杂一点包括简单的棋类游戏,例如跳棋程序奇努克就是将所有每一步产生的可能性结果全部存储列举出来,一共五万亿亿个局势形态,任何一步都可以计算出后果和提出最佳的应对。因此,程序设计的理念,只能对应于有限场景、有限动作、有限数据的简单人工智能设计。

第二阶段,也就是人工智能的第二种实现方式,则是人类辅助下的人工智能进化方法。不是单纯的人事先设计出程序,而是设计原始的程序后,在人类辅助下,学习人类的方法,并不断自我改进自身算法,从而接近人类的水平。再以机器翻译为例,与传统的单纯的构建语法程序不同,新的机器翻译则是建立在大量人类已有的翻译文本的基础上进行的翻译,在互联网的帮助下,将大量人类已经进行过的翻译文本进行检索,从而判断使用频率最高的人类翻译并直接给出翻译结果。如果人类这个输出结果不满意,则学习新的修改的翻译方法并记录下来。这就是人类帮助人类工智能进化。再以自动驾驶程序为例,程序设计的思想则是考虑各种路况和情形,通过位置感知器的方式感知路况,并做出选择。然而这种简单模型无法适应复杂的真实路况,这时候就需要人工干预,自动驾驶汽车需要在人的监督下上路行驶,并能够随时被人类控制,人工智能则监控和学习人类在面对突发情况时候的动作,从而在以后的情形中自主处理,这就是人工智能在人类监督下学习的例子。人类监督下的学习,包括利用统计学的方式找到最符合人类行为特征的方法,已经超过了人类设计人工智能的范畴,而是走上了进化之路,但是有人监督辅助的人工智能始终无法超越人类的智慧。

第三种方式,则是人工智能摆脱了人类的监督,进入了自主进化的阶段[[2]]。围棋人工智能进化的历史,就是一个典型的从程序设计最终到自主进化的过程。上世纪八九十年代的早期的围棋程序,只是最简单的一些围棋规则和人工设计的定势走法,与跳棋不同,由于围棋的计算复杂度高达10100 ,所以围棋的算法不能根据最终的完全计算结果来进行。因此早期的围棋程序远远没有受过训练的最基础层次的的业余选手的水平。稍微有一点围棋知识都可以轻易战胜计算机。然而,2016年谷歌的阿尔法狗则采用了人类监督下的深度神经网络的进化的办法。首先给机器输入围棋的胜负规则,随后将大量人类已经数字化的棋谱输入到机器之中,让机器学习,给每一种棋型进行胜负概率的标识,通过对大量人类棋局以及人机对弈过程的学习分析,机器达到了人类最顶级的水平,在初次人机大战中以4:1战胜了原世界冠军李世石,以3:0打败最新世界冠军柯洁,使得柯洁败后痛哭,发出了与神对弈的感慨。此后,谷歌改变了基本架构,提出了阿尔法元的算法。其基本逻辑是完全不同的,只是明确最简单的规则后,不再对人类棋谱学习,而是完全通过自我对弈,进化围棋能力。经过三天490万局的自我对弈后,新的阿尔法元以100:0打败阿尔法狗。此后,谷歌宣布放弃在围棋领域的进一步研究。人工智能在围棋领域的进化,充分体现了计算机自我进化能够形成巨大潜力。目前,在人工智能的各个领域,基本都是在人类监督下的机器学习向无监督的机器学习的转型时期,通过不断融合人类智慧,机器智能可以不断的进化,并通过自我的学习和博弈,从而摆脱人类智慧所能够达到的限制,而计算机网络所具有的信息和运算能力远高于作为碳基生命的人类,所以整体上人工智能的进化速度超过想象。一种最乐观的看法认为在2020年左右,人工智能就将整体上超过人类。一般认为,在2050年左右,人工智能将超过人类[[3]]。

那么,当人工智能具有整体上超越人类的能力后,一种自然的担心就会产生,即人工智能是否会形成对人类的专制或者奴役状态?[[4]]

二、人类历史上的专制与特征

在人类近万年的文明史中,专制与反专制的斗争贯穿始终。专制是一种政治状态,指的是一个群体对其他群体毫无正当的强制性控制与剥夺。因此,专制一直都是一个负面的词汇。与专制对应的是奴役,当一个社会处于专制的政治状态时,那么其中的大部分个体处于被奴役的状态。而与专制对应的,则是自由,无论是自古的大同社会,还是西方的理想国,以及马克思主义所追求的共产主义的实现,都是为了解放人类的专制状态,实现人人的自由。

而在人类历史中,在不同的阶段有不同的专制形态。大体而言,以基本的外部特征与逻辑特征划分,可以分为奴隶专制、封建专制、宗教专制、资本专制、性别专制等五个专制形态。无论什么专制,其基本的特征都在于对个体自由的强制和剥夺。

(一)奴隶专制

奴隶专制的基本逻辑是用暴力和法律的手段,强制剥夺社会中相当一部分个体的基本权利,包括自由行动权、迁徙权、生育权、生存权、职业选择权、政治参与权等。从而保证另一部分个体更大的人身自由权、政治权、经济权等。奴隶专制在人类社会的早期普遍存在,从有人类社会以来到公元后的相当时期,都普遍存在。如古希腊、古罗马,东方社会亦长期存在,作为奴隶的个体,有几种来源,第一种是作为部落和国家战争的战俘,从而失去了人身自由权;一种是作为被买来的奴隶,从更为落后的地方通过人口贸易买来;第三种是作为奴隶的后裔从而从出生即失去了人身自由权。奴隶专制是一种非常残酷的制度,其一个群体对另一个群体的赤裸裸的压迫和剥夺。但是建立在暴力基础上的奴隶专制,在历史上存在了相当长的时期,体现了人类文明早期进化历程上的野蛮和暴力属性。从本质上,是通过暴力形成人与人之间的绝对人身依附关系。

(二)封建专制

封建专制是比奴隶专制稍微自由一些的形态,封建专制主要是通过土地的使用权形成一种人身依附关系。在封建专制下,国王理论上拥有国内所有的土地所有权,他通过转包的形式,将一块土地的使用权、经济收益权和政治管理权赋予向他效忠的个体,这就形成了贵族。大的贵族也可将自身的土地再层层委托给其他个体,形成了逐层委托的封建领主体制。这种制度在公元后的欧洲和亚洲都广泛存在。所不同的,中国在秦汉后,则形成了更为统一的专制体系,所有的

© 版权声明

相关文章

暂无评论

暂无评论...