最后的大事件:人工智能时代的人类命运

AI8个月前发布 aixure
14 0 0
导读:2015年5月的一天,一个朋友圈信息引起我的注意,中国科技大学金帆教授发表了一个题为《生命是什么从理解到设计》的主题演讲。金帆教授毕业于香港中文大学化学系高分子物理化学专业,获理学博士学位,目前是微尺度物质科学国家实验室负责人。金帆教授讲:人类…

2015年5月的一天,一个朋友圈信息引起我的注意,中国科技大学金帆教授发表了一个题为《生命是什么——从理解到设计》的主题演讲。金帆教授毕业于香港中文大学化学系高分子物理化学专业,获理学博士学位,目前是微尺度物质科学国家实验室负责人。金帆教授讲:人类终将毁灭于自己的求知欲。合成生物学将在未来50年内,彻底改变人类对生命的认识,生命系统和非生命系统将不再有明确的界限。非常巧合的是,5月15日,英国《每日邮报》刊出著名物理学家史蒂芬?霍金教授预测,下个世纪(2100年—2200年)人类将面临比人类更智能的人工智能的崛起。

很多人一提到人工智能,就会想到机器人。其实机器人只是人工智能的一个表现形式而已,或者说,只是人工智能的一种(有千万种)承载物而已。要了解人工智能对人类未来的影响,我们还必须以现代科技为基础,并在可以预见的发展前景中,从多方面讲述人工智能的发展及可能。

人工智能(Artificial Intelligence) ,英文缩写为AI。是计算机和生物科学的交叉学科,目前通用的定义是研究开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。上面这段话是目前学术界对人工智能的官方描述,换成通俗语言描述,就是计算机技术和生物科学技术交叉在一起,去研究制作出“新型人类”。

一直以来,人工智能都被赋予正面的积极的定义,乐观者认为,这代表着人类科技的进步,而且将解决人类健康、疾并生命和遗传等诸多科技领域的难题。可以预见的未来是,人工智能将最终实现众多人类数千年的追求和梦想。

试想一下,2200年前的秦始皇,他梦寐以求的长生不老之术,在未来的科技中得以实现——用基因技术设定基因,用基因组成细胞,用细胞构筑器官,再用器官组成人体,并通过合成生命技术控制DNA及RNA序列,保障人体不会向疾病和衰老发展,或者说,人类可以改变细胞组成,保证人体的器官组成永远是年轻和健康的。

接下来,一个可逆的过程是,秦始皇真的得以长生不老,他不过是在秦陵下睡了2225年,然后通过超级计算机运算,将他保存完整的躯体进行庞大的数字虚拟解剖,分析出他的身体构成,然后通过氮、氢、氧、钙、铁等60多种生命元素重新组合,重新制作秦始皇的肉体甚至唤醒他的思维,他得以重生。当然,一起复活的还可能有图坦卡蒙和列宁同志。

这是一个多么不可思议的未来,很多人都无法理解那将是什么结果。深度的思考之后,我们似乎不应该乐观,人工智能呈几何级数的爆炸式发展,似乎对人类自身并不是一件好事,甚至,可能是一场灾难。(2015年5月18日2:08)

从《物种起源》说起

1859年,达尔文发表了《物种起源》,这部书足以影响人类文明的进程。在此之前,西方世界深信上帝造人,而东方世界,几乎每个民族都有一个本民族起源的神话故事。而达尔文的著作一经问世,立即引起了欧洲社会的轩然大波,并且彻底改变了人类对宇宙、对世界、对自身、对未来的认知。

《物种起源》的核心观点这里不再论述,我们着重谈达尔文在这部书中隐藏的几个暗语:

1、物种的进化是个无序的过程,它从来没有事先设定好方向,而只是随着自然条件的变化而“天择”;

2、物种的进化还可以“人择”,也就是人为干涉进化的过程。

3、达尔文无法解释的“自然界的跳跃式”进化。

4、物种的进化一旦进入轨道将不可逆。

5、天择和人择的本质都是资源的竞争,一旦某一物种的存在和扩大,影响到另外物种的生存,物种间将进行残酷的淘汰赛。

当我们透过达尔文进化论的宏观定义,发现上面的五个隐语,在人工智能即将到来的前夕,我们再来看看人类文明的进化和人工智能能否与人类和平共处。

按照中国科技大学金帆教授的阐述,未来生命和非生命将不再有明显的界限,所有的生命体和非生命体,统一表述为自然界的原子和分子,甚至更小的单位。在合成生命时代,人类与人工智能,人类智慧与后人类智慧,不仅没有界限,而且是互通互联的,甚至人工智能之间也是互通互联的。也就是说,人类在亲手培养了狗、骡子、狮虎兽、转基因大豆、人造酵母和细菌以及有人脑细胞的“聪明的”老鼠,现在,人类即将培养出比人类智能高出成千上万倍的人工智能。

物种的进化是无序的,没有一只上帝之手在事先就计算好进化方向,并且严格规定进化的节奏和快慢。也就是说,进化可以进化出符合人类生存条件的物种,也可以是不符合人类生存条件的新物种或者亚种。而进化的时间,可以是几亿年,几千万年,也可以在很短的时间内完成。

汽车发明于1885年,仅仅过了90年,上世纪70年代,各国就开始研发无人驾驶汽车,最终于2015年,谷歌公司推出全球领先的无人驾驶汽车,这距离汽车发明仅仅过去了130年,这中间还发生了两次世界大战和美苏冷战。如果没有两次世界大战和冷战时期的滞缓,恐怕时间更短。我们怎么理解无人驾驶汽车呢,如果说在驾驶汽车阶段,我们还可以把汽车理解为是人类出行的工具。但无人驾驶汽车已经脱离了简单的工具范畴,变成“人工智能马”或者其雏形了。也就是说,人类已经创造出马匹的“现代智能版”。结果显然,马类物种的宿命就很明确了,除了在马术馆,骑术场,零星的草原地带,我们还能看见多少马匹?现在我们去内蒙古,不会轻易看到牧民骑马牧羊的诗意画面,羊还在牧,但牧民们已经骑着摩托开着汽车去牧羊了。

我们继续设想,在未来,飞机是不是也会无人驾驶,回答应该是肯定的。2015年3月24日,德国汉莎航空由于副驾驶的恶意坠机导致的恶性空难,将飞行员思维的不确定性再一次推到舆论的风口浪尖,无人驾驶飞机的命题被再度热炒。实际上,无人机在军事侦察、航空拍摄、地质测量等领域,已经先于民航系统成熟已久。那么,未来人类会不会坐上无人驾驶的飞机,按照预先设定的跑道滑行,然后按照预先设定的程序起飞落地呢?这大概就是“人工智能鸟”(或者雏形)了吧。

达尔文在进化论里,谈到“物竞天择”,也谈到“物趋人择”,他谈到人类饲养的家鸽和对狗的驯化,当然这还是在物种本身的习性和适应性上的改变。未来一旦人类可以干预或者重新定义物种,就如罗彻斯特大学的一个研究机构,在老鼠的脑内注入人体中枢神经胶质细胞(脑细胞),让它变成“聪明的”老鼠,研究的本意是了解人类脑细胞进化的过程,但科学家从来不去管由此带来的伦理、道德和法律的颠覆。试想,如果让老虎鳄鱼拥有了“类人类智慧”,这样的人为干预,又将如何呢?

事实上,在农业科技方面,这样的人为干预基因技术已经比比皆是。一年多前,央视崔永元发起的对人类转基因食品的质问,至今没有答案。这些转基因作物,是人类通过基因重组和变异,干预自然物种进化的明显例证,谁能明确告诉消费者,吃下这些转基因农作物,对人类的未来意味着什么?

而这些基因转换和生物合成技术的发展,迄今也不过几十年。达尔文在《物种起源》里反复说的,物种的进化是漫长的,可能经过几亿年,几千万年,几百万年才能有一个质的变化。在他生活的时代,他的这个论断是可以理解的。1859年,还没有电灯,电灯是1879年,也就是《物种起源》发表后20年后才发明出来,而电脑和生物化学技术则更晚。达尔文没有想到的是,决定进化的关键科技——基因工程技术,已经在他死后的不长时间里方兴未艾。他如泉下有知,肯定会在修订版中加上一句:进化的过程是漫长的,但如果有外力干扰基因重组,基因变异的发生就是瞬间的,一个物种可能会在很短的时间产生,另外一个物种会在很短的时间消亡。

而这种物种突然爆发或灭绝的原因,成了达尔文在《物种起源》这本书里留下的唯一遗憾,他没能解释出远古时代的某些物种进化过程中明显的不连续性和跳跃性。这也给了后代生物学家们很多机会。1972年,N.埃尔德雷奇和S.J.古尔德共同提出“间断平衡”的进化模式来解释古生物进化中的明显的不连续性和跳跃性。这个理论的核心是,在某个“物种形成事件”的作用下,新物种以跳跃的方式快速形成,一旦形成之后,新物种处于保守和进化停滞状态,一直到下一个“物种形成事件”的到来。

这个理论,很好的解释了地球寒武纪(距今5亿年)生命大爆发的现象。也就是说,寒武纪有一个“物种形成事件”促使众多物种的产生。我们知道,影响地球物种变迁的几次大的“物种形成事件”,最少五次的冰川融化(冰河纪结束),超级大陆潘诺西亚的分裂,大陆漂移,小行星撞地球,大陆板块的碰撞等等,这些重大的“物种形成事件”,促使地球一次次的爆发出多样性的动植物物种,也一次次地轮换着地球的主人,从无脊椎动物时代,到爬行动物时代,到恐龙时代,到哺乳动物时代,直到现在的人类时代。

那么,下一个地球“物种形成事件”会是什么呢?人工智能的产生会不会是这个大事件?人工智能会不会替代人类成为地球的主人?人类会不会灭亡呢?

地球脑vs三体世界

长期以来,美国的科幻作品一直在全世界独占鳌头。而根据这些科幻作品改编成的好莱坞大片如《超人》《星球大战》《黑客帝国》以及去年的《星际穿越》等等,堪称不世出的经典。而中国山西作家刘慈欣的《三体》,则是让中国科幻作品第一次,也是非常抢眼的一次登上世界舞台。这部迄今为止中国科幻小说发展史上巅峰之作,一经问世就令全球“科幻迷”脑洞大开。据悉,该书已于2015年2月20日获得美国科幻奇幻协会“星云奖”提名。

在科幻作品分类中,《三体》属于硬科幻文学。所谓硬科幻,就是以科学科技为基础的猜想推动情节。书中到处洋溢着对科学精神的尊重和推崇,叙事手法追求科技的进步和细节,笔墨所至,都是以人类目前科学体系认同的基础理论为出发点,去猜想未来发展的可能。

因此,在看这部小说的时候,就会让人有种亦真亦幻的感觉,有种聆听未来人讲故事的感觉。故事主线围绕外太空三体文明和地球文明的碰撞展开,在作者构建的异常庞大的叙事体系中,故事的发展几乎触及了目前人类所掌握的大部分学科,并由此形成了近乎无可置疑的对未来描述。

这里先撇开《三体》的故事情节和对未来世界的描述,在读过这部小说的读者心目中,以下四点是有共识的:

1、外星文明存在的可能性极大;

2、我们自以为是的地球文明,与宇宙中存在的外星文明相比弱爆了。

3、不要尝试去联络外星文明。

4、地球文明将以“地球脑”人工智能的形式对抗外星文明,这一天即将到来。

美国宇航局(NASA)曾经给宇宙拍过一套全景的照片,在这组照片中,我们的银河系连一个像素都占不到。在目前人类已经发现的1250亿个星系中,我们地球,或者说太阳系,都只是沧海一粟。1960年,美国加州大学天文学家弗兰克·德雷克提出推测外星文明存在可能的公式,根据这个公式,他预言,可能约有4000个外星文明体系存在。相比外星文明,地球文明现有的发育程度,似乎无法与之相比。

根据大爆炸理论,目前宇宙的年龄约为137亿年,一般认为地球的历史仅有46亿年,而人类开始创建地球文明,也仅仅有两万年的时间。很难想象与此同时,宇宙内的外星文明已经进化到了何等程度,而且进化的速度会呈裂变式的加速(详见下文)。所以我们几乎可以99.99%的认定,外星文明一旦被发现,地球文明几乎不堪一击。

所以一个担忧出现了,我们要不要去尝试联系外星文明?1972年,美国实施了监听恒星间无线电信号的“奥兹玛”计划,1974年,向武仙座拍发了间短的电报。各个国家则争相将本国音乐放入太空。对此,物理学家霍金教授相当担忧,他认为外星文明存在的可能性非常大,人类不要尝试接触,否则异常危险。这正如《三体》所讲,在宇宙的黑暗森林体系中,持有毁灭性武器的两个文明一旦发现对方,必须第一时间摧毁对方,这是文明自保的选择,此外别无选择。

在《三体》中,地球文明被三体文明发现,三体文明立即封锁了地球科技,并向地球进发,即将毁灭地球文明。主人公明知地球文明无法与之抗衡,无奈发送宇宙引力波广播系统,让更高级的宇宙文明发现并摧毁三体文明,当然地球文明也将同归于荆三体文明为了自保,停止了对地球文明的进犯,并解锁地球科技。但最终,星外文明还是摧毁了三体世界,庆幸的是,它们没有发现地球文明,地球文明得以保全。

在未来星际文明间的战争中,地球文明肯定不是某个国家某个组织的行为,它要求我们全球人类组合在一起,也就是数十亿上百亿人,合为一体,这种合体的方式,就是“地球脑”概念。其实“地球脑”的思想,远在古希腊神话中就有萌芽,在印度教的等级制度中,也有描述。而真正成熟起来并形成一种理念,源自1983年彼得·罗素的《地球脑的觉醒》一书,这个观点的核心是,在未来人工智能时代,地球的每个人不再是单一的个体,而是通过人工智能联接,组成一个“地球脑”。也可以这么理解,地球的所有人类,共同组成一个大脑,每个地球人,只是这个大脑的一个脑细胞。

这有点匪夷所思,那么大的一个人,怎么就成了细胞呢。不过大家冷静想想,我们现在出现的人工智能穿戴设备,大数据技术,云技术,手机及计算机通过互联网全球联网,这不就是“地球脑”的雏形吗。而一旦互联网技术和人工智能设备(穿戴,手机,计算机,甚至植入式芯片)突破了一个层级,将全球人类联系成一个“地球脑”是完全可能的。这里,还包括人类正在研制的人工智能,这类人工智能的加入,将几何量级的提速地球文明进程,并将人类自身将沦落为“低等细胞”甚至被迅速清除。

人工智能为主导的“地球脑”形成之后,将会发生什么呢?我们有理由猜测,一,寻找外星文明变得简单容易,“地球脑”甚至可以拥有外星文明的“通讯录”。二,发动太空文明间的战争,毁灭对方或者被毁灭。三,如果得以幸存,被下一个更高等的文明毁灭。

最终,“地球脑”与“三体世界”的对决,注定毁灭地球和人类。

这个结果当然不是我们想要看到的,但这似乎就是目前人类研究人工智能的未来。一个趋势的来临,我们无法阻挡,就像“曼哈顿计划”中少数知情的科学家反对核武器的研制,但核武器还是被发明出来并用于战争。我们不知道核武器和人工智能对人类意味着什么,是“潘多拉盒子”还是“属灵的恩赐”。但它终究要来,而且很快到来。

“吓尿指数”与文明进化的速度

现在的智能手机上,都有一个功能,自动定位系统,朋友圈里经常有朋友发个图片或者视频,然后定位一下,以佐证我在哪里,看到了什么,正在发生什么。

其实人类的潜意识中,都会经常关心“我在哪里”,因为我们只有知道了“我在哪里”,然后才能知道“我去哪里”和“我怎么去”。所以我们看旅游指示图,都是先找到“我”在哪里,然后再去找目的地在哪里。如果人类文明的发展,也有个路线图,我们是不是也要思考一下,我们现在在哪里呢?为了直观的理解这个想法,我们引入一个概念:“吓尿指数”。

虽然名称略有不雅,但它非常传神的描述了我们人类从直立行走开始,到今天21世纪的文明发展脉络,同时也预示着未来文明进程将何等快速地发展。顾名思义,吓尿,就是吓得尿裤子。最早提出“吓尿指数”概念的是美国未来学家科兹威尔,这个概念假设若干年前的古人,可以穿越到今天,他如果被吓尿了,那么他距离今天的若干年,就是我们这个世纪的“吓尿指数”。现在,这个概念常用在未来学研究以及物理、化学、生物等领域的研究。

目前,学界公认的21世纪吓尿指数是265,也就是1750年的人穿越到今天会被吓尿。为什么是这个时间呢,因为这个时间前后,1733年凯伊发明了“飞梭“,1765年哈格里夫斯发明了“珍妮纺纱机”,1785年瓦特制成了“改良蒸汽机”,人类进入“蒸汽时代”,第一次工业革命开始,从而打开了现代文明发展的闸门。

而在中国,1750年是清乾隆十五年,这一年,电和蒸汽机都没有发明,清帝国还处于农耕时代,冷兵器时代末期。我们邀请乾隆朝最博学的一位大才子——纪晓岚先生穿越到今天,这一年他26岁,饱读诗书,见多识广。纪先生穿越到2015年,看到满街跑着铁盒子,里面坐着人。人们拿着一个黑色的方块物体就可以和远在万里之外的人说话。人们住着方块状且分了层的人造山峰里,有铁盒子可以将他们送上去运下来。回到家里,人们打开一个黑色薄薄的方块物体,就可以看到人影听到声音,还能看到几万公里外正在进行的蹴鞠比赛……太神奇了,他被彻底吓尿,这些人还是我大清臣民吗,仅仅过去了265年,他们怎么有如此“奇能异巧”,怎么能这样的生活!

纪先生非常不服气,回到1750年后,他决定也找个古人,邀请到1750年,把他吓尿一次。他翻阅文献资料,发现有文字记录的人类历史,都不会被1750年吓尿。最后他选择到12000前的人类,12000年前,人类社会处于新石器时代,开始第一次农业革命,刚刚结束狩猎采集的生活,从事初级的农业和畜牧业。但没有城镇,文明刚刚起步。来自12000年前的古人看到1750年大清帝国的子民,穿着漂亮的衣服而不是兽皮,吃着煎炒烹炸的美味而不是火烤,住着雕梁画柱的房子而不是草棚,坐着快速省力的马车而不是奔跑,在战争中用铁矛刺穿敌人而不是用石斧砍,过海的时候可以有大宝船而不是竹筏——他被吓尿了。

以此类推,向前和向后,我们估算出下面的数据:

我们看这个指数,可以很清晰的看到文明的进程呈加速递进,文明发展的速度越来越快,前文提到的未来学家科兹威尔先生把这种文明加速发展称作加速回报定律,虽然我们还无法确知这个指数之间有没有可以换算的加速度衡量,但这不影响我们对文明进程发展的预估。我上高中的时候英语课本中有篇课文,讲的是未来人的一天,是个科幻题材的文章。开篇说“在没有医生护士在身边的时候做一个体检”“在家里就能从图书馆借到书”“在家里就能购物”,这就是未来人类的生活。每每想起这篇课文,我就很感慨,那时候的科幻,仅仅过去了25年,就真实的出现在我们面前——今天,远程医疗,远程教育和电子商务已经遍地开花。

绝大多数朋友可能会觉得人工智能离我们很远,那个时代也距离我们非常遥远。但我们绝不能错估文明发展的加速度。我们都有在机场等飞机的经历,等待的时间,左等右等非常慢,但一旦坐上飞机,它启动引擎滑向跑道冲上蓝天,两个小时后,我们就会在几千公里之外的地方。这就像是人类文明的进程,今天的我们对未来也许一无所知,就象当年博学的纪晓岚,或者再晚一点,距今不到100年的民国时期的大师大家们,没有一位在其著作中预言或者描述未来几十年人类的生活状态。再想想我们最早使用的家用电脑吧,从486和586,发展到今天的酷睿系列八核处理器,这也就是20多年的时间,而其性能早已不可同日而语。

所以,我们可能真的要听听霍金教授关于“未来100年到200年,人工智能将替代人类”的预言,起码我们目前找不到反驳的理由。

可以说,人类文明进程的闸门一旦开启,就如同脱缰的野马,一日千里,绝不停留片刻。处于21世纪的人类,无论是发达国家,还是发展中国家,都在所有领域鼓励科技进步,技术进步,追求创新。在国家利益、商业经济和市场渴望这三驾马车的驱动下,科学界对各学科的探索达到了前所未有的癫狂状态。仅以中国为例,世界知识产权组织(WIPO)2014年的报告统计,2013年全年,中国申报专利总数量为257万件,这就意味着,全年每12秒就有一个新专利申请。同时,因为文明是可以共享的,在共享的基础上,众多文明成果之间可以交互作用、交叉激活和组合衍生,而这种交叉衍生,将逐一迈过人工智能产生和发展的关键门坎,一旦这些难题被破解,人工智能将无法阻挡的来到我们面前,并呼啸而去。

深蓝、诺贝尔医学奖和3D打印

人工智能是有门坎的,但这些门坎并非不可跨越。而当人类文明一旦跨越了这些门坎,未来将会是一片光明呢?还是遁入黑暗?

记得在1997年,中国人忙着庆祝香港回归,而在大洋彼岸的美国,却进行了一场震惊世界的比赛。由IBM公司设计的“深蓝”计算机与国际象棋冠军卡斯帕罗夫进行了一场人机大战,结果“深蓝”以3.5:2.5取胜。赛后,IBM方面透露,“深蓝”被输入了一百多年来全球优秀棋手的两百多万对局,每秒钟可以计算2亿步。人类顶级大师在下棋时最多可以估计到后10步,当时的深蓝可以估计到12步之后。

计算机的胜利,标志着人类在国际象棋领域,输给了自己制造出来的人工智能。只可惜,当时这条新闻被放在了体育新闻和科技新闻中,人们短暂的惊讶和欢呼之后,都选择了将之遗忘。

一起被遗忘的,还有诺贝尔奖。每年诺奖开奖之际,全球瞩目。然后就在很短的时间内将诺奖得主的名字遗忘掉,更将他们的获奖原因丢在脑后,我们一起回忆一下诺贝尔医学奖近三年的得主及其获奖原因。

当我们把近三年的诺贝尔医学奖获奖者列在一起,我们有两个惊奇的发现,一是当今医学界的顶级科学家们,已经在细胞和细胞核的领域进行着如此深入的研究。二是获奖人数众多,无论在美国、英国、德国、挪威、日本,全球的顶尖科学家们都在不约而同的研究同一课题。

同一课题被全球各地的科学家同时研究的,还有一项技术,那就是3D打印技术,3D打印技术起源于1986年,美国发明家查尔斯·霍尔制造出人类历史上首个3D打印机,他也因此被列入美国发明家名人堂,与爱迪生、莱特兄弟、贝尔齐名。从那以后,数以千万的全球科学实验室、公司研发中心和科技创业者,不约而同地将目光盯上了这种人类前所未有的打印技术。仅中国,目前已经上市的3D打印技术概念股票,就有39种之多,他们可能是中国民间研发3D打印技术几千家公司的代表。

截止到今天,3D打印已经可以打印出汽车、比基尼、巧克力、飞机模型、人造肝脏、人造心脏(均以人体细胞为材料)、复杂的艺术品、金属手枪、牙齿、人体头盖骨、人体手掌、乐器、喷气式引擎、火车车厢等等诸多产品。如果说3D打印可以打印出巧克力和汽车甚至手枪,这无非是科技的进步和生产技术的飞跃,但当我们看到可以用人体细胞打印出人造肝脏和人造心脏,以及人体头盖骨、牙齿甚至整个的人体手掌的时候,不知道您会想到什么?

当然,我们说到上面的深蓝、诺贝尔医学奖及3D打印技术,绝不是简单的科技八卦。实际上,这些技术的发展,就是人工智能产生的重要门坎。也就是说,当我们人类文明,将计算机存储识别运算技术、合成生物技术、纳米材料打印技术等诸多领域取得进一步突破之际,人工智能时代将全面到来。

虽然,我们很庆幸的是,在人类还没有做好心理准备迎接人工智能时代到来的时候,这些技术也是处于萌芽状态。比如电脑还无法具备人脑的全部特别是高级(或者最基础)的功能,它可以存储数十座图书馆的藏书,中国的天河2号计算机可以进行每秒3.4亿亿次的运算,但电脑很难识别出一只跑过去的狗狗,是阿拉斯加雪橇犬还是哈士奇,也很难做出比如眨眼、缩手、打哈欠等下意识的人类基础指令,但科技的进步一项项地把“人工智能”引导到接近直至超越人类自身的水平,举个例子,人脸识别技术就已经趋于成熟,目前被用在部分国家的出入境检查当中。而在计算机存储和运算领域,我们则完全可以理解,在计算机技术飞速发展的今天,电脑每隔一两年甚至几个月就落伍淘汰的现实,就是活生生的例子。

对比计算机技术的快速发展,合成生物学及3D打印技术,则相对显得闷声不响并进展缓慢,但是我们前文所说的中国科技大学的金帆博士,已经预言生命合成将在未来50年内彻底改变人类对生命的认识,是建立在国际医学、生物化学及生命科学的科研进展基础之上的,这绝对不是一句空话。同时,3D打印技术已经在全球的科技界遍地开花,纳米技术实验室也几乎分布在全球的科研机构和大学,科学家们都在争抢着向前飞奔,希望将自己的名字写入3D打印的历史,或者纳米技术的历史。

2013年,英国牛津大学人类未来研究院院长、哲学教授尼克·博斯特罗姆做了一个调查问卷,被调查者是数百位人工智能领域的专家。问卷的统计令他本人都非常吃惊,如果说我们人类目前处于弱人工智能时代,那么最悲观的(最晚的)估计是有90%的可能在2075年人类迎来强人工智能时代的到来。他也因此写下下面这段话:

人类可能毁于自己之手,因为人类科技的发展而带来的危险,人类正陷于灭绝的危险之中。而最为糟糕的是,目前人类对此知之甚少,而且大大低估了这种风险。

而当这些技术的门坎被逐一攻破,我们将不得不接受这样的现实:在未来的几十到一百年间,超级运算、存储和识别的计算机系统,设计出超智能生物的模型,在超级生命合成科技的指导下,干预和重组细胞核(DNA),由(纳米)3D打印机(应该叫生物制造机了),复制出等同于人类智能的“人工智能生物”,然后他们开始自我进化和生产,并在很短时间创造出高出人类智商数万倍的“强人工智能生物”。并且,他们具有独立思维和独立行为,但没有情感、道德和法律。他们将开启“人工智能”的“后人工智能时代”,而他们的母亲——人类——将被他们无情的踢下物种的舞台!

如果你今年20岁,也许你会亲眼看到这一天的到来!

爱因斯坦的求助信

2013年美国《财富》杂志年度商业人物,特斯拉汽车CEO埃隆·马斯克曾经说过这样一句话:人工智能可能比核武器还危险。而斯蒂芬·霍金教授则更直截了当:“强人工智能会是人类历史上最重大的事件,不幸的是,它也可能是最后一个大事件。”

当人工智能即将来临前的几十年,我们人类似乎还没有对强人工智能的到来做好准备,甚至很多人都不知道它是什么。但我们知道核武器,知道目前全球拥有的核武器足以毁灭地球。那就让我们回过头来,看看马斯克眼中,比起人工智能还不算最危险的核武器的发展历程。

1939年8月2日,爱因斯坦给时任美国总统罗斯福写了封求助信,信中,他主要向罗斯福说了以下几个问题:

1、德国正在研制核武器,美国必须抢在德国之前研制出来。

2、由此引发的许多问题,我们要提高警觉性,建议罗斯福派一位最信任的人来领导美国的核武器研制工作。以便美国政府随时掌握核武器研制的进程。

3、请求提供经费。

罗斯福接到爱因斯坦的信后,反复思量,举棋不定。最终在1942年,决定使用军队管理的最优先级,全面开启美国研制核武器的计划,这就是后来载入史册的“曼哈顿计划”。

1945年8月6日和9日,当爱因斯坦听到美国在日本的广岛和长崎投下两枚原子弹,对平民造成巨大的毁灭性伤亡之后极度震惊,他不无遗憾的说:

“我现在最大的感想就是后悔,后悔当初不该给罗斯福写那封信……我当时是想把原子弹这一罪恶的杀人工具从疯子希特勒手里抢过来,想不到又将它送到另一个疯子手里。”

当然,历史证明,“疯子”罗斯福手里有了原子弹,比疯子希特勒要好10000倍。

历史过去了70年,站在2015年的我们,回首核武器的发展历程,至少有7次,它威胁到人类生存的安全,甚至差一点毁灭地球。

1、假如纳粹德国先行研制出原子弹(事实上,德国1928年就启动了核武器研制)。美国、前苏联,中国、欧洲大部分土地将陷于沉寂。

2、假如当时投放日本的原子弹加大了威力(当时并不知道它有多大的威力)。将彻底摧毁东亚乃至太平洋国家。

3、冷战时期,1962年古巴“导弹危机”。美苏双方在核按钮旁徘徊不定,差点毁灭地球。

4、1986年4月26日,前苏联(乌克兰)切尔诺贝利核泄漏。造成4000人死亡,辐射尘飘至欧洲大部分地区,在此之后的数十年间(2065年前),将有几十万人因此患癌死亡。

5、2011年3月12日,日本大地震引发福岛核电站泄露,污染波及东亚各国及太平洋水域。

6、伊核问题,当与美国反目成仇的人手持核武器……,好在2013年,伊朗与六国(美俄中英法德)签订“日内瓦阶段协议”,伊核问题全面解决出现转机

7、朝核问题,当脾气暴躁并敌视全世界的人手持核武器……想想都可怕。

以上几次事件,有的已经过去,有的还未解决。几乎每一次,地球和人类都是从鬼门关前惊险逃回,我们不知道下一次由于核武器而引发的人类危机在何时何地何人之手。

亲眼目睹了核武器对人类的毁灭威胁之后,在核武器诞生后的70年内,人类为一种武器前所未有地抓紧进行修补工作——制定和成立各种法律、国际组织、条约、公约,以限制和管理核武器的研制、开发、转让和使用。

1946年,战后一年,美国颁布《1946原子能法令》,全面指导和规范美国原子能发展。

1956年,联合国成立国际原子能机构,随后几十年陆续制定了《核安全公约》等若干个国际公约。

1968年,美苏英等62个国家签署《核不扩散条约》,并于1970年生效。

1996年,第50届联大通过《全面禁止核试验条约》。

这里特别提到四个国家,印度、巴基斯坦和以色列,拒绝加入《核不扩散条约》。朝鲜民主主义共和国于1994年退出了国际原子能机构,并于2003年退出《核不扩散条约》。以上四国,印巴朝鲜成为目前非法拥有核武器的国家,以色列则与伊朗、日本、德国以及前苏联解体后的部分国家成为匿核国家。

回顾核武器的产生及战后70年对于核武器的管理过程,我们发现这样几个事实:

1、核武器是伴随着科技的进步,不可阻挡地出现在人类社会中的。在爱因斯坦提出《相对论》以及约里奥-居里(居里夫人的女婿)发现了铀的链式反应之后,核武器的出现只是时间问题和被谁掌握的问题。

2、在核武器引爆之前,人类(包括爱因斯坦这样的伟大科学家)都无法预知核武器对人类的危险究竟有多大。

3、在目睹了核武器的威力之后,人类才匆忙开始成立和制定各种管理组织和限制公约。

4、时至今日,70年过去了,人类仍旧无法全面彻底管控核武器。(朝核问题)

5、科技的发展,让许多国家可以在一夜之间拥有核武器。(日本、以色列、伊朗等国)

我们回顾核武器的发展,同时再想到人工智能。如果说人工智能现在已经预见到对于人类的危险,我们应该及早的进行相关法律、国际法、公约和条约的制定,各国政府应该组建相应的管理机构,国际上应该有类似“国际原子能机构”的“国际人工智能机构”来协调管理和指导人工智能的科研和制造。而不是象对付核武器一样,在研制成功之后才匆忙想起管理,因为强人工智能一旦产生,根本不可能给人类70年的时间。

这些人工智能的管理机构和法律,应当以超出本国政府管理权利之上的优先权管理全球人工智能的科研和发展,以保证人工智能的发展速度符合人类的需求(人类可以接受的速度),并且对人工智能的研发方向做以明确的指导,并对人工智能的智慧水平和行为能力,加以严格限定。

上面这段话,也许是撰写本文的终极思考。正如前文提到,核武器是人类科技进步到那个阶段必然诞生的一样,人工智能在人类科技到达了一定程度之后,无论怎么管理,终有一天,它还会呱呱坠地。因此,如何防范危险,把握人工智能发展的方向和节奏,就显得尤为重要。

玛雅预言和霍金的警告

在玛雅人的历法中,人类社会发展史被分成五个“太阳纪”,2012年12月21日是第五太阳纪的最后一天。所以有人误解说,这一天是玛雅人预言的世界末日,甚至被美国人拍成了电影《2012》。今天看来,所谓“玛雅预言”(特指末日说)只不过是人类在漫长的历史长河中,由于天灾人祸而产生的近乎宗教式的谣言而已。

但是今天,如果我们问顶级的科学家们,世界末日有没有,可能会得到一个答案“有”,如果再问“世界末日”是哪一天,我们得到的答案会是“不知道”。

在宇宙137亿年的发展历程中,46亿年历史的地球,已经微乎其微。而人类出现在地球上的时间,只不过两三百万年,人类的文明从起步到今天,也不过2万年以内的事。举个例子,如果把地球的历史比作一天的24小时,人类的出现时间是在23:57分。也就是说,人类文明的历史放在茫茫的宇宙中,可能就像漆黑的森林中,偶尔一只萤火虫发出的微弱的光芒。很难说我们人类文明会不会一直延续下去并与宇宙共存亡。考古发现也证明,属于恐龙的世界灭亡了,龙类世界的“世界末日”已经清晰的摆在地球上供我们人类去参观研究。如果人类无法应对外力对人类文明的入侵(比如小行星撞地球),如果人类无法把握文明的走向(比如人工智能),人类的“世界末日”是早早晚晚要来到的,只是这个时间点,我们今天还无法预知。

但是当代最伟大的科学家(没有之一)斯蒂芬·威廉·霍金教授预言:

“人工智能在并不遥远的未来可能会成为一个真正的危险,它可以设计改进自己,使得它们比我们所有人都更聪明。“

我们可以在现代科技的基础上做一推演,未来的某一天(人类未来学家尼克·博斯特罗姆预言在2075年),我们人类的计算机科技发展到极高的水平,利用计算机技术,人类迈过了强人工智能的最后一道门坎——完成了人体大脑的设计,并将之赋予超出人类的智商,在高速互联网的联接下,这一设计被迅速复制到全球其他地方,并被纳米技术及生命合成技术3D打印出来,一个超出人类智商的“强人工智能”诞生了,它会自我复制,自我升级,自我改进,在很短的时间,地球上出现了一个新的物种——“人工智能“,它们可以随时找到散落在全球的核武器、生化武器,并随时可以启动引爆按钮,在它们眼里的人类,就如我们今天人类眼中的黑猩猩,是低等生物而不是伙伴和母亲。”人工智能“拥有人类无法比拟的智力和能力,但它们没有人类的情感、伦理、道德和法律。它们在这个星球上可以为所欲为,最终,在”物竞天择“的进化法则中,它们无情的将人类踢到进化的舞台之下。

让我们一起再看一次霍金教授的论述:

人类在下一个世纪可能面临人工智能的大规模崛起,这些人工智能的智力超过人类。与其担心谁来控制人工智能的问题,人类更应该担心的是,人工智能到底愿不愿意被人类控制。人工智能可能导致人类的灭绝,在接下来的100年内就将人类取而代之。如果这样的事情早晚成为现实,我们今天就要确保计算机和我们站在同一战线上。我们的未来是一场不断增长的科技力量,与人类驾驭科技的能力之间的竞争。人类不应任由人工智能发展而不加以控制,以使人工智能按照我们的意志行动。

霍金教授的预言,虽比不了“玛雅预言“有那么多的信众,但他的担忧是客观存在的。而这种担忧,恰恰是今天的人们觉得”离我们很遥远“的事情。试想一下,如果有来自外太空的文明,告诉地球人:未来的60年内,将对地球展开一场战争。相信地球上的所有国家,会立即化解掉所有矛盾,组成一个“地球脑”,交出自己的核武器,组成地球联军,联合对抗外星的入侵。因为这关系到地球的存亡和人类文明的延续。

而对比地球的存亡和人类的命运,今天的很多人更关心自己和家族的命运。那么我们设想,今天我们去街道上随便问个爷爷奶奶,你的儿子或者孙子就要被外星人抓走了,你怎么办?爷爷奶奶肯定说,在哪里,我和它拼命!很不幸,60年后的我们,就是孙儿的爷爷奶奶,我们将与我们的子孙们一起面对人工智能的到来。

所以,别再为一点鸡毛蒜皮的小事而战争了(人家民主还是独裁关你屁事),多想想怎样面对70年后智商20000的“人工智能“吧。

别在难得一见的首脑会面上谈一些“加强两国人员往来"这些不痛不痒的话了,多聊聊怎样联手防范"人工智能"研究的盲目和不可约束吧。

别在联合国大会上争论某国是不是尊重人权了(人家尊不尊重人权关你屁事),多商量商量怎么在国际范围内建立“人工智能”国际组织吧。@All Leaders

写在后面

写这篇文章,不是在妖言惑众,危言耸听。更不想制造思想混乱。您也许会质疑我文中的某些观点,但如果您一直看到最后,并且对“人工智能”即将到来存有一些紧迫感和危机感,那就对了,这就是我的初衷。

真心说,我不害怕科技进步,恰恰相反,我甚至可以用最美的语言去称赞每一个科技的进步和文明的发展。只是,我们也是普通人,也要考虑我们的儿孙,还能不能在我们生活的这片土地上,如我们今天一样,享受着蓝天白云,喝着茶或咖啡,连着互联网敲着键盘,时而聊聊历史,时而想想未来。

人类文明的进程曲线,有时候是接近于平平的直线,从原始人类到1750年,这个曲线向上抬升的并不多。而从工业革命开始到今天,这条曲线开始向上弯曲,这是人类文明快速发展的时期。终有一天,这条曲线将接近笔直的向上飞速发展,到那时候,谁还能知道,人类是不是可以控制文明的进程呢?人类?还在吗?

最后讲一个轻松的故事吧,是我们都知道的小时候听过的《天方夜谭》的故事:

一个渔夫在海边打渔,捞上来一只所罗门封印的瓶子,他打开瓶子,放出了魔鬼,魔鬼要吃掉他。

渔夫对魔鬼说:以神的名义起誓,你不是说你住在这瓶子里吗?我不相信

魔鬼说:反正你也是死定了,我就让你看看我怎么住在这瓶子里的。

于是魔鬼化作一团青烟,又钻进了瓶子里。

渔夫盖上所罗门的封印,将瓶子远远的扔进了大海。

我们正在打渔,终有一天,我们将打捞上来那只瓶子,记得千万别打开封印,否则我们释放出来的,就不是这个“笨魔鬼”了。

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...