刘伟:人工智能过不去的三道坎

AI1年前 (2023)发布 aixure
72 0 0
导读:问题的提出:人工智能真能在博弈中起到主要作用吗? 前几年,深蓝沃森阿尔法系列着实让地球人发了几次烧!最近一段时间,随着岁月的洗刷,人们逐渐冷静下来后,面对各种复杂智能/智慧系统的期望,又不仅问道:人工智能(AI)靠谱吗?人工智能真能在对抗博弈…

问题的提出:人工智能真能在博弈中起到主要作用吗?

前几年,“深蓝”“沃森”“阿尔法”系列着实让地球人发了几次烧!最近一段时间,随着岁月的洗刷,人们逐渐冷静下来后,面对各种复杂智能/智慧系统的期望,又不仅问道:人工智能(AI)靠谱吗?人工智能真能在对抗博弈(多域、跨域)中起作用吗?对此,下面我们将抛砖引玉,提出几点粗浅的认识以享。

人工智能有限的理性逻辑和困难的跨域能力是其致命的缺陷。人工智能无法理解相等关系,尤其是不同事实中的价值相等关系;人工智能也无法理解包含关系,尤其是不同事实中的价值包含关系(小可以大于大,有可以生出无)。人可以用不正规、不正确的方法和手段实现正规、正确的目的,还可以用正规、正确的方法和手段实现不正规、正确的意图。还有,人可以用普通的方法处理复杂的问题,还可以(故意)用复杂的方法解答简单的问题。

人工智能的理念源于20世纪40年代。1948年,英国科学家图灵在其论文《计算机器与智能》中描述了可以思考的机器,被视为人工智能的雏形,并提出“图灵测试”。在之后的 1956年,马尔文明斯基、约翰麦卡锡、香农等学者在美国达特茅斯学院召开了一次关于人工智能的研讨会,史称“达特茅斯会议”, 正式确立了人工智能的概念与发展目标。研究领域包括命题推理、知识表达、自然语言处理、机器感知、机器学习等。人工智能60多年的发展历程,可以总结为以下几个主要发展阶段。第一次高潮期(1956~1974年):达特茅斯会议之后,研究者在搜索式推理、自然语言、机器翻译等领域取得了一定的成果。第一次低谷期(1974~1980年):随着计算机运算能力不足、计算复杂性较高、常识与推理实现难度较大等原因造成机器翻译项目失败,人工智能开始受到广泛质疑和批评。第二次高潮期(1980~1987年):具备逻辑规则推演和在特定领域解决问题的专家系统开始盛行,日本“第五代计算机计划”为其典型代表。第二次低谷期(1987~1993年):抽象推理不再被继续关注,基于符号处理的智能模型遭到反对。发展期(1993~2012年):“深蓝”等人工智能系统的出现让人们再次感受到人工智能的无限可能。爆发期(2012):机器学习、移动网络、云计算、大数据等新一代信息技术引发信息环境和数据基础变革,运算速度进一步加快且成本大幅降低,推动人工智能向新一代阶段爆发式增长。

现代的人工智能有点像小学生做作业,布置什么就是什么,缺乏需求任务的自主/自动生成、动态任务规划、需求矛盾协调。很难处理快态势感知和慢态势感知之间的矛盾,更不容易实现整个人机环境系统的有机相互联动和事实与价值元素的混编嵌入。

人机融合智能机制、机理的破解将成为未来战争致胜的关键。任何分工都会受规模和范围限制,人机融合智能中的功能分配是分工的一部分,另外一部分是能力分配。功能分配是被动的,外部需求所致;能力分配是主动的,内部驱动所生。在复杂、异质、非结构、非线性数据/信息/知识中,人的或者是类人的方向性预处理很重要,当问题域被初步缩小范围后,机器的有界、快速、准确优势便可以发挥出来了;另外,当获得大量数据/信息/知识后,机器也可以先把他们初步映射到几个领域,然后人再进一步处理分析。这两个过程的同化顺应、交叉平衡大致就是人机有机融合的过程。

可解释性:人工智能过不去的第一道坎

如今,AI的可解释性正在成为一道过不去的坎,去年,欧盟出台《人工智能道德准则》,明确提出AI发展方向应该是“可信赖的”,包含安全、隐私和透明、可解释等方面。

人工智能应用以输出决策判断为目标。可解释性是指人类能够理解决策原因的程度。人工智能模型的可解释性越高,人们就越容易理解为什么做出某些决定或预测。模型可解释性指对模型内部机制的理解以及对模型结果的理解。其重要性体现在:建模阶段,辅助开发人员理解模型,进行模型的对比选择,必要时优化调整模型;投入运行阶段,向决策方解释模型的内部机制,对模型结果进行解释。比如决策推荐模型,需要解释:为何为这个用户推荐某个方案。

目前,各领域对人工智能的理解与界定因领域分殊而有不同,但在共性技术和基础研究方面存在共识。第一阶段人工智能旨在实现问题求解,通过机器定理证明、专家系统等开展逻辑推理;第二阶段实现环境交互,从运行的环境中获取信息并对环境施加影响;第三阶段迈向认知和思维能力,通过数据挖掘系统和各类算法发现新的知识。

人机融合智能,根本上就是科学技术与人文艺术、数学符号事实语言与自然经验价值语言结合的代表。时空不但在物理领域可以发生弯曲,还可以在智能中发生扭曲。如果说哲学逻辑经历了世界的本源问题、研究方法问题的转向,那么20世纪分析哲学对人类语言工具的剖析成了人类思想上的一次 “革命”,这一场以维特根斯坦为象征的哲学革命,直接诱发了以图灵机、图灵测试为代表的人工智能科技之快速发展。但金观涛老师的“真实性哲学”认为,在21世纪中分析哲学最终反倒将哲学束缚在了牢笼中,实际上也造成了思想的禁锢:符号不指涉经验对象时亦可以有其自身的真实性,而且这一结论对数学语言和自然语言皆可成立。与此同时,纯符号的真实性是可以嵌入经验真实性中的;科学研究与人文研究可以成为有所统一但互不重叠且有各自真实性标准的两个领域。人类的巨大进步是让真实性本能(常识的客观性)处于终极关怀和相应价值的系统的支配之下。但是今天真实性的两大柱石正在被科学进步颠覆,真正令人感到恐怖的事情发生了:人正在无法抗拒地沦为聪明的“动物”在一个真假不分的世界里,不会有是非,也不会有真正的道德感和生命的尊严。

人不仅是用符号的等同或包含逻辑关系来表达世界的,人的教育不等于学习与知识,而是把欲望诱导到好的方向。计算机本身是不可能跨越“理解”这个鸿沟的,只有人才可以跨越符号指向的困窘。对主体而言,符号与经验是混杂的,逻辑与非逻辑是混杂的,公理与非公理混杂在一起,数据、信息、知识混杂在一起,这也是为什么可解释性之所以困难的主要原因。人机融合就是符号(数学)如何程度不同地嵌入主体经验(受控实验)之中,正如老子在《道德经》中说:“道生一,一生二,二生三,三生万物。”

所谓的AI,很大程度上不过是运用了计算机不断增强的计算能力,而采用这条路径注定是错误的,人是活学活用,机是死学僵用。而人类智能就是对小样本态势感知的能力大校态势感知的一个著名例子就是中医中的望闻问切,通过自然语言和数学语言之间的差别来打破心智与物理之间的分歧,进而把事实与价值统一起来。

态势感知最早应源于《难经》第六十一难,曰:经言,望而知之谓之神,闻而知之谓之圣,问而知之谓之工,切脉而知之谓之巧。何谓也?最早使用四字联称,则应处于《古今医统》:“望闻问切四字,诚为医之纲领。”望是观察病人的发育情况、面色、舌苔、表情等;闻是听病人的说话声音、咳嗽、喘息,并且嗅出病人的口臭、体臭等气味;问是询问病人自己所感到的症状,以前所患过的病等;切是用手诊脉或按腹部有没有痞块(叫作四诊)。

人工智能可解释性之所以困难,其根本原因在于其包含的不仅仅是数学语言,还有自然语言,甚至是思维语言(所以根本不可能迈过这道坎)。而人机融合智能不但可以进行主体的悬置,还可以游刃有余地进行主体变换,在人、机、环境系统交互中真正实时适时地实现深度态势感知,有机地完成数学语言、自然语言、思维语言之间的能指、所指、意指切换,可以轻松地直奔目的和意图实现。

终身学习:人工智能过不去的第二道坎

人的学习学的不是知识,而是获取数据、信息、知识经验的方法;机器的学习学的是数据、信息和知识。

不同的物质系统之间存在着相似性;同一物质系统的每个子系统与其整体系统之间也有相似性;具有不同运动形式和不同性质的物质系统,却遵守着相似的物理规律,这些事实都说明:相似性是自然界的一个基本特性。比如质量-弹簧-阻尼构成的机械系统与电阻-电感-电容构成的电路系统是相似系统,就反映了物理现象之间的相似关系(一般而言,相似关系可以用来化简复杂系统进行研究)。机器比较容易学习、迁移这种同质性、线性的相似系统,却很难实现异质性、非线性相似系统的类比、转换。但是人的学习却可以在对称与非对称、同质与非同质、线性与非线性、同源与非同源、同构与非同构、同理与非同理、同情与非同情、周期与非周期、拓扑与非拓扑、家族与非家族之间任意自由驰骋、漫步。

机器的学习离不开时间、空间和符号,而人的学习则是随着价值、事实、情感变化而变化的系统;机器的学习遵循、按照、依赖已有的规则,而人的学习则是如何修改旧规则、打破常规则、建立新规则。

2017年3 月 16 日美国国防高级研究计划局(DARPA)计划启动 " 终身学习机器 "(Lifelong Learning Machines,L2M)项目,旨在发展下一代机器学习技术,并以其为基础推动第三次 AI 技术浪潮。DARPA 认为 AI 技术的发展已历经第一次和第二次浪潮,即将迎来第三次浪潮。第一次 AI 技术浪潮以 " 规则知识 " 为特征,典型范例如 Windows 操作系统、智能手机应用程序、交通信号灯使用的程序等。第二次 AI 技术浪潮以 " 统计学习 " 为特征,典型范例如人工神经网络系统,并在无人驾驶汽车等领域取得进展。虽然上述 AI 技术对明确的问题有较强的推理和判断能力,但不具备学习能力,处理不确定问题的能力也较弱。第三次 AI 技术浪潮将以 " 适应环境 " 为特征,AI 能够理解环境并发现逻辑规则,从而进行自我训练并建立自身的决策流程。由此可知,AI 的持续自主学习能力将是第三次 AI 技术浪潮的核心动力,L2M 项目的目标恰与第三次 AI 浪潮 " 适应环境 " 的特征相契合。通过研发新一代机器学习技术,使其具备能够从环境中不断学习并总结出一般性知识的能力,L2M 项目将为第三次 AI 技术浪潮打下坚实的技术基矗目前,L2M包含30个性能团体的庞大基础,通过不同期限和规模的拨款、合同开展工作。

2019年3月,DARPA合作伙伴南加州大学(USC)的研究人员发表了有关探索仿生人工智能算法的成果:L2M研究员兼USC维特比工程学院的生物医学工程和生物运动学教授Francisco J. Valero-Cuevas与该学院博士生Ali Marjaninejad、Dario Urbina-Melendez和Brian Cohn一起,在《自然-机器智能》(Nature Machine Intelligence)杂志上发表了一篇文章,文中详细介绍了人工智能控制的机器人肢体的成功研发。该肢体由类似动物的肌腱驱动,能够自学行走任务,甚至能自动从平衡失调中恢复。

推动USC研究人员开发这一机器人肢体的是一种仿生算法,只需五分钟的“非结构化游戏”(unstructured play),就能自主学习行走任务;也就是说,进行随机运动,使机器人能够学习自己的结构和周围的环境。

当前的机器学习方法依赖于对系统进行预编程来处理所有可能的场景,复杂、工作量大且低效。相比之下,USC研究人员揭示,人工智能系统有可能从相关的经验中学习,因为随着时间的推移,它们致力于寻找和适应解决方案,以应对挑战。

实际上,对于众多无限的学习而言,人是很难实现终身的,总有一些能学习到,还有许多另一些也一知半解甚至一无所知的更多,对于没有“常识”和“类比”机理的机器而言,终身学习也许就是一个口号!首先需要理清楚的应该是:哪些能学?哪些不能学?

人类的学习是全方位的学习,不同角度的学习,一个事物可以变成多个事物,一个关系可以变成多个关系,一个事实不但可以变成多个事实,甚至还可以变成多个价值,更有趣的是,有时,人的学习还可以多个不同的事物变成一类事物,多个不同的关系可以变成一个关系,多个事实可以变成一个事实,甚至还可以变成一个价值。而机器学习本质上是人(一个或某些人)的认知显性化,严格意义上,是一种“自以为”“是”,即人们常常只能认出自己习惯或熟悉的事物,所以,这个或这群人的局限和狭隘也就在不自觉中融进了模型和程序中,因而,这种一多变换机制往往一开始就是先天不足。当然,机器学习也并不是一无是处,虽然做智能不行,但用来做计算机或自动化方向的应用应该还是不错的!

如果说,学习的实质就是分类,那么人的学习就是获得并创造分类的方法,而机器学习只是简单地被使用了一些分类的方法而已。DARPA的 " 终身学习机器 "(Lifelong Learning Machines,L2M)项目本质上也许就是一个美丽的泡泡,吹一下就会忽高忽低地漂浮在空中,尽管阳光照耀之下也会五彩斑斓,但终究会破灭的吧!

机器常识:人工智能过不去的第三道坎

正如所有的药一样,所有的知识都是有范围和前提的,失去了这些,知识的副作用就会涌现出来。知识只是常识的素材和原材料,机器只有“知”而没有“识”,不能知行合一。知识不应依附于思想,而应同它合二为一;知识如果不能改变思想,使之变得完善,那就最好把它抛弃。拥有知识,却毫无本事,不知如何使用还不如什么都没有学那样的知识是一把危险的剑,会给它的主人带来麻烦和伤害。其中限制知识这些副作用发作的最有效途径之一便是常识的形成,一般而言,常识往往是碎片化的,而态势感知就是通过对这些零零碎碎常识状态、趋势的感觉、知觉形成某种非常识的认识和洞察。另外,常识是人类感知和理解世界的一种基本能力。典型的AI系统缺乏对物理世界运行的一般理解(如直观物理学)、对人类动机和行为的基本理解(如直觉心理学)、像成年人一样对普遍事物的认知。

DARPA正在继续开发第二代人工智能技术及其军事应用的同时,积极布局第三代人工智能发展,2018~2020财年,通过新设项目和延续项目,致力于第三代人工智能基础研究,旨在通过机器学习和推理、自然语言理解、建模仿真、人机融合等方面的研究,突破人工智能基础理论及核心技术。相关项目包括:“机器常识”“终身学习机”“可解释的人工智能”“可靠自主性”“不同来源主动诠释”“自动知识提取”“确保AI抗欺骗可靠性”“自动知识提取”“加速人工智能”“基础人工智能科学”“机器通用感知”“利用更少数据学习”“以知识为导向的人工智能推理模式”“高级建模仿真工具”“复杂混合系统”“人机交流”“人机共生”等。除此,DARPA近期发布的人工智能基础研究项目广泛机构公告还包括:“开放世界奇异性的人工智能与学习科学”“人机协作社会智能团队”“实时机器学习”等。

如果学问不能教会我们如何思想和行动,那真是莫大的遗憾!因为学问不是用来使没有思想的人有思想,使看不见的人看见的。学问的职责不是为盲人提供视力,而是训练和矫正视力,但视力本身必须是健康的,可以被训练的。学问是良药,但任何良药都可能变质,保持时间的长短也要看药瓶的质量。

俄罗斯人弗拉基米尔沃沃斯基(Vladimir Voevodsky)的主要成就是:发展了新的代数簇上同调理论,从而为深刻理论数论与代数几何提供了新的观点。他的工作的特点是:能简易灵活地处理高度抽象的概念,并将这些要领用于解决相当具体的数学问题。上同调概念最初来源于拓扑学,而拓扑学可以粗略地说成是“形状的科学”,其中研究沃沃形状的例子如球面、环面以及它们的高维类似物。拓扑学研究这些对象在连续变形(不允许撕裂)下保持不变的基本性质。通俗地说,上同调论提供了一种方法将拓扑对象分割成一些比较容易研究的片,上同调群则包含了如何将这些基本片装配成原来对象的信息。代数几何中研究的主要对象是代数簇,它们是多项式方程的公共解集。代数簇可以用诸如曲线或曲面之类的几何对象来表示,但它们比那些可变形的拓扑对象更具“刚性”。

DARPA战略技术办公室(STO)2017年提出的“马赛克战”概念认为未来战场是一个由低成本、低复杂系统组成的拼接图,这些系统以多种方式连接在一起,可创建适合任何场景的理想交织效果。这个概念的一部分是“以新的令人惊讶的方式组合当前已有的武器”,重点是有人/无人编组、分解的能力,以及允许指挥官根据战场情形无缝召唤海陆空能力,而不管是哪支部队在提供作战能力。

尾 声

如果说“逻辑是符号串的等同或包含关系”,那么非逻辑则是非符号的等同或包含关系。人工智能处理一些逻辑问题较好,而人处理一些非逻辑问题稍优,人机融合则能处理逻辑与非逻辑的融合问题。

人工智能在对抗博弈中起重要作用需要几个条件:首先是找到数学定量计算就能解决的部分,其次与人融合过程中使该AI部分找到适当的时机、方式和作用,最后,人做对的事,AI“把事情做对”。

最近,美陆军未来司令部司令约翰默里上将和陆军其他技术领导人强调“人类”必须最终作出重要决定并掌控“指挥和控制”系统,同时还明确指出快速演化的人工智能武器系统应用可以让陆军指挥人员“率先看到、率先作出决定、率先采取行动”,当然由此能够更快地摧毁敌人。(人工智能的数据处理能力会让人类的决策速度呈现指数级的提高,即提速OODA环。)仔细想想,任何事物都不会无中生有,凡事都有苗头和兆头,人机融合就是能够及时(恰如其分)地捕捉到这些零零碎碎的迹象和蛛丝马迹,太快太慢都不好,“率先看到、率先做出决定、率先采取行动”,不一定由此能够更快地摧毁敌人。有时,慢一点未必不是一个好的选择,太快了也许更容易上当受骗吧!

目前,人智与AI的失调匹配是导致目前人工智能应用领域弱智的主要原因。人可以身在曹营心在汉,是非、01同在:既是又不是,叠加态。危机管理呢?常常是叠加势:危险与机会共生,危中有机,机中有危,两者纠缠在一起,如何因势利导、顺势而为,则是人机融合智能中深度态势感知的关键。

人机是非同构的,即本质是不同的两者事物,一个受控实验部分不可重复,一个受控实验普遍可重复。人的智慧也是由受控与不可受控部分、可重复与不可重复部分构成的。色盲者认为是无色的,对他是真的,对其它主体却是假的,若色盲者比正常人多,则正常人会是色盲吗?

科学的缺点在于否认了个性化不受控不可重复的真实。所以基于这种科学性的基础上必然会带来一些缺陷。人,尤其是每个人都是天然的个性化不受控不可重复的主体,你不能说他就是不存在的。从这个角度看,人机融合的实质就是帮助科学完善它的不足和局限。

大数据的优点是受控实验普遍可重复性,如此一来可以寻找共性规律按图索骥;但是,这也是大数据的一个缺点,容易忽略新生事物受控实验不可重复部分的出现,表现出刻舟求剑效应。有些受控实验不可重复之真实性也是存在的,但这不在科学范围内。以前是盲人摸象,现在是人机求剑。

无论多牛的数学,都是人去发现、发明,脱离了人,就没有数学和人工智能,但是人都有缺点和死角,都有转不过来的时候,所以人机融合才是未来智能的方向和大势!人工智能过不去的这三道坎,人机融合智能可以过去,究其因,也还是没有人过不去的坎!

本文转自人机与认知实验室,作者为北京邮电大学刘伟教授。

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...