霍金、盖茨都在警惕人工智能 实则是在自欺欺人?

AI1年前 (2023)发布 aixure
88 0 0
导读: 据国外媒体报道, 斯蒂芬霍金曾警告人工智能完全体的发展可能意味着人类的终结 ;伊隆马斯克担心人工智能的发展可能是人类生存面临的最大威胁;比尔盖茨则提醒人们要小心人工智能。 人类对未知事物产生恐惧并不是什么新鲜事。但是,著名的理论物理学家,以及…

据国外媒体报道, 斯蒂芬·霍金曾警告“人工智能完全体的发展可能意味着人类的终结” ;伊隆·马斯克担心人工智能的发展可能是人类生存面临的最大威胁;比尔·盖茨则提醒人们要小心人工智能。

人类对未知事物产生恐惧并不是什么新鲜事。但是,著名的理论物理学家,以及硅谷企业家和微软创始人对人工智能的担心为这种恐惧增添了新的注解。但是像科幻电影一样,担心机器人会奋起革命似乎有点自欺欺人。重要的是如何合理的进行分析。

首先,我们要了解现在的电脑可以做什么,以及未来可能做到什么。由于不断增长的硬件计算能力和数字化热潮的席卷,人工智能正在享受发展的黄金时代。今天的“深度学习”系统,通过模仿人类大脑神经元可以处理大量的数据,学习执行一些任务,利用模式识别进行翻译,就像人类一样。于是,分析照片或者玩简单的电脑游戏,现在已经在计算机程序的能力范围之内。Facebook 2014年推出的一种算法DeepFace识别人脸的准确率达到97%。

但是需要认识到,这种能力是十分具体的。今天的人工智能只是通过强大的数字运算力来模拟出智能,并没有与人类一样的自我思考能力、兴趣和欲望。计算机还没有人类所具有的任何推测、判断和决定的能力。

然而,人工智能目前已经足够强大到改变人类的生活方式。它可以通过作为人类智力的补充提高人的能力。比如说国际象棋,虽然计算机比任何人类都更加强大,但是世界上最好的棋手并不是机器。国际象棋特级大师卡斯帕罗夫表示人类和人工智能的混合体才是最强大的。这种人类与机器的混合体正成为各行各业的新发展趋势。通过人工智能的帮助,医生在医学图像上发现癌症的概率大大增加。智能手机上运行的语音识别算法将为发展中国家数百万文盲用户提供互联网服务。数字助理将有可能对学术研究产生帮助。图像分类算法将帮助穿戴式设备为人类提取现实世界的有用信息。

但即使在目前,不是所有的人工智能都带来的是积极的影响。比如,参与国家安全的人工智能有能力监控数十亿的电话通联,并挑选出任何想要需找的对象。虽然目前人工智能对社会利大于弊,但许多人仍会因为人工智能成为牺牲品。原来由人所做的工作比如说会计和营销等,可能会被晶体管取代他们的位置。人工智能可能注定要替代越来越多人的工作岗位。

不过对人类的监控和??取代,并不是霍金、马斯克和盖茨所担心的未来。他们关注的是更遥远的未来拥有认知和学习能力的机器人与人类的利益产生冲突。

但这种人工智慧生物仍有很长的路要走,事实上它可能永远也不会出现。尽管大量心理学家、神经学家、社会学家和哲学家对大脑研究了一个世纪,仍然无法理解人类大脑的工作方式。有自我意识的人工智能目前还没又出现。

但是,即使霍金先生所描绘的人工智能完全体离我们尚远,但是审慎的规划如何应对仍然必要。其实这并不困难,因为人类一直都在规范那些具有致命伤害的东西,比如政府机构,比如军队。一旦这些自治实体不受特定的法律和规则限制就可以造成很大的伤害。

正如军队需要民间监督,政府必须透明负责任,人工智能系统也必须公开接受审查。由于系统设计人员无法预见所有的行为,所以人工智能必须有强制关机功能。这些规则可以保障人类不受伤害同时又不妨碍技术的发展。从核弹到交通规则,人类有能力用技术和法律来约束任何强大的创新。

一个有自主意识的非人类智能生物的确有其潜在危险性,但这不应该掩盖人工智能未来为人类所能带来的巨大利益。

译者:秉翰

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...