全球千名精英联名呼吁:暂停GPT-5研发!AI对人究竟有风险吗?

AI1年前 (2023)发布 aixure
34 0 0
导读:文/赵斌 AI领域顶尖专家和图灵奖得主 约书亚本吉奥 、特斯拉首席执行官 马斯克 等人千人联名签署公开信,呼吁暂停开发比GPT-4更强大的AI系统至少6个月,称其对社会和人类构成潜在风险。 AI对人类究竟有风险吗? 人工智能在理论上是有可能毁灭人类的。 中国人…

文/赵斌

AI领域顶尖专家和图灵奖得主约书亚本吉奥、特斯拉首席执行官马斯克等人千人联名签署公开信,呼吁暂停开发比GPT-4更强大的AI系统至少6个月,称其“对社会和人类构成潜在风险”。

AI对人类究竟有风险吗?

“人工智能在理论上是有可能毁灭人类的。”中国人工智能学会基础专委会副主任陈志成在接受中新社国是直通车采访时表示,正是基于这种风险的存在,所以才制定了在国际上达成共识的三原则进行约束。

第一条,不得伤害人类,或看到人类受到伤害而袖手旁观。

第二条,必须服从人类的命令,除非这条命令与第一条相矛盾。

第三条,必须保护自己,除非这种保护与以上两条相矛盾。

马斯克的公开信中主张,在开发强大的AI系统之前,应先确认其带来影响是积极的、风险是可控的。

但是,支持还是反对,很多大佬意见不一,已经开始唇枪舌战。

比如,LeCun(美国科学院院士、图灵奖获得者)、吴恩达(曾任斯坦福大学人工智能实验室主任)、田渊栋(Facebook人工智能研究院智能围棋项目负责人)等一众AI大佬,都发文公开反对这份“千人联名”。

吴恩达表示,在GPT-4出现之后要求AI训练暂停6个月是很可怕的事情:GPT-4在教育、医疗保舰食品等领域都有很多新的应用,这将帮助许多人。

田渊栋说,“我不签暂停令”!AI的发展就像囚徒困境:一旦开始,就没有办法停止或扭转这一趋势,这就是进化的必然。应该换个角度继续向前看,更好地理解 LLM(大型语言模型),适应它并利用其力量,感受热度。

Meta数据科学家林致远、英伟达AI研究科学家Jim Fan也对吴恩达观点表示赞同。

国内首批深度学习工程师、神策数据VP乐一帆在接受中新社国是直通车采访时表示,他并不认为ChatGPT本身会像科幻电影里演的那样,可以控制甚至毁灭人类。但是他的担心有三方面:

第一,用户恶意利用GPT获知危害社会或犯罪方法等问题;

第二,用户自身分辨能力不足,被GPT蒙蔽;

第三,GPT的核心目标函数被别有用心的人掌握,通过操纵GPT来挑起国际争端等。

陈志成认为,ChatGPT本质上是基于概率统计并依赖大算力的大数据分析行为,但并不是真正意义上具有“理解”能力的人工智能。以现有情况来看,不可能具备像人一样思维逻辑或学习经验的能力来自主伤害人类,只是按照程序进行数据收集、梳理、分析、识别和输出等。

陈志成认为,人工智能是大趋势,即便暂停GPT-5的研发也阻挡不了人工智能的发展,任何时代都有科技的进步,这是正常现象。

怎样才能把人工智能“装进笼子”?

分析人士认为,人类在加快发展人工智能的同时,也要把人工智能“装进笼子”。

陈志成说,中国将是世界上最有效监管GPT技术应用的国家,这不仅是基于体制优势,关于对人工智能的监管及其伦理约束,中国也制定了相关规范。

中国国家新一代人工智能治理专业委员会于2021年9月25日发布《新一代人工智能伦理规范》,旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。增强全社会的人工智能伦理意识与行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展。

《新一代人工智能伦理规范》第一条即开宗明义:本规范旨在将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题。

联合国教科文组织近日也发表声明,呼吁各国政府尽快实施该组织通过的首份人工智能伦理问题全球性协议《人工智能伦理问题建议书》。旨在促进人工智能为人类、社会、环境以及生态系统服务,并预防其潜在风险。

该组织总干事阿祖莱说,世界需要更强有力的人工智能伦理规则,这是时代的挑战。“现在是时候在国家层面实施这些战略和法规了。我们必须言出必行,确保实现《建议书》的目标。”

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...