人工智能“黑箱算法”致安全性隐患 业内建言治理与发展同步

AI1年前 (2023)发布 aixure
59 0 0
导读:每经记者:可杨 每经编辑:梁枭 人工智能技术发展的过程中出现了一个全新的问题,也就是安全问题,这主要来源于算法本身的不安全性,因而是非常难以解决的。中国科学院院士、清华大学人工智能研究院名誉院长、瑞莱智慧首席科学家张钹认为。 人工智能在为人们…

每经记者:可杨 每经编辑:梁枭

“人工智能技术发展的过程中出现了一个全新的问题,也就是安全问题,这主要来源于算法本身的不安全性,因而是非常难以解决的。”中国科学院院士、清华大学人工智能研究院名誉院长、瑞莱智慧首席科学家张钹认为。

人工智能在为人们生活不断带来便利的同时,数据隐私、算法偏见、技术滥用等安全性问题给社会公共治理与产业智能化转型带来不容忽视的挑战。

8月3日,由北京市经济和信息化局和海淀区人民政府主办的“2021人工智能产业治理论坛”在京召开,会上发布了《人工智能产业担当宣言》。

瑞莱智慧CEO田天在会后接受《每日经济新闻》专访时表示,让人工智能更好地服务于人类,是产业共同的目标,人工智能科技公司应该具备社会责任感和自律意识,积极主动开展自治工作,同时开放共享、协同治理。

第二代人工智能算法存在脆弱性

田天在接受《每日经济新闻》记者专访时指出,人工智能安全问题的紧迫性正在提升。

具体而言,从直观感受上,各类人工智能安全问题正集中出现,比如人脸识别的滥用、大数据“杀熟”、个人信息的不当索娶算法对外卖骑手的控制等问题正引发越来越多关于人工智能安全性问题的争议。

而另一方面,伴随人工智能产业化已经从点覆盖到面,渗透到更多行业特定场景,尤其是一些高价值、高复杂度的场景,安全问题的“危险性”被随之放大,。

张钹在演讲中阐述观点称,人工智能发展过程中出现的安全性问题,主要是第二代人工智能算法本身的不安全性造成的。

“第二代人工智能的算法是‘黑箱算法’。这种深度学习算法本身就是不安全的,容易受到攻击。”张钹以识别一匹马来举例,人工智能是通过马的各种各样的局部特征在连续数据空间里面进行分类,以达到和其他动物区分开来的目的,人工智能的识别和人类视觉的认识完全不同,人工智能的算法非常脆弱,容易受到欺骗。

张钹认为,解决人工智能的不安全性有两个途径。其一是治理,从法律法规、伦理规范、行业共识等不同层面去“治标”;其二是创新发展,克服人工智能算法本身的不安全性,从技术创新层面“治本”。

治理包含两个方面:防止对人工智能技术无意识的误用和有意识的滥用。无意识的误用是指人工智能算法本身带来不安全问题是很难被预先发现或觉察的,使用时要避免错用造成严重的后果;有意识的滥用是指利用人工智能的算法的不安全性进行恶意攻击,需要用法律法规加以制止。而创新发展则指的是发展第三代人工智能,更加任重道远,

不存在治理阻碍发展的矛盾

人工智能的发展是为了人类。纵览人工智能技术近10年的发展,人工智能在金融、医疗、安防、教育、交通等多个领域实现落地,且应用场景也愈加丰富。

国家新一代人工智能治理专委会委员、联合国教科文组织人工智能伦理特设专家组专家曾毅在论坛中表示:“我们(指行业)希望人工智能以人类为本,希望它能够赋能可持续的发展”,他阐述,“可持续的人工智能”包括技术本身的可持续性和全球可持续发展目标的实现。

“2021人工智能产业治理论坛”现场

图片来源:每经记者 可杨 摄

“很多人说到底是治理先行还是发展优先?它们之间从来不是竞争关系。”曾毅指出,人工智能的治理并不存在发展优先还是治理先行的矛盾,人工智能稳健发展的两大前提是可持续发展和人工智能的善治,两者深度协同。

中国社科院科技哲学研究室主任、科学技术和社会研究中心主任段伟文在演讲中则重点谈到了数字时代的社会信任危机与重建。他认为,数字技术与人工智能产业发展的伦理风险带来了诸多社会信任问题,面对既先发制人也溯及既往的数字治理趋势,人工智能企业应直面社会许可的挑战,认真感知公众对科技企业的认知和评价。

段伟文建议,人工智能企业不应回避社会监督,而是不断思考、重塑科技的社会印象,技术改进和伦理设计要齐头并进,携手走向共建性的人工智能伦理治理。

基于可持续发展的愿望,《人工智能产业担当宣言》发布。宣言由北京智源人工智能研究院、瑞莱智慧联合发起,百度、华为、蚂蚁集团、寒武纪、爱笔科技、第四范式、出门问问等人工智能行业的核心骨干企业、学术研究机构共同参与。

“我想不是所有的问题在30年之内就能够找到答案,所以需要我们企业需要我们的学术机构形成真正多方共治的共同体,来面对人工智能将面临的近期、远期的问题,真正使人工智能赋能由我们人类和其他生命、环境构成的未来的和谐共生的社会。”曾毅认为,行业内亟须同步伦理监管、技术规范、应用评估等治理共识。

每日经济新闻

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...