白宫调查显示,人们对AI的态度仍然有很大分歧

AI1年前 (2023)发布 aixure
72 0 0
导读:白宫一项关于AI未来的意向调查显示,那些已经准备好拥抱智能机器的人和那些担心未来机器将会统治世界的人之间的意见仍有很大冲突。 这项调查是这个月白宫科学与技术办公室发起一项关于AI正在如何改变现在的世界、在未来可能会如何发展、以及政府应该在之后的…

白宫一项关于AI未来的意向调查显示,那些已经准备好拥抱智能机器的人和那些担心未来机器将会统治世界的人之间的意见仍有很大冲突。

这项调查是这个月白宫科学与技术办公室发起一项关于AI正在如何改变现在的世界、在未来可能会如何发展、以及政府应该在之后的发展中扮演什么样的角色,应该如何鼓励或规范它的公共调查。

它从IBM、谷歌和微软这样的到公司、学术界以及普通大众间共同征求意见,而大家的反应表现出人们对AI的未来可能性仍然有很大分歧。

有些评论对机器会帮我们做出许多决定的未来感到不安:

Mark Finlayson,佛罗里达国际大学计算与信息科学学院助理教授:危险不在于Elon Musk和Stephen Hawking(他对AI完全不懂)说的那样,说机器人会胡作非为,真正的危险在于:AI会如何影响我们对待自己的方式,就像核武器那样。而且这不是一个很遥远的可能性,而是已经发生的事实:Uber建议给我们提供许多无人驾驶汽车。如果这件事发生了,想象一下当与行业相关的利润不是与全世界共享,而是流入一个单独的公司中或者一个人的口袋中时,会发生什么事?

Lisa Hayes,民主技术中心程序与战略部副主任:民主技术中心对AI的未来感到乐观,并且相信科技会对社会产生广泛的积极影响。但是,快速发展的技术毫无疑问的会对工作岗位、教育和政策产生显著影响,也会对联邦政府各种监管过程的伦理道德性产生影响。转变的进程、各项标准的形成、人们对新技能的学习都需要花费时间,在AI这一点上,政府必须快速行动来应对这些改变,因为技术的传播应该会非常快。

Mary Wareham,人权观察组织宣传部主任:AI和自动化机器人已经对我们的生活产生了极大的冲击,从打扫卫生这样简单的事到像自动驾驶汽车和Google DeepMind这样的复杂任务。但是,AI的任何一项领域都不像自动化武器这样面临着快速增长的、紧急且严重的人权问题。虽然这些问题目前还没有显现出来,但这些武器的道德和合法性都面临着巨大的考验,因为它们能在不经由人控制的情况下就自主选择并攻击它们的目标。

David Heiner,微软法务部副部长、总顾问代理:我们对那些能让人们享受最先进技术的实用工具、语言、部件、平台的发展充满热情。但是我们理解有很多人会担心快节奏的自动化进程可能带来的经济危机,以及对大量工作岗位的取代。这种改变可能会对那些挣扎求生的人们造成极大的冲击。我们也能理解并且同样担心AI会扩大并巩固社会中已经存在的不平等现象,如果使用的会是一些不平等的算法和数据,它甚至可能创造出更多的不平等。

而另一些评论者则指出世界已经从AI技术中获得了大量的好处了,并且表示没有任何理由需要去担心未来。

Sean Legassick,DeepMind公司决策顾问:我们把机器学习系统视为设计来通过对大数据的高效分析、提取出有价值的信息并用它们来帮助我们做出适合的决定,以便让这些聪明且有着极高积极性的专家能够帮助我们弥补我们的不足的工具。这可能对早期疾病诊断、新药的发现、材料科学、以及优化资源和能源配置等方面的进步都产生很大促进作用。

James Hairston,Facebook公共政策主管:人们已经开始享受AI带来的种种好处——从医疗保健到天文学,再到我们每天都要做的许多任务。机器学习在帮助我们定位宇宙中的新研究目标,并且以足以救命的精确度检测疾玻像数字助手和即时自动翻译这样的AI工具正在促进人们之间的沟通和贸易,让人们的工作变得更加有效率。

也有很多评论者对AI未来的可能拥有的潜能很有兴趣,他们觉得对这些危险的担忧有些过分了,并且认为AI是社会进步的唯一途径。

Henry Liberman,MIT CSAIL实验室研究科学家:近期那些名人,比如Elon Musk和Steven Hawking给出的关于“AI可能失控”的警告实在是杞人忧天了。考虑到对AI安全机制的研究已经取得了相当的成果,政府不应该将AI视为像全球变暖那样明确的威胁。

Andrew Kim,谷歌公共政策和政府事物部门:许多讨论机器学习系统的潜在优势和威胁的讨论仍然停留在简单的理论层面并且过于集中于长时间尺度上的理论极端情况。实际上在社会真正会面临这些假设中的问题之前,AI的研究还有许多困难需要解决。

via techtarget.com

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...