美国国防部采用人工智能技术 前提需要遵循伦理道德原则

人工智能应用1年前 (2023)发布 aixure
55 0 0
导读:美国国防部正式采纳了一套将人工智能用于军事用途的原则。 2019年10月,国防创新委员会向国防部长Mark T. Esper博士提交了使用该技术的建议。在与政府、学术界、商界和公众等多个行业的领先人工智能专家进行了15个月的磋商后,微软提出了上述建议。 此举与美…

美国国防部正式采纳了一套将人工智能用于军事用途的原则。

2019年10月,国防创新委员会向国防部长Mark T. Esper博士提交了使用该技术的建议。在与政府、学术界、商界和公众等多个行业的领先人工智能专家进行了15个月的磋商后,微软提出了上述建议。

此举与美国国防部的人工智能战略目标一致,指导美国在人工智能伦理和人工智能系统的合法使用方面的军事领导。

这些原则将根据美国宪法、美国法典第10章、战争法、现有国际条约和长期准则和价值观,根据美国军队现有的道德框架设计。

现有的框架为道德行为提供了技术中立和持久的基础,人工智能的使用增加了新的道德不确定性和风险。这是新原则通过应对新挑战发挥作用的地方。

欧洲紧随其后,宣布伦理和透明的人工智能开发理念,目前欧盟已经启动了人工智能和“数据经济”战略。

欧盟委员会(EC)在声明中表示:

“以数字解决方案为动力的欧洲社会,以人为本,为企业创造新的机遇,推动可靠技术的发展,以培育一个开放、民主的社会和一个充满活力和可持续发展的经济。”

根据欧共体的意见,重点将放在数字领域的三个关键目标上:“为人民服务的技术、公平竞争的经济、开放、民主和可持续发展的社会”。

根据英国政府本月早些时候发布的一份报告,政府在人工智能的使用方面“不开放”,不过没有提议设立一个具体的监管机构。

报告还称,对“黑匣子人工智能”的担忧在很大程度上是杞人忧天。所谓“黑匣子人工智能”指的是数据通过无法解释的方法产生结果。

报告主张使用诺兰原则为英国公共部门引入人工智能,辩称它们不需要重新制定。

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...