欧盟正在制定《人工智能责任指令》,或让被AI技术伤害的人获得经济补偿

产业政策10个月前发布 aixure
60 0 0
导读:2023 年,人工智能的政策制定和监管措施从小众、乏味的话题变成了头条新闻。这在一定程度上要归功于 OpenAI 的 ChatGPT,它让人工智能成为了最流行的话题,但也让人们了解了人工智能系统的工作原理,以及它们失败的样子。 从政策的角度来看,这是具有里程碑…

2023 年,人工智能的政策制定和监管措施从小众、乏味的话题变成了头条新闻。这在一定程度上要归功于 OpenAI 的 ChatGPT,它让人工智能成为了最流行的话题,但也让人们了解了人工智能系统的工作原理,以及它们失败的样子。

从政策的角度来看,这是具有里程碑意义的一年。我们看到了欧盟达成的第一部全面的人工智能法律,美国举行了有关人工智能的参议院听证会并出台了行政令,中国则针对推荐算法等方面制定了具体规则。

如果 2023 年是立法者就人工智能愿景达成一致的一年,那么 2024 年将是政策开始转变为具体行动的一年。现在,我想聊聊我对 2024 年的预期。

2023 年,美国第一次在政治对话中真正纳入人工智能的议程,而且不仅停留在对话层面,政策制定者也采取了行动,最终让拜登总统在 2023 年 10 月底发布了关于人工智能的行政令。它要求(公司和组织)提高人工智能的透明度并制定新标准。

行政令的出台,标志着一种美国式的人工智能管控策略浮出水面:一种对人工智能行业友好、强调最佳实践的微妙方法,同时依靠不同机构制定自己的规则,以不同的方式监管每个经济领域。

2024 年的趋势将以 2023 年的势头为基础,拜登行政令中详细列出的许多任务将逐渐落实。我们还将听到很多关于新成立的美国人工智能安全研究所(US AI Safety Institute)的消息,该研究所将负责执行行政令中提到的大部分政策。

至于美国国会,我们目前还不清楚具体会出现什么新动作。美国参议院多数党领袖查克舒默(Chuck Schumer)最近表示,除了行政令外,可能还会出台新的法律。

已经有几项立法提案涉及人工智能的各个方面,如透明度、深度伪造和平台问责制。但目前尚不清楚在这些已经提出的法案中,哪一项(如果有的话)将在 2024 年得到多数支持。

然而,我们可以期待的是看到一种基于人工智能类型和使用方法,划分其风险程度并对其进行分级的方法。这一框架将类似于欧盟的《人工智能法案》。

前沿模型论坛(Frontier Model Forum,一家行业标准制定组织)的执行主任查理斯梅塞罗勒(Chris Meserole)表示,美国国家标准与技术研究所已经提出了这样一个框架,每个部门和机构现在都必须将其付诸实践。

另一件显而易见的事情是,2024 年的美国总统大选将左右人工智能监管的大部分讨论。

我们已经看到了生成式人工智能制造的虚假信息如何影响社交媒体,因此我们可以预料到,美国大选期间发生的事情,将决定如何防止这项技术造成危害的辩论的走向。

(来源:STEPHANIE ARNETT/MITTR | ENVATO)

欧盟刚刚就《人工智能法案》达成一致,这是世界上第一部全面的人工智能法律。

经过激烈的技术性讨论,欧盟国家已经就《人工智能法案》的基本内容达成一致,随着欧洲各国和欧盟议会在 2024 年上半年陆续走完批准流程,该法案将很快生效。在最乐观的情况下,针对某些人工智能用例的禁令最快可能在年底实施。

这一切都意味着人工智能行业将在 2024 年变得愈发繁忙,因为公司和组织必须准备好,开始遵守新的规则。

尽管大多数人工智能应用将获得《人工智能法案》的“豁免”,但那些开发“对基本权利构成高风险的”基础模型和应用的公司,如那些旨在用于教育、医疗保健和警务等部门的模型和应用,都必须符合新的欧盟标准。

在欧洲,警察将被禁止在公共场所使用人工智能技术,除非他们已经获得了法院批准,并将其用于打击恐怖主义、阻止人口贩运或寻找失踪人员等特定目的。

还有一些人工智能用例将在欧盟被完全禁止,例如创建面部识别数据库,以及在工作或校园环境中使用情绪识别技术。

欧盟的《人工智能法案》将要求公司在如何开发模型方面更加透明,如果模型或使用高风险人工智能系统的组织造成了任何伤害,它们就要承担必要的责任。

开发基础模型的公司比如 OpenAI 它开发了 GPT-4 等其他人工智能产品所使用的模型,必须在法律生效后一年内完成整改,使其产品和行事方式遵守相关法律。其他科技公司有两年的时间来执行这些规定。

为了满足新的要求,人工智能公司必须更仔细地考虑如何构建系统,还要更严格地记录他们的工作,以便对其进行审查。

例如,该法律将要求公司对其模型的训练方式更加透明,并确保“高风险”人工智能系统使用了足够有代表性的数据集进行训练和测试,以最大限度地减少模型偏见。

欧盟认为,最强大的人工智能模型,如 OpenAI 的 GPT-4 和谷歌的 Gemini,可能会对其公民构成“系统性”风险,因此需要额外的工作来满足欧盟标准。

这些科技公司必须采取行动,评估和减轻风险并确保系统安全,同时还要报告严重事故和分享能源消耗的详细信息。至于哪些模型是高风险的,这将取决于公司来评估它们的模型是否足够强大。

开源人工智能公司在很大程度上不受《人工智能法案》透明度要求的约束,除非它们正在开发像 GPT-4 这样的计算密集型模型。如果未能如期遵守规定,后果可能是巨额罚款,或者导致它们的产品被欧盟禁用。

欧盟还正在制定另一项法案,名为《人工智能责任指令(AI Liability Directive)》,该提案将确保受到人工智能技术伤害的人能够获得经济补偿。关于该提案的谈判仍在进行中,2024 年将会出现更多进展。

其他一些国家则采取了暂时观望的做法。例如,谷歌 DeepMind 总部所在的英国表示,短期内不打算监管人工智能。然而,如果任何公司想在欧盟这个世界第二大经济体里面开展业务,就必须遵守《人工智能法案》。

美国哥伦比亚大学法学教授阿努布拉德福德(Anu Bradford)称之为“布鲁塞尔效应”,通过率先出台监管政策,欧盟制定的标准将辐射全球各国并影响它们的政策制定者,进而塑造全球的商业和技术发展方式。

欧盟通过其严格的数据保护制度(GDPR,General Data Protection Regulation)成功实现了这一点,该制度被美国加州和印度等地区所效仿。它希望在人工智能方面继续成为主要影响者。

2024 年,我们可能会看到更多的人工智能法规在世界其他地区出台。一个值得关注的地区将是非洲。

欧洲发展政策管理中心的政策官员美乐达墨索尼(Melody Musoni)表示,非洲联盟可能会在 2024 年初发布一项针对非洲大陆的人工智能战略,旨在制定个别国家可以复制的政策,以在人工智能领域提升竞争力,并保护非洲消费者免受西方科技公司的影响。

卢旺达、尼日利亚和南非等一些国家已经起草了国家人工智能战略,还在努力制定教育计划、发展计算能力和行业友好政策,以支持人工智能公司。

联合国、经合组织、二十国集团(G20)等全球或地区联盟也已开始建立有关人工智能的工作组、咨询委员会、原则、标准和声明。

经合组织等组织可能有助于在不同地区塑造监管一致性,从而减轻人工智能公司的合规负担。

从地缘政治角度来看,我们可能会看到不同国家对人工智能产业的态度变得愈发不同,例如是否将人工智能武器化。

2024 年,人工智能公司将在多大程度上考虑全球扩张,还是优先专注本土业务,这也是一件有趣的事情。他们可能不得不做出一些艰难的决定。

支持:Ren

运营/排版:何晨龙

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...