OpenAI回应各方质疑:我们有六个办法确保AI安全

AI1年前 (2023)发布 aixure
64 0 0
导读:划重点 腾讯科技讯 4月6日消息,在最近遭遇到伦理质疑和监管方面的反弹之后,人工智能研究公司OpenAI终于给出了确保其技术安全的方案。该公司周三发文详细介绍了其方法,包括进行安全评估、提高事实准确性、保护儿童以及尊重隐私等。OpenAI声称,确保人工智…

划重点

科技新闻讯 4月6日消息,在最近遭遇到伦理质疑和监管方面的反弹之后,人工智能研究公司OpenAI终于给出了确保其技术安全的方案。该公司周三发文详细介绍了其方法,包括进行安全评估、提高事实准确性、保护儿童以及尊重隐私等。OpenAI声称,确保人工智能系统的安全构建、部署和使用对实现其使命至关重要。

以下为OpenAI公告全文:

OpenAI致力于确保强大AI系统的安全和更多人有益。我们知道,我们的人工智能工具为今天的人们提供了许多好处。我们在世界各地的用户告诉我们,ChatGPT有助于提高他们的工作效率,增强他们的创造力,并提供量身定制的学习体验。我们也认识到,像任何技术一样,这些工具也会带来真正的风险,因此我们努力确保该系统在各个层面的安全性。

一、构建越来越安全的人工智能系统

在发布任何新系统之前,我们都会进行严格的测试,征求外部专家的反馈意见,通过人工反馈的强化学习等技术来改善模型的行为,并建立广泛的安全和监控系统。

例如,在我们最新模型GPT-4完成培训后,花了6个多月的时间在整个公司进行测试,以使其在公开发布之前变得更安全、更一致。

我们认为,强大的人工智能系统应该接受严格的安全评估。需要监管来确保这些做法被采纳,我们正积极与各国政府就可能采取的最佳监管形式进行接触。

二、从实际使用中学习,以改进保障措施

在部署之前,我们努力防止可预见的风险,然而,我们在实验室中所能学到的东西毕竟有限。尽管进行了广泛的研究和测试,但我们无法预测人们使用我们技术的所有有益方式,也无法预测人们如何滥用这项技术。这就是为什么我们相信,随着时间的推移,从现实世界的实际使用中学习是创建和发布越来越安全人工智能系统的关键组成部分。

我们小心翼翼、按部就班地向更广泛的人群发布新的人工智能系统,并在吸取经验教训的基础上不断改进。

我们通过自己的服务和API提供最强大的模型,这样开发者就可以将这项技术直接构建到他们自己的应用程序中。这使我们能够监测并对滥用行为采取行动,并不断构建缓解措施,以应对人们滥用我们系统的真实方式,而不仅仅是从理论上进行想象。

现实世界中的实际使用也促使我们制定了越来越细致的政策,反对那些对人们构成真正风险的行为,同时仍然允许我们的技术以更多有用的方式被使用。

至关重要的是,我们认为社会必须有时间来调整和适应日益强大的人工智能,而且每个受到这项技术影响的人都应该在人工智能如何进一步发展方面拥有自己的发言权。迭代部署帮助我们将各类利益相关者引入到关于采用人工智能技术的对话中,而拥有这些工具的第一手使用经验显然十分重要。

三、保护儿童

我们安全工作的一个关键重点是保护儿童。我们要求用户必须年满18岁(或经父母批准年满13岁)才能使用我们的人工智能工具,并正在研究验证功能。

我们不允许我们的技术被用于生成仇恨、骚扰、暴力或成人等类别的内容。与GPT-3.5相比,我们的最新模型GPT-4对受限内容请求做出响应的可能性降低了82%,我们已经建立了一个强大的系统来监控滥用行为。GPT-4现在对ChatGPT Plus的用户开放,我们希望随着时间的推移让更多的人也能使用它。

我们已经做出了巨大的努力,尽量减少我们的模型产生伤害儿童内容的可能性。例如,当用户试图将儿童安全虐待材料上传到我们的图像生成工具时,我们会拦截并将其报告给国家失踪与受剥削儿童中心。

除了我们默认的安全护栏,我们还与非营利机构可汗学院等开发者合作,为他们量身定制安全缓解措施。可汗学院开发了一个人工智能助手,既可以充当学生的虚拟导师,也可以充当教师的课堂助手。我们也在开发更多功能,这些功能将允许开发者为模型输出设置更严格的标准,以更好地支持需要这些功能的开发者和用户。

四、尊重隐私

我们的大型语言模型是在广泛的文本语料库上进行训练的,这些文本语料库包括公开可用的内容、获得授权的内容以及由人工审核人员生成的内容。我们不使用数据来销售我们的服务、做广告或建立人们的档案,而是为了让我们的模型对人们更有帮助。例如,ChatGPT通过与人进行更多对话来改进自己。

虽然我们有些训练数据中包括在公共互联网上可以获得的个人信息,但我们希望我们的模型了解世界,而非个人层面。因此,我们努力在可行的情况下从训练数据集中删除个人信息,微调模型以拒绝对有关个人信息的请求,并响应人们从我们的系统中删除个人信息的请求。这些措施将我们的模型生成包含私人个人信息的响应的可能性降至最低。

五、提高事实准确性

如今的大型语言模型基于它们之前看到的模式(包括用户提供的文本输入)来预测接下来的下一系列词汇。但在某些情况下,下一个最可能出现的词汇实际上可能并不符合事实。

因此,提高事实准确性正成为OpenAI和许多其他人工智能开发商的一个重要关注点,我们正在取得进展。通过利用用户对被标记为不正确的ChatGPT输出的反馈作为主要数据来源,我们提高了GPT-4的事实准确性。与GPT-3.5相比,GPT-4生成事实性内容的水平提高了40%。

当用户注册使用该工具时,我们会尽量做到透明,以免ChatGPT可能提供错误回复。然而,我们认识到,要进一步降低幻觉的可能性,并教育公众了解这些人工智能工具目前的局限性,还有很多工作要做。

六、持续研究和参与

我们认为,解决人工智能安全问题的一个切实可行的方法,就是投入更多的时间和资源来研究有效的缓解和校准技术,并针对现实世界可能被滥用情况进行测试。

重要的是,我们还认为,提高人工智能的安全性和能力应该齐头并进。迄今为止,我们最好的安全工作就是与我们能力最强的模型合作,因为它们更善于遵循用户的指示,更容易被“引导”。

我们将越来越谨慎地创建和部署功能更强大的模型,并将随着人工智能系统的发展继续加强安全预防措施。

虽然我们等了6个多月才部署GPT-4,以更好地了解其功能、好处和风险,但有时可能需要更长的时间来提高人工智能系统的安全性。因此,政策制定者和人工智能提供商将需要确保人工智能的开发和部署在全球范围内得到有效监管,这样就没有人会为了领先而寻找捷径。这是一项艰巨的挑战,需要技术和制度创新,但我们渴望为此做出贡献。

解决安全问题还需要广泛的辩论、实验和参与,包括为人工智能系统的行为设置界限。我们已经并将继续促进利益相关者之间的合作和开放对话,以创建一个更安全的人工智能生态系统。(金鹿)

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...