为什么比尔·盖茨不担心人工智能模型会瞎编内容

AI1年前 (2023)发布 aixure
68 0 0
导读:文/Rashi Shrivastava 这位微软联合创始人在他的博客GatesNotes上写道,让人工智能模型对自己的偏见和事实错误更有自知之明和自觉,可能会防止它们在未来产生更多的虚假信息。 比尔盖茨在他最新的博客文章中提出,人工智能可以用来解决人工智能造成的问题。…

文/Rashi Shrivastava

这位微软联合创始人在他的博客GatesNotes上写道,让人工智能模型对自己的偏见和事实错误更有“自知之明”和“自觉”,可能会防止它们在未来产生更多的虚假信息。

比尔盖茨在他最新的博客文章中提出,人工智能可以用来解决人工智能造成的问题。图片来源:GETTY IMAGES

生成式人工智能工具已经到来,它们被滥用的可能性也无穷无荆它们可以在选举期间捏造虚假信息,也经常编造有偏见和错误的信息。另外,此外,它们还能让学校里的作文作弊变得极其容易。

今年早些时候,亿万富豪比尔盖茨在接受《福布斯》采访时表示,他认为向人工智能的转变“与PC一样重要”,他对所有这些挑战都感到担忧。但正如他在最近的一篇博客文章中所阐述的那样,他认为人工智能可以被用来解决它所造成的问题。

大型语言模型最著名的问题之一是它们倾向于产生“幻觉”或事实上不正确、有偏见或有害的信息。这是因为这些模型是根据从互联网上收集的大量数据进行训练的,而互联网上充斥着偏见和错误信息。但盖茨认为,有可能开发出一种人工智能工具,让它们意识到自己在接受训练时使用了错误的数据和做出了有偏见的假设。

他写道:“人工智能模型继承了它们接受训练的文本中所包含的偏见。我乐观地认为,随着时间的推移,人工智能模型可以学会区分事实和虚构。一种方法是将人类价值观和更高层次的推理融入人工智能。”

在这方面,他着重提到了ChatGPT的创造者OpenAI试图通过人类的反馈使他们的模型更准确、更有代表性和更安全。但是,即使在对其大型语言模型GPT-4的高级版本进行训练之后,这个饱受关注的聊天机器人仍然充满了偏见和不准确性。人工智能研究人员发现,ChatGPT强化了对女性和男性工作的性别刻板印象。(较新的聊天机器人,如Anthropic的ChatGPT竞争对手Claude 2.0,也在努力提高对话内容的准确性和减少有害内容,但它们还没有得到用户的广泛测试。)

盖茨有理由赞扬ChatGPT:他的公司微软已经向OpenAI投资了数十亿美元。今年4月底,在微软的财报电话会议上提到人工智能超过50次后,盖茨的财富增加了20亿美元。他目前的身家约为1,180亿美元。

盖茨在博客中讨论的一个例子是,黑客和网络犯罪分子会使用生成式人工智能工具编写代码或创建人工智能生成的声音来进行电话诈骗。这些工具的失控影响导致一些人工智能领域的领导者和专家,包括苹果联合创始人史蒂夫沃兹尼亚克(Steve Wozniak)、特斯拉、SpaceX和Twitter首席执行官埃隆马斯克(Elon Musk),以及人类技术中心(Center for Human Technology)联合创始人特里斯坦哈里斯(Tristan Harris)在3月底发表的一封公开信中呼吁暂停部署强大的人工智能工具。盖茨反驳了这封信,并强调他不认为暂停开发会解决任何挑战。他写道:“我们不应该像一些人提议的那样,试图暂时阻止人们实施人工智能的新发展。”

相反,他表示,这些后果为继续开发先进的人工智能工具和监管提供了进一步的理由,以便让政府和企业能够发现、限制和打击滥用人工智能的行为。“网络犯罪分子不会停止制造新工具……阻止他们的努力需要我们以同样的速度继续开发下去。”他写道。

但是,盖茨声称人工智能工具可以用来弥补其他人工智能工具的不足,这在实际层面可能站不住脚至少现在还如此。例如,虽然市面上推出了一系列人工智能探测器和深度造假探测器,但并非所有探测器都能正确标记出合成或被操纵的内容。据《纽约时报》报道,一些探测器会错误地将真实图像描述为人工智能生成的。但是,盖茨表示,生成式人工智能仍然是一项新兴技术,需要政府机构和公司对其进行监控和监管,以控制其对社会的意外影响。

“我们现在正处于……人工智能时代。这类似于一个限速和安全带出现之前的不确定时代。”盖茨写道。

本文译自https://www.forbes.com/sites/rashishrivastava/2023/07/12/why-bill-gates-isnt-worried-about-ai-models-making-stuff-up/?sh=4c8215cb40e7#open-web-0

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...