百度有一种新的技巧可以教AI语言的含义

AI1年前 (2023)发布 aixure
66 0 0
导读:据《麻省理工科技评论》(MIT Technology Review)消息, 本月初,中国科技巨头百度在一场持续的人工智能竞争中悄悄击败了微软和谷歌。具体来说,百度AI算法ERNIE 在通用语言理解评估测试(General Language Understanding Evaluation,GLUE)上领先其竞争对手…

据《麻省理工科技评论》(MIT Technology Review)消息, 本月初,中国科技巨头百度在一场持续的人工智能竞争中悄悄击败了微软和谷歌。具体来说,百度AI算法ERNIE 在通用语言理解评估测试(General Language Understanding Evaluation,GLUE)上领先其竞争对手。

GLUE是AI系统理解人类语言的良好标准。它由九种不同的测试组成,这些测试包括选择句子中的人员和组织的名称以及弄清楚“ it”等代词在存在多个潜在先行词时的含义。因此,在GLUE上得分很高的语言模型可以处理各种阅读理解任务。在满分100分中,此前在 GLUE 测试的平均分为 87。百度现在是第一个凭借其模型ERNIE获得超过90分的团队。

GLUE的公开排行榜在不断变化,另外一支团队很可能很快会超越百度。但值得注意的是,百度的成就说明了AI研究如何从众多贡献者中受益。百度的研究人员必须开发一种专门针对中文的技术来构建ERNIE(代表“知识增强的语义表示模型 ”)。碰巧的是,同样的技术也使它更好地理解英语。

在Transformer的双向编码器表示(BERT)于2018年末创建之前,自然语言模型并不是那么好。他们擅长预测句子中的下一个单词(因此非常适用于自动完成功能),但即使经过一小段时间,他们也无法承受任何思路。这是因为它们不理解含义,例如“它”一词可能指的是什么。

但是BERT改变了这一点。先前的模型学会了仅通过考虑单词之前或之后出现的上下文来预测和解释单词的含义,而不能同时考虑两者。换句话说,它们是单向的。

相比之下,BERT一次考虑单词前后的上下文,使其双向。它使用称为“掩码”的技术来执行此操作。在给定的文本段落中,BERT随机隐藏15%的单词,然后尝试从其余单词中进行预测。这使得它可以做出更准确的预测,因为它具有两倍的工作线索。例如,在“男子去___购买牛奶”一句中,句子的开头和结尾都提示了缺失的单词。 ___是您可以去的地方,也是可以购买牛奶的地方。

使用掩码是对自然语言任务进行重大改进背后的核心创新之一,并且是诸如OpenAI著名的GPT-2之类的模型可以撰写极具说服力的散文而又不偏离中心论题的部分原因。

百度研究人员开始开发自己的语言模型时,他们希望以掩码技术为基矗但是他们意识到他们需要进行调整以适应中文。在英语中,单词充当语义单元,这意味着完全脱离上下文的单词仍然包含含义。中文字符不能说相同。尽管某些字符确实具有内在含义,例如火、水或木,但大多数字符只有与其他人串在一起才可以。例如,根据匹配,字符灵可以表示聪明(机灵)或灵魂(灵魂)。一旦分开,专有名词中的字符(例如,波士顿或美国)就不是同一件事。

因此,研究人员在新版本的掩码上对ERNIE进行了培训,该掩码可隐藏字符串而不是单个字符。他们还训练了它以区分有意义的字符串和随机的字符串,从而可以相应地掩盖正确的字符组合。结果,ERNIE对单词如何用中文编码信息有了更深入的了解,并且在预测缺失片段方面更加准确。事实证明,这对于从文本文档进行翻译和信息检索等应用程序非常有用。

研究人员很快发现这种方法实际上实际上也适用于英语。英语中具有类似的单词字符串,这些单词表示的含义与其部分和的总和不同。无法通过将“ Harry Potter”等专有名词和“ chip off the old block”之类的表达式分隔来有意义地解析它们包含的意思。

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...