来源:互联网 时间:2019-10-28 15:43:49
谷歌表示,在过去的五年中,其最新的回答算法(绰号BERT)在理解查询方面取得了最大的进步。它获得的最后一次重大提升来自2015年的RankBrain。
BERT是Transformers的双向编码器表示的缩写,它是一种在自然语言处理领域中生成模型的机器学习技术。
BERT可以通过查看句子中前后的单词来猜测单词,从而使其成为“双向的”。谷歌的BERT提升了“单向” OpenAI GPT,后者仅在句子中被猜到之前查看单词。
Google研究员兼副总裁Pandu Nayak表示,BERT模型的双向方面提供了有关单词的更多上下文,这应该有助于Google搜索了解搜索查询背后的意图,尤其是在介词“至”和“从”到含义的介词中搜索。
谷歌去年将BERT开源,并在当时的AI博客中详细介绍了这项研究。根据Google的说法,BERT模型的复杂性使得必须部署其Cloud TPU来交付搜索结果。
除了搜索排名之外,Google还将BERT模型应用于精选片段。谷歌表示,BERT将提高其在美国以英语理解大约10%搜索查询的能力。它将逐步将新的自然语言处理模型带入更多的语言和市场。
新的模式应该可以帮助Google搜索更好地了解其系统从未有过的每天15%的查询。
纳亚克(Nayak)提供了一些示例,这些示例中Search以前错过了“ for”和“ to”在提供结果中的重要性。
一个例子是:“ 2019年前往美国的巴西旅行者需要签证”,在这里“前往”很重要,因为要了解是巴西人前往美国。在BERT之前,Google的算法返回了有关美国人前往巴西的结果。
另一个是:“您能为某人药房买药吗”。在提供关于处方的一般答案之前,但BERT模型了解查询是关于您是否可以为另一个人领取处方。
对于英语以外的其他语言,谷歌表示可以使用来自语言的BERT学习并将其应用于其他语言。
相关推荐
猜你喜欢