什么是BERT? -白板星期五

[ad_1]

关于新的Google算法更新有很多宣传和错误信息。 BERT到底是什么?它如何工作?为什么它对我们作为SEO的工作有影响?加入我们自己的机器学习和自然语言处理专家小甜甜布兰妮·穆勒(Britney Muller),她将确切地解释BERT是什么以及它对搜索行业的意义。

单击上方的白板图像,在新选项卡中打开高分辨率版本!

视频转录

嘿,莫兹迷。欢迎使用《星期五白板》。今天,我们谈论着BERT的所有事情,而我为能够真正为所有人分解这一点感到非常兴奋。我没有声称自己是BERT专家。我刚刚做了很多研究。我已经能够采访该领域的一些专家,我的目标是设法使这些信息更容易理解。

目前,您无法对BERT进行优化,因此行业中发生了很多混乱。尽管这是绝对正确的,但您不能,您只需要为用户编写非常好的内容,我仍然认为我们很多人都进入了这个领域,因为我们天生就好奇。如果您想了解更多有关BERT的知识,并希望能够更好地向客户解释它,或者希望围绕BERT进行更好的对话,那么我希望您喜欢这个视频。如果没有,这也不适合您,那也很好。

请注意:不要过度宣传BERT!

我很高兴能跳进去。我要说的第一件事是我能够坐下来 艾莉森·艾丁格,他是自然语言处理研究人员。她是芝加哥大学的教授。当我与她交谈时,主要要讲的是不要过度宣传BERT是非常非常重要的。现在发生了很多骚动,但与人类理解语言和上下文的方式仍然相去甚远。因此,我想记住这一点很重要,我们并没有过分强调此模型可以做什么,但是它仍然非常令人兴奋,并且在NLP和机器学习中是非常重要的时刻。事不宜迟,让我们直接进入。

BERT来自哪里?

我想为大家提供BERT来自何处以及去向的更广阔背景。我认为很多时候这些公告都是轰炸行业的炸弹,本质上是一系列电影中的静止画面,我们在电影前后都没有得到完整的报道。我们只得到一个静止帧。因此,我们收到了BERT公告,但让我们回到过去。

自然语言处理

传统上,计算机无法理解语言。它们可以存储文本,我们可以输入文本,但是对于计算机而言,理解语言始终异常困难。自然语言处理(NLP)随之而来,研究人员正在该领域开发特定的模型来解决各种类型的语言理解问题。有两个示例称为实体识别,分类。我们看到情绪,回答问题。传统上,所有这些东西都是由单个NLP型号出售的,因此看起来有点像您的厨房。

如果您考虑一下厨房中使用的餐具之类的单个模型,它们都具有非常出色的特定任务。但是当BERT出现时,它简直就是厨房用具的全部。经过微调后,它确实是一种可以很好地完成十多种或十一种自然语言处理解决方案的厨房用具。这是该领域令人兴奋的差异。这就是人们对此感到非常兴奋的原因,因为他们不再拥有所有这些一次性的东西。他们可以使用BERT来解决所有这些问题,这很有意义,因为Google会将其纳入他们的算法中。超级,超级刺激。

BERT往哪里去?

标题在哪里?这要去哪里艾莉森说,

“我认为我们将在相同的轨道上发展一段时间,以构建更大,更好的BERT变体,这些变体将以BERT强大的方式变得更强大,并且可能具有相同的基本局限性。”

已经有大量的BERT不同版本,我们将继续看到越来越多的版本。看到这个空间的方向将会很有趣。

BERT如何变得如此聪明?

我们如何看待BERT如何变得如此聪明的非常简单的看法?我觉得这东西很有趣。 Google能够做到这一点真是令人惊讶。 Google将Wikipedia文本和大量资金用于计算能力的TPU,它们将它们组装在V3吊舱中,如此庞大的计算机系统可以为这些模型提供动力。他们使用了无监督的神经网络。关于它如何学习以及如何变得更聪明的有趣之处在于它需要任意长度的文本,这很好,因为语言在我们说的方式上,在文本的长度上是相当任意的,并将其转录为向量。

它将需要一段文本并将其编码为向量,该向量是固定的数字字符串,有助于将其转换为机器。这发生在一个我们甚至无法想象的非常荒诞的三维空间中。但是它的作用是将上下文和同一区域中我们语言中的不同事物放在一起。与Word2vec相似,它使用了称为屏蔽的技巧。

因此,它将采用不同的句子进行训练,并且将掩盖一个单词。它使用此双向模型查看其前后的单词,以预测被屏蔽的单词是什么。它会一遍又一遍地执行此操作,直到功能极其强大为止。然后可以对其进行微调以完成所有这些自然语言处理任务。真的,在这个空间里真是令人兴奋,很有趣。

简而言之,BERT是第一个深度双向的。这意味着仅查看实体和上下文前后的单词,无监督的语言表示形式,在Wikipedia上进行过预培训。因此,可以以各种方式使用的是这个非常漂亮的经过预先训练的模型。

BERT不能做什么?

艾莉森·艾丁格(Allyson Ettinger)撰写了一篇非常出色的研究论文,名为 BERT不能做什么。您可以使用一个Bitly链接直接转到该链接。她的研究最令人惊讶的收获是否定诊断领域,这意味着BERT不太擅长理解否定。

例如,用罗宾输入的是a…它预测的鸟是对的,那很好。但是当罗宾进入时并没有……它也预示着鸟。因此,在BERT没有看到否定示例或上下文的情况下,仍然很难理解这一点。还有很多更有趣的外卖。我强烈建议您检查一下,真的很好。

您如何优化BERT? (你不能!)

最后,您如何优化BERT?再一次,你不能。通过此更新来改善您的网站的唯一方法是为用户编写非常棒的内容并实现他们所寻求的意图。因此,您不能,但是我只想提一件事,因为老实说我无法从中解脱,是YouTube视频中的Jeff Dean,我们会链接到它,这是一个 Jeff Dean的主题演讲 在谈到BERT时,他进入了自然问题和自然问题理解。对我来说,最大的收获就是这个例子,好吧,假设有人问了一个问题,您可以在飞行模式下拨打和接听电话吗? Google的自然语言翻译层正在尝试理解所有这些文本的文本块。这是很多话。这有点技术性,很难理解。

通过这些层,利用诸如BERT之类的东西,他们就无法从所有这种非常复杂,冗长而令人困惑的语言中回答任何问题。它在我们的空间中确实非常强大。考虑诸如特色片段之类的东西;考虑诸如一般SERP功能之类的事情。我的意思是,这可能会开始对我们的领域产生巨大影响。因此,我认为重要的是要对所有事情的前进方向以及该领域的发展状况进行一番脉动。

我真的希望您喜欢这个版本的Whiteboard Friday。如果您对下面的问题或意见有任何疑问,请告诉我,我希望下次再见。非常感谢。

视频转录 通过 Speechpad.com

相关文章