0%

nlp-bert学习

介绍

BERT的全称是Bidirectional Encoder Representation from Transformers,是 Google 在2018年提出的一种NLP 模型。
BERT逐步取代word2vec与lstm等技术,成为主流NLP主流框架。
BERT是基于transformer衍生出来的预训练模型。

什么是Transformer模型

Transformer 是一种使用注意力机制来提高模型训练速度的模型。