2018年10月,Google发出一篇论文《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》, BERT模子横空出世, 并横扫NLP范畴11项任务的最佳成绩! 论文地址: https://arxiv.org/pdf/1810.04805.pdf 而在BERT中发挥重要作用的结构就是Transformer, 之后又相继出现XLNET,roBERT等模子击败了BERT,但是他们的核心没有变,仍旧是:Transformer. 1.2 Transformer的优势