BERT (mô hình ngôn ngữ) (Vietnamese Wikipedia)

Analysis of information sources in references of the Wikipedia article "BERT (mô hình ngôn ngữ)" in Vietnamese language version.

refsWebsite
Global rank Vietnamese rank
69th place
100th place
2,218th place
3,394th place
1,272nd place
1,649th place
383rd place
812th place
low place
7,489th place
low place
low place
low place
low place

arxiv.org

  • Devlin, Jacob; Chang, Ming-Wei; Lee, Kenton; Toutanova, Kristina (ngày 11 tháng 10 năm 2018). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding". arΧiv:1810.04805v2 [cs.CL]. 
  • Zhu, Yukun; Kiros, Ryan; Zemel, Rich; Salakhutdinov, Ruslan; Urtasun, Raquel; Torralba, Antonio; Fidler, Sanja (2015). "Aligning Books and Movies: Towards Story-Like Visual Explanations by Watching Movies and Reading Books". pp. 19–27. arΧiv:1506.06724 [cs.CV]. 
  • Dai, Andrew; Le, Quoc (ngày 4 tháng 11 năm 2015). "Semi-supervised Sequence Learning". arΧiv:1511.01432 [cs.LG]. 
  • Peters, Matthew; Neumann, Mark; Iyyer, Mohit; Gardner, Matt; Clark, Christopher; Lee, Kenton; Luke, Zettlemoyer (ngày 15 tháng 2 năm 2018). "Deep contextualized word representations". arΧiv:1802.05365v2 [cs.CL]. 
  • Howard, Jeremy; Ruder, Sebastian (ngày 18 tháng 1 năm 2018). "Universal Language Model Fine-tuning for Text Classification". arΧiv:1801.06146v5 [cs.CL]. 

blog.google

github.com

  • BERT, Google Research, 22 tháng 10 năm 2021, truy cập ngày 22 tháng 10 năm 2021

googleblog.com

ai.googleblog.com

  • “Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing”. Google AI Blog (bằng tiếng Anh). Truy cập ngày 27 tháng 11 năm 2019.

huggingface.co

naacl2019.org

searchenginejournal.com