Generative pre-trained transformer (Russian Wikipedia)

Analysis of information sources in references of the Wikipedia article "Generative pre-trained transformer" in Russian language version.

refsWebsite
Global rank Russian rank
1st place
1st place
1,559th place
1,840th place
69th place
148th place
4th place
6th place
1,564th place
1,893rd place
low place
low place
2nd place
3rd place
low place
low place

arxiv.org (Global: 69th place; Russian: 148th place)

  • Zhu, Yukun; Kiros, Ryan; Zemel, Rich; Salakhutdinov, Ruslan; Urtasun, Raquel; Torralba, Antonio; Fidler, Sanja (2015). Aligning Books and Movies: Towards Story-Like Visual Explanations by Watching Movies and Reading Books. IEEE International Conference on Computer Vision (ICCV) 2015. pp. 19–27. arXiv:1506.06724. Архивировано 5 февраля 2023. Дата обращения: 7 февраля 2023.
  • Ouyang, Long; Wu, Jeff; Jiang, Xu; et al. (4 марта 2022). Training language models to follow instructions with human feedback. arXiv:2203.02155. {{cite journal}}: Cite journal требует |journal= (справка)

cmu.edu (Global: 1,564th place; Russian: 1,893rd place)

cs.cmu.edu

cv-foundation.org (Global: low place; Russian: low place)

  • Zhu, Yukun; Kiros, Ryan; Zemel, Rich; Salakhutdinov, Ruslan; Urtasun, Raquel; Torralba, Antonio; Fidler, Sanja (2015). Aligning Books and Movies: Towards Story-Like Visual Explanations by Watching Movies and Reading Books. IEEE International Conference on Computer Vision (ICCV) 2015. pp. 19–27. arXiv:1506.06724. Архивировано 5 февраля 2023. Дата обращения: 7 февраля 2023.

doi.org (Global: 2nd place; Russian: 3rd place)

nih.gov (Global: 4th place; Russian: 6th place)

ncbi.nlm.nih.gov

pubmed.ncbi.nlm.nih.gov

openai.com (Global: 1,559th place; Russian: 1,840th place)

cdn.openai.com

openai.com

the-decoder.com (Global: low place; Russian: low place)

web.archive.org (Global: 1st place; Russian: 1st place)

  • Narasimhan, Karthik; Salimans, Tim; Sutskever, Ilya; Radford, Alec. Improving Language Understanding by Generative Pre-Training 12. OpenAI (11 июня 2018). Дата обращения: 23 января 2021. Архивировано 26 января 2021 года.
  • Tsvetkov, Yulia. Opportunities and Challenges in Working with Low-Resource Languages. Carnegie Mellon University (22 июня 2017). Дата обращения: 23 января 2021. Архивировано 31 марта 2020 года.
  • Zhu, Yukun; Kiros, Ryan; Zemel, Rich; Salakhutdinov, Ruslan; Urtasun, Raquel; Torralba, Antonio; Fidler, Sanja (2015). Aligning Books and Movies: Towards Story-Like Visual Explanations by Watching Movies and Reading Books. IEEE International Conference on Computer Vision (ICCV) 2015. pp. 19–27. arXiv:1506.06724. Архивировано 5 февраля 2023. Дата обращения: 7 февраля 2023.
  • Salimans, Tim; Narasimhan, Karthik; Radford, Alec; Sutskever, Ilya. Improving Language Understanding by Generative Pre-Training 12. OpenAI (11 июня 2018). Дата обращения: 23 января 2021. Архивировано 26 января 2021 года.
  • Language models are few-shot learners (амер. англ.). openai.com. Дата обращения: 21 марта 2023. Архивировано 21 марта 2023 года.
  • OpenAI. GPT-4 Technical Report (2023). Дата обращения: 16 марта 2023. Архивировано 14 марта 2023 года.
  • Luo R, Sun L, Xia Y, Qin T, Zhang S, Poon H; et al. (24 сентября 2022). BioGPT: generative pre-trained transformer for biomedical text generation and mining. Brief Bioinform. 23 (6). doi:10.1093/bib/bbac409. PMID 36156661. Архивировано 1 апреля 2023. Дата обращения: 7 февраля 2023.{{cite journal}}: Википедия:Обслуживание CS1 (множественные имена: authors list) (ссылка)
  • Matthias Bastian. BioGPT is a Microsoft language model trained for biomedical tasks. The Decoder (29 января 2023). Дата обращения: 7 февраля 2023. Архивировано 7 февраля 2023 года.