Generative pre-trained transformer (Russian Wikipedia)

Analysis of information sources in references of the Wikipedia article "Generative pre-trained transformer" in Russian language version.

refsWebsite
Global rank Russian rank
1st place
1st place
1,559th place
1,840th place
69th place
148th place
4th place
6th place
1,564th place
1,893rd place
low place
low place
2nd place
3rd place
low place
low place

arxiv.org

  • Zhu, Yukun; Kiros, Ryan; Zemel, Rich; Salakhutdinov, Ruslan; Urtasun, Raquel; Torralba, Antonio; Fidler, Sanja (2015). Aligning Books and Movies: Towards Story-Like Visual Explanations by Watching Movies and Reading Books. IEEE International Conference on Computer Vision (ICCV) 2015. pp. 19—27. arXiv:1506.06724. Архивировано 5 февраля 2023. Дата обращения: 7 февраля 2023.
  • Ouyang, Long; Wu, Jeff; Jiang, Xu; et al. (2022-03-04). "Training language models to follow instructions with human feedback". arXiv:2203.02155. {{cite journal}}: Cite journal требует |journal= (справка)

cmu.edu

cs.cmu.edu

cv-foundation.org

  • Zhu, Yukun; Kiros, Ryan; Zemel, Rich; Salakhutdinov, Ruslan; Urtasun, Raquel; Torralba, Antonio; Fidler, Sanja (2015). Aligning Books and Movies: Towards Story-Like Visual Explanations by Watching Movies and Reading Books. IEEE International Conference on Computer Vision (ICCV) 2015. pp. 19—27. arXiv:1506.06724. Архивировано 5 февраля 2023. Дата обращения: 7 февраля 2023.

doi.org

nih.gov

ncbi.nlm.nih.gov

pubmed.ncbi.nlm.nih.gov

openai.com

cdn.openai.com

openai.com

the-decoder.com

web.archive.org

  • Radford, Alec; Narasimhan, Karthik; Salimans, Tim; Sutskever, Ilya Improving Language Understanding by Generative Pre-Training 12. OpenAI (11 июня 2018). Дата обращения: 23 января 2021. Архивировано 26 января 2021 года.
  • Tsvetkov, Yulia Opportunities and Challenges in Working with Low-Resource Languages. Carnegie Mellon University (22 июня 2017). Дата обращения: 23 января 2021. Архивировано 31 марта 2020 года.
  • Zhu, Yukun; Kiros, Ryan; Zemel, Rich; Salakhutdinov, Ruslan; Urtasun, Raquel; Torralba, Antonio; Fidler, Sanja (2015). Aligning Books and Movies: Towards Story-Like Visual Explanations by Watching Movies and Reading Books. IEEE International Conference on Computer Vision (ICCV) 2015. pp. 19—27. arXiv:1506.06724. Архивировано 5 февраля 2023. Дата обращения: 7 февраля 2023.
  • Radford, Alec; Narasimhan, Karthik; Salimans, Tim; Sutskever, Ilya Improving Language Understanding by Generative Pre-Training 12. OpenAI (11 июня 2018). Дата обращения: 23 января 2021. Архивировано 26 января 2021 года.
  • Language models are few-shot learners (амер. англ.). openai.com. Дата обращения: 21 марта 2023. Архивировано 21 марта 2023 года.
  • OpenAI GPT-4 Technical Report (2023). Дата обращения: 16 марта 2023. Архивировано 14 марта 2023 года.
  • Luo R, Sun L, Xia Y, Qin T, Zhang S, Poon H; et al. (2022-09-24). "BioGPT: generative pre-trained transformer for biomedical text generation and mining". Brief Bioinform. 23 (6). doi:10.1093/bib/bbac409. PMID 36156661. Архивировано 1 апреля 2023. Дата обращения: 7 февраля 2023.{{cite journal}}: Википедия:Обслуживание CS1 (множественные имена: authors list) (ссылка)
  • Matthias Bastian. BioGPT is a Microsoft language model trained for biomedical tasks. The Decoder (29 января 2023). Дата обращения: 7 февраля 2023. Архивировано 7 февраля 2023 года.