Generativer vortrainierter Transformer (German Wikipedia)

Analysis of information sources in references of the Wikipedia article "Generativer vortrainierter Transformer" in German language version.

refsWebsite
Global rank German rank
1,559th place
1,248th place
69th place
189th place
low place
low place
2nd place
3rd place
54th place
107th place
179th place
460th place
low place
low place
114th place
489th place
low place
low place
187th place
662nd place
low place
low place
305th place
632nd place
193rd place
559th place
268th place
716th place
1,771st place
892nd place
61st place
163rd place
low place
low place
low place
low place
low place
low place
low place
low place
1,060th place
4,063rd place
1st place
1st place
33rd place
2nd place
low place
low place
low place
low place
272nd place
1,049th place
561st place
1,973rd place
6,158th place
8,574th place
388th place
1,153rd place
220th place
747th place
1,040th place
3,267th place
low place
low place
1,317th place
3,832nd place
4th place
7th place
low place
low place
5,911th place
6,771st place
3,696th place
8,142nd place
low place
low place
low place
low place
407th place
1,458th place
4,157th place
4,713th place
low place
low place

IABotmemento.invalid

  • Arham Islam: Multimodal Language Models: The Future of Artificial Intelligence (AI). 27. März 2023, archiviert vom Original am 15. Mai 2023; abgerufen am 28. Juli 2023 (englisch).  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.marktechpost.com

aibusiness.com

aljazeera.com

analyticsindiamag.com

arstechnica.com

arxiv.org

  • Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In: Computer Science. 24. Mai 2019, arxiv:1810.04805v2 (englisch).
  • Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei: Language Models are Few-Shot Learners. In: Computer Science. 28. Mai 2020, arxiv:2005.14165v4 (englisch).
  • Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida, Carroll L. Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, John Schulman, Jacob Hilton, Fraser Kelton, Luke Miller, Maddie Simens, Amanda Askell, Peter Welinder, Paul Christiano, Jan Leike, Ryan Lowe: Training language models to follow instructions with human feedback. In: Computer Science. 4. März 2022, arxiv:2203.02155 (englisch).
  • Renqian Luo (et-al): BioGPT: Generative pre-trained transformer for biomedical text generation and mining. In: Briefings in Bioinformatics. 23. Jahrgang, Nr. 6, 3. April 2023, doi:10.1093/bib/bbac409, PMID 36156661, arxiv:2210.10341 (englisch).

basicthinking.de

bizjournals.com

cambridge.org

  • Li Deng: A tutorial survey of architectures, algorithms, and applications for deep learning | APSIPA Transactions on Signal and Information Processing | Cambridge Core. In: Apsipa Transactions on Signal and Information Processing. 3. Jahrgang. Cambridge.org, 22. Januar 2014, S. e2, doi:10.1017/atsip.2013.9 (englisch, cambridge.org [abgerufen am 21. Mai 2023]).

cerebras.net

cnbc.com

cnet.com

databricks.com

doi.org

  • Geoffrey Hinton (et-al): Deep neural networks for acoustic modeling in speech recognition. In: IEEE Signal Processing Magazine. Digital Object Identifier 10.1109/MSP.2012.2205597. Jahrgang, 15. Oktober 2012, doi:10.1109/MSP.2012.2205597 (englisch, stanford.edu [PDF]).
  • Li Deng: A tutorial survey of architectures, algorithms, and applications for deep learning | APSIPA Transactions on Signal and Information Processing | Cambridge Core. In: Apsipa Transactions on Signal and Information Processing. 3. Jahrgang. Cambridge.org, 22. Januar 2014, S. e2, doi:10.1017/atsip.2013.9 (englisch, cambridge.org [abgerufen am 21. Mai 2023]).
  • Renqian Luo (et-al): BioGPT: Generative pre-trained transformer for biomedical text generation and mining. In: Briefings in Bioinformatics. 23. Jahrgang, Nr. 6, 3. April 2023, doi:10.1093/bib/bbac409, PMID 36156661, arxiv:2210.10341 (englisch).

eleuther.ai

epochai.org

fastcompany.com

forbes.com

geekwire.com

infoq.com

infoworld.com

makeuseof.com

marktechpost.com

  • Arham Islam: Multimodal Language Models: The Future of Artificial Intelligence (AI). 27. März 2023, archiviert vom Original am 15. Mai 2023; abgerufen am 28. Juli 2023 (englisch).  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.marktechpost.com
  • Arham Islam: How Do DALL·E 2, Stable Diffusion, and Midjourney Work? 14. November 2022; (englisch).

mashable.com

namepepper.com

  • Dave Ver Meer: ChatGPT Statistics. In: NamePepper. 1. Juni 2023, abgerufen am 9. Juni 2023 (englisch).

neurips.cc

proceedings.neurips.cc

  • Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, Illia Polosukhin: Attention is All you Need. (PDF) In: Advances in Neural Information Processing Systems. Curran Associates, Inc., 2017, abgerufen am 29. April 2024 (englisch).
  • Zhilin Yang (et-al): XLNet. In: Proceedings from NeurIPS 2019. 2019 (englisch, neurips.cc [PDF]).

nih.gov

ncbi.nlm.nih.gov

openai.com

openai.com

cdn.openai.com

pcmag.com

pcworld.com

redirecter.toolforge.org

  • Arham Islam: Multimodal Language Models: The Future of Artificial Intelligence (AI). 27. März 2023, archiviert vom Original am 15. Mai 2023; abgerufen am 28. Juli 2023 (englisch).  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.marktechpost.com

stanford.edu

cs224d.stanford.edu

  • Geoffrey Hinton (et-al): Deep neural networks for acoustic modeling in speech recognition. In: IEEE Signal Processing Magazine. Digital Object Identifier 10.1109/MSP.2012.2205597. Jahrgang, 15. Oktober 2012, doi:10.1109/MSP.2012.2205597 (englisch, stanford.edu [PDF]).

hai.stanford.edu

crfm.stanford.edu

  • Stanford CRFM. In: crfm.stanford.edu. (englisch).

techcrunch.com

techmonitor.ai

techstartups.com

thejournal.com

theverge.com

time.com

  • The A to Z of Artificial Intelligence. In: Time. 13. April 2023 (englisch, time.com).

web.archive.org

  • Arham Islam: Multimodal Language Models: The Future of Artificial Intelligence (AI). 27. März 2023, archiviert vom Original am 15. Mai 2023; abgerufen am 28. Juli 2023 (englisch).  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.marktechpost.com

weforum.org

wire19.com

wired.com