Q-навчання (Ukrainian Wikipedia)

Analysis of information sources in references of the Wikipedia article "Q-навчання" in Ukrainian language version.

refsWebsite
Global rank Ukrainian rank
1st place
1st place
3rd place
11th place
2nd place
4th place
3,600th place
3,626th place
5th place
9th place
4th place
5th place
low place
low place
8,317th place
low place
low place
low place
6th place
6th place
low place
low place
69th place
188th place
3,903rd place
6,283rd place
low place
low place
low place
8,811th place
5,609th place
3,730th place
low place
low place
9,352nd place
low place
153rd place
227th place

aaai.org

archive.org

arxiv.org

  • François-Lavet, Vincent; Fonteneau, Raphael; Ernst, Damien (7 грудня 2015). How to Discount Deep Reinforcement Learning: Towards New Dynamic Strategies. arXiv:1512.02011 [cs.LG]. (англ.)

bkgm.com

books.google.com

doi.org

huji.ac.il

ratio.huji.ac.il

incompleteideas.net

leemon.com

microsoft.com

  • Strehl, Alexander L.; Li, Lihong; Wiewiora, Eric; Langford, John; Littman, Michael L. (2006). Pac model-free reinforcement learning (PDF). Proc. 22nd ICML: 881—888. Архів оригіналу (PDF) за 14 квітня 2021. Процитовано 4 березня 2020. (англ.)

nih.gov

pubmed.ncbi.nlm.nih.gov

nips.cc

papers.nips.cc

  • van Hasselt, Hado (2011). Double Q-learning. Advances in Neural Information Processing Systems. 23: 2613—2622. Архів оригіналу (PDF) за 26 березня 2020. Процитовано 4 березня 2020. (англ.)

rhul.ac.uk

cs.rhul.ac.uk

storage.googleapis.com

patentimages.storage.googleapis.com

ualberta.ca

webdocs.cs.ualberta.ca

ut.ee

neuro.cs.ut.ee

  • Matiisen, Tambet (19 грудня 2015). Demystifying Deep Reinforcement Learning. neuro.cs.ut.ee (амер.). Computational Neuroscience Lab. Архів оригіналу за 7 квітня 2018. Процитовано 6 квітня 2018. (англ.)

utl.pt

users.isr.ist.utl.pt

web.archive.org

  • Melo Francisco S. Convergence of Q-learning: a simple proof. Архівовано з джерела 18 листопада 2017. Процитовано 23 лютого 2020. (англ.)
  • Matiisen, Tambet (19 грудня 2015). Demystifying Deep Reinforcement Learning. neuro.cs.ut.ee (амер.). Computational Neuroscience Lab. Архів оригіналу за 7 квітня 2018. Процитовано 6 квітня 2018. (англ.)
  • Sutton, Richard; Barto, Andrew (1998). Reinforcement Learning: An Introduction. MIT Press. Архів оригіналу за 20 лютого 2020. Процитовано 4 березня 2020. (англ.)
  • Sutton, Richard S.; Barto, Andrew G. 2.7 Optimistic Initial Values. Reinforcement Learning: An Introduction. Архів оригіналу за 8 вересня 2013. Процитовано 18 липня 2013. [Архівовано 2013-09-08 у Wayback Machine.] (англ.)
  • Shteingart, Hanan; Neiman, Tal; Loewenstein, Yonatan (May 2013). The role of first impression in operant learning (PDF). Journal of Experimental Psychology: General (англ.). 142 (2): 476—488. doi:10.1037/a0029550. ISSN 1939-2222. PMID 22924882. Архів оригіналу (PDF) за 26 січня 2021. Процитовано 25 лютого 2020. (англ.)
  • Tesauro, Gerald (March 1995). Temporal Difference Learning and TD-Gammon. Communications of the ACM. 38 (3): 58—68. doi:10.1145/203330.203343. Архів оригіналу за 9 лютого 2010. Процитовано 8 лютого 2010. (англ.)
  • Watkins, C.J.C.H. (1989), Learning from Delayed Rewards (PDF) (Ph.D. thesis), Cambridge University, архів оригіналу (PDF) за 9 вересня 2016, процитовано 4 березня 2020 (англ.)
  • Methods and Apparatus for Reinforcement Learning, US Patent #20150100530A1 (PDF). US Patent Office. 9 квітня 2015. Архів оригіналу (PDF) за 29 липня 2018. Процитовано 28 липня 2018. (англ.)
  • van Hasselt, Hado (2011). Double Q-learning. Advances in Neural Information Processing Systems. 23: 2613—2622. Архів оригіналу (PDF) за 26 березня 2020. Процитовано 4 березня 2020. (англ.)
  • van Hasselt, Hado; Guez, Arthur; Silver, David (2015). Deep reinforcement learning with double Q-learning. AAAI Conference on Artificial Intelligence: 2094—2100. Архів оригіналу (PDF) за 6 лютого 2020. Процитовано 4 березня 2020. (англ.)
  • Strehl, Alexander L.; Li, Lihong; Wiewiora, Eric; Langford, John; Littman, Michael L. (2006). Pac model-free reinforcement learning (PDF). Proc. 22nd ICML: 881—888. Архів оригіналу (PDF) за 14 квітня 2021. Процитовано 4 березня 2020. (англ.)
  • Maei, Hamid; Szepesvári, Csaba; Bhatnagar, Shalabh; Sutton, Richard (2010). Toward off-policy learning control with function approximation in Proceedings of the 27th International Conference on Machine Learning (PDF). с. 719—726. Архів оригіналу (PDF) за 8 вересня 2012. Процитовано 25 січня 2016. [Архівовано 2012-09-08 у Wayback Machine.] (англ.)

worldcat.org

search.worldcat.org