Zeitschriftenartikel zum Thema „Q-learning“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Q-learning" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Watkins, Christopher J. C. H., und Peter Dayan. „Q-learning“. Machine Learning 8, Nr. 3-4 (Mai 1992): 279–92. http://dx.doi.org/10.1007/bf00992698.
Der volle Inhalt der QuelleClausen, C., und H. Wechsler. „Quad-Q-learning“. IEEE Transactions on Neural Networks 11, Nr. 2 (März 2000): 279–94. http://dx.doi.org/10.1109/72.839000.
Der volle Inhalt der Quelleten Hagen, Stephan, und Ben Kr�se. „Neural Q-learning“. Neural Computing & Applications 12, Nr. 2 (01.11.2003): 81–88. http://dx.doi.org/10.1007/s00521-003-0369-9.
Der volle Inhalt der QuelleWang, Yin-Hao, Tzuu-Hseng S. Li und Chih-Jui Lin. „Backward Q-learning: The combination of Sarsa algorithm and Q-learning“. Engineering Applications of Artificial Intelligence 26, Nr. 9 (Oktober 2013): 2184–93. http://dx.doi.org/10.1016/j.engappai.2013.06.016.
Der volle Inhalt der QuelleEvseenko, Alla, und Dmitrii Romannikov. „Application of Deep Q-learning and double Deep Q-learning algorithms to the task of control an inverted pendulum“. Transaction of Scientific Papers of the Novosibirsk State Technical University, Nr. 1-2 (26.08.2020): 7–25. http://dx.doi.org/10.17212/2307-6879-2020-1-2-7-25.
Der volle Inhalt der QuelleAbedalguni, Bilal. „Bat Q-learning Algorithm“. Jordanian Journal of Computers and Information Technology 3, Nr. 1 (2017): 51. http://dx.doi.org/10.5455/jjcit.71-1480540385.
Der volle Inhalt der QuelleZhu, Rong, und Mattia Rigotti. „Self-correcting Q-learning“. Proceedings of the AAAI Conference on Artificial Intelligence 35, Nr. 12 (18.05.2021): 11185–92. http://dx.doi.org/10.1609/aaai.v35i12.17334.
Der volle Inhalt der QuelleBorkar, Vivek S., und Siddharth Chandak. „Prospect-theoretic Q-learning“. Systems & Control Letters 156 (Oktober 2021): 105009. http://dx.doi.org/10.1016/j.sysconle.2021.105009.
Der volle Inhalt der QuelleGanger, Michael, und Wei Hu. „Quantum Multiple Q-Learning“. International Journal of Intelligence Science 09, Nr. 01 (2019): 1–22. http://dx.doi.org/10.4236/ijis.2019.91001.
Der volle Inhalt der QuelleJohn, Indu, Chandramouli Kamanchi und Shalabh Bhatnagar. „Generalized Speedy Q-Learning“. IEEE Control Systems Letters 4, Nr. 3 (Juli 2020): 524–29. http://dx.doi.org/10.1109/lcsys.2020.2970555.
Der volle Inhalt der QuelleHORIUCHI, Tadashi, Akinori FUJINO, Osamu KATAI und Tetsuo SAWARAGI. „Q-PSP Learning: An Exploitation-Oriented Q-Learning Algorithm and Its Applications“. Transactions of the Society of Instrument and Control Engineers 35, Nr. 5 (1999): 645–53. http://dx.doi.org/10.9746/sicetr1965.35.645.
Der volle Inhalt der QuelleGhazanfari, Behzad, und Nasser Mozayani. „Enhancing Nash Q-learning and Team Q-learning mechanisms by using bottlenecks“. Journal of Intelligent & Fuzzy Systems 26, Nr. 6 (2014): 2771–83. http://dx.doi.org/10.3233/ifs-130945.
Der volle Inhalt der QuelleYang, Min-Gyu, Kuk-Hyun Ahn und Jae-Bok Song. „Tidy-up Task Planner based on Q-learning“. Journal of Korea Robotics Society 16, Nr. 1 (01.02.2021): 56–63. http://dx.doi.org/10.7746/jkros.2021.16.1.056.
Der volle Inhalt der QuelleKim, Min-Soeng, Sun-Gi Hong und Ju-Jang Lee. „Self-Learning Fuzzy Logic Controller using Q-Learning“. Journal of Advanced Computational Intelligence and Intelligent Informatics 4, Nr. 5 (20.09.2000): 349–54. http://dx.doi.org/10.20965/jaciii.2000.p0349.
Der volle Inhalt der QuelleMoodie, Erica E. M., Nema Dean und Yue Ru Sun. „Q-Learning: Flexible Learning About Useful Utilities“. Statistics in Biosciences 6, Nr. 2 (12.09.2013): 223–43. http://dx.doi.org/10.1007/s12561-013-9103-z.
Der volle Inhalt der QuelleHatcho, Yasuyo, Kiyohiko Hattori und Keiki Takadama. „Time Horizon Generalization in Reinforcement Learning: Generalizing Multiple Q-Tables in Q-Learning Agents“. Journal of Advanced Computational Intelligence and Intelligent Informatics 13, Nr. 6 (20.11.2009): 667–74. http://dx.doi.org/10.20965/jaciii.2009.p0667.
Der volle Inhalt der QuelleClifton, Jesse, und Eric Laber. „Q-Learning: Theory and Applications“. Annual Review of Statistics and Its Application 7, Nr. 1 (09.03.2020): 279–301. http://dx.doi.org/10.1146/annurev-statistics-031219-041220.
Der volle Inhalt der QuelleHe, Ningxia. „Image Sampling Using Q-Learning“. International Journal of Computer Science and Engineering 8, Nr. 1 (25.01.2021): 5–12. http://dx.doi.org/10.14445/23488387/ijcse-v8i1p102.
Der volle Inhalt der QuelleGanapathi Subramanian, Sriram, Matthew E. Taylor, Kate Larson und Mark Crowley. „Multi-Agent Advisor Q-Learning“. Journal of Artificial Intelligence Research 74 (05.05.2022): 1–74. http://dx.doi.org/10.1613/jair.1.13445.
Der volle Inhalt der QuelleHu, Yuepeng, Lehan Yang und Yizhu Lou. „Path Planning with Q-Learning“. Journal of Physics: Conference Series 1948, Nr. 1 (01.06.2021): 012038. http://dx.doi.org/10.1088/1742-6596/1948/1/012038.
Der volle Inhalt der QuelleSarigül, Mehmet, und Mutlu Avci. „Q LEARNING REGRESSION NEURAL NETWORK“. Neural Network World 28, Nr. 5 (2018): 415–31. http://dx.doi.org/10.14311/nnw.2018.28.023.
Der volle Inhalt der QuelleKamanchi, Chandramouli, Raghuram Bharadwaj Diddigi und Shalabh Bhatnagar. „Successive Over-Relaxation ${Q}$ -Learning“. IEEE Control Systems Letters 4, Nr. 1 (Januar 2020): 55–60. http://dx.doi.org/10.1109/lcsys.2019.2921158.
Der volle Inhalt der QuellePatnaik, Srikanta, und N. P. Mahalik. „Multiagent coordination utilising Q-learning“. International Journal of Automation and Control 1, Nr. 4 (2007): 377. http://dx.doi.org/10.1504/ijaac.2007.015863.
Der volle Inhalt der QuelleLecué, Guillaume, und Philippe Rigollet. „Optimal learning with Q-aggregation“. Annals of Statistics 42, Nr. 1 (Februar 2014): 211–24. http://dx.doi.org/10.1214/13-aos1190.
Der volle Inhalt der QuelleAhmadabadi, M. N., und M. Asadpour. „Expertness based cooperative Q-learning“. IEEE Transactions on Systems, Man and Cybernetics, Part B (Cybernetics) 32, Nr. 1 (2002): 66–76. http://dx.doi.org/10.1109/3477.979961.
Der volle Inhalt der QuelleLinn, Kristin A., Eric B. Laber und Leonard A. Stefanski. „Interactive Q-Learning for Quantiles“. Journal of the American Statistical Association 112, Nr. 518 (31.03.2017): 638–49. http://dx.doi.org/10.1080/01621459.2016.1155993.
Der volle Inhalt der QuelleGoldberg, Yair, und Michael R. Kosorok. „Q-learning with censored data“. Annals of Statistics 40, Nr. 1 (Februar 2012): 529–60. http://dx.doi.org/10.1214/12-aos968.
Der volle Inhalt der QuellePeng, Jing, und Ronald J. Williams. „Incremental multi-step Q-learning“. Machine Learning 22, Nr. 1-3 (1996): 283–90. http://dx.doi.org/10.1007/bf00114731.
Der volle Inhalt der QuelleHOSOYA, Yu, und Motohide UMANO. „Improvement of Updating Method of Q Values in Fuzzy Q-Learning“. Journal of Japan Society for Fuzzy Theory and Intelligent Informatics 27, Nr. 6 (2015): 942–48. http://dx.doi.org/10.3156/jsoft.27.942.
Der volle Inhalt der QuelleDuryea, Ethan, Michael Ganger und Wei Hu. „Exploring Deep Reinforcement Learning with Multi Q-Learning“. Intelligent Control and Automation 07, Nr. 04 (2016): 129–44. http://dx.doi.org/10.4236/ica.2016.74012.
Der volle Inhalt der QuelleHwang, Kao-Shing, Wei-Cheng Jiang und Yu-Jen Chen. „ADAPTIVE MODEL LEARNING BASED ON DYNA-Q LEARNING“. Cybernetics and Systems 44, Nr. 8 (17.11.2013): 641–62. http://dx.doi.org/10.1080/01969722.2013.803387.
Der volle Inhalt der Quelleda Costa, Luis Antonio L. F., Rafael Kunst und Edison Pignaton de Freitas. „Q-FANET: Improved Q-learning based routing protocol for FANETs“. Computer Networks 198 (Oktober 2021): 108379. http://dx.doi.org/10.1016/j.comnet.2021.108379.
Der volle Inhalt der QuelleMeng, Xiao-Li. „Discussion: The Q-q Dynamic for Deeper Learning and Research“. International Statistical Review 84, Nr. 2 (16.12.2015): 181–89. http://dx.doi.org/10.1111/insr.12151.
Der volle Inhalt der QuelleGuo, Yanqin. „Enhancing Flappy Bird Performance With Q-Learning and DQN Strategies“. Highlights in Science, Engineering and Technology 85 (13.03.2024): 396–402. http://dx.doi.org/10.54097/qrded191.
Der volle Inhalt der QuelleD'Orazio, Tiziana, und Grazia Cicirelli. „Q-Learning: computation of optimal Q-values for evaluating the learning level in robotic tasks“. Journal of Experimental & Theoretical Artificial Intelligence 13, Nr. 3 (Juli 2001): 241–70. http://dx.doi.org/10.1080/09528130110063100.
Der volle Inhalt der Quelle古, 彭. „Improvement and Implementation of Q-Learning Algorithm“. Computer Science and Application 11, Nr. 07 (2021): 1994–2007. http://dx.doi.org/10.12677/csa.2021.117204.
Der volle Inhalt der QuelleWei-Kai Sun, Wei-Kai Sun, Xiao-Mei Wang Wei-Kai Sun, Bin Wang Xiao-Mei Wang, Jia-Sen Zhang Bin Wang und Hai-Yang Du Jia-Sen Zhang. „MR-SFAMA-Q: A MAC Protocol based on Q-Learning for Underwater Acoustic Sensor Networks“. 電腦學刊 35, Nr. 1 (Februar 2024): 051–63. http://dx.doi.org/10.53106/199115992024023501004.
Der volle Inhalt der QuelleLiu, Peiyi. „Q-Learning: Applications and Convergence Rate Optimization“. Highlights in Science, Engineering and Technology 63 (08.08.2023): 210–15. http://dx.doi.org/10.54097/hset.v63i.10878.
Der volle Inhalt der QuelleChen, Bo-Wei, Shih-Hung Yang, Yu-Chun Lo, Ching-Fu Wang, Han-Lin Wang, Chen-Yang Hsu, Yun-Ting Kuo et al. „Enhancement of Hippocampal Spatial Decoding Using a Dynamic Q-Learning Method With a Relative Reward Using Theta Phase Precession“. International Journal of Neural Systems 30, Nr. 09 (12.08.2020): 2050048. http://dx.doi.org/10.1142/s0129065720500483.
Der volle Inhalt der QuelleZhang, Chunyuan, Qi Song und Zeng Meng. „Minibatch Recursive Least Squares Q-Learning“. Computational Intelligence and Neuroscience 2021 (08.10.2021): 1–9. http://dx.doi.org/10.1155/2021/5370281.
Der volle Inhalt der QuelleShin, YongWoo. „Q-learning to improve learning speed using Minimax algorithm“. Journal of Korea Game Society 18, Nr. 4 (31.08.2018): 99–106. http://dx.doi.org/10.7583/jkgs.2018.18.4.99.
Der volle Inhalt der QuelleXu, Haoran, Xianyuan Zhan und Xiangyu Zhu. „Constraints Penalized Q-learning for Safe Offline Reinforcement Learning“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 8 (28.06.2022): 8753–60. http://dx.doi.org/10.1609/aaai.v36i8.20855.
Der volle Inhalt der QuelleCharypar, David, und Kai Nagel. „Q-Learning for Flexible Learning of Daily Activity Plans“. Transportation Research Record: Journal of the Transportation Research Board 1935, Nr. 1 (Januar 2005): 163–69. http://dx.doi.org/10.1177/0361198105193500119.
Der volle Inhalt der QuelleTan, Chunxi, Ruijian Han, Rougang Ye und Kani Chen. „Adaptive Learning Recommendation Strategy Based on Deep Q-learning“. Applied Psychological Measurement 44, Nr. 4 (25.07.2019): 251–66. http://dx.doi.org/10.1177/0146621619858674.
Der volle Inhalt der QuelleGokul, Vignesh, Parinitha Kannan, Sharath Kumar und Shomona Gracia. „Deep Q-Learning for Home Automation“. International Journal of Computer Applications 152, Nr. 6 (17.10.2016): 1–5. http://dx.doi.org/10.5120/ijca2016911873.
Der volle Inhalt der QuelleNOTSU, Akira, und Katsuhiro HONDA. „Discounted UCB1-tuned for Q-Learning“. Journal of Japan Society for Fuzzy Theory and Intelligent Informatics 26, Nr. 6 (2014): 913–23. http://dx.doi.org/10.3156/jsoft.26.913.
Der volle Inhalt der QuelleHu, Wei, und James Hu. „Q Learning with Quantum Neural Networks“. Natural Science 11, Nr. 01 (2019): 31–39. http://dx.doi.org/10.4236/ns.2019.111005.
Der volle Inhalt der QuelleZheng, Zhang, Ji-Hoon Seung, Tae-Yeong Kim und Kil-To Chong. „Traffic Control using Q-Learning Algorithm“. Journal of the Korea Academia-Industrial cooperation Society 12, Nr. 11 (30.11.2011): 5135–42. http://dx.doi.org/10.5762/kais.2011.12.11.5135.
Der volle Inhalt der QuelleLiu, Jingchen, Gongjun Xu und Zhiliang Ying. „Theory of self-learning $Q$-matrix“. Bernoulli 19, Nr. 5A (November 2013): 1790–817. http://dx.doi.org/10.3150/12-bej430.
Der volle Inhalt der QuelleMa, Yu chien (Calvin), Zoe Wang und Alexander Fleiss. „Deep Q-Learning for Trading Cryptocurrency“. Journal of Financial Data Science 3, Nr. 3 (08.06.2021): 121–27. http://dx.doi.org/10.3905/jfds.2021.1.064.
Der volle Inhalt der Quelle