Zeitschriftenartikel zum Thema „RL ALGORITHMS“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "RL ALGORITHMS" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Lahande, Prathamesh, Parag Kaveri und Jatinderkumar Saini. „Reinforcement Learning for Reducing the Interruptions and Increasing Fault Tolerance in the Cloud Environment“. Informatics 10, Nr. 3 (02.08.2023): 64. http://dx.doi.org/10.3390/informatics10030064.
Der volle Inhalt der QuelleTrella, Anna L., Kelly W. Zhang, Inbal Nahum-Shani, Vivek Shetty, Finale Doshi-Velez und Susan A. Murphy. „Designing Reinforcement Learning Algorithms for Digital Interventions: Pre-Implementation Guidelines“. Algorithms 15, Nr. 8 (22.07.2022): 255. http://dx.doi.org/10.3390/a15080255.
Der volle Inhalt der QuelleRodríguez Sánchez, Francisco, Ildeberto Santos-Ruiz, Joaquín Domínguez-Zenteno und Francisco Ronay López-Estrada. „Control Applications Using Reinforcement Learning: An Overview“. Memorias del Congreso Nacional de Control Automático 5, Nr. 1 (17.10.2022): 67–72. http://dx.doi.org/10.58571/cnca.amca.2022.019.
Der volle Inhalt der QuelleAbbass, Mahmoud Abdelkader Bashery, und Hyun-Soo Kang. „Drone Elevation Control Based on Python-Unity Integrated Framework for Reinforcement Learning Applications“. Drones 7, Nr. 4 (24.03.2023): 225. http://dx.doi.org/10.3390/drones7040225.
Der volle Inhalt der QuelleMann, Timothy, und Yoonsuck Choe. „Scaling Up Reinforcement Learning through Targeted Exploration“. Proceedings of the AAAI Conference on Artificial Intelligence 25, Nr. 1 (04.08.2011): 435–40. http://dx.doi.org/10.1609/aaai.v25i1.7929.
Der volle Inhalt der QuelleCheng, Richard, Gábor Orosz, Richard M. Murray und Joel W. Burdick. „End-to-End Safe Reinforcement Learning through Barrier Functions for Safety-Critical Continuous Control Tasks“. Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 3387–95. http://dx.doi.org/10.1609/aaai.v33i01.33013387.
Der volle Inhalt der QuelleKirsch, Louis, Sebastian Flennerhag, Hado van Hasselt, Abram Friesen, Junhyuk Oh und Yutian Chen. „Introducing Symmetries to Black Box Meta Reinforcement Learning“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 7 (28.06.2022): 7202–10. http://dx.doi.org/10.1609/aaai.v36i7.20681.
Der volle Inhalt der QuelleKim, Hyun-Su, und Uksun Kim. „Development of a Control Algorithm for a Semi-Active Mid-Story Isolation System Using Reinforcement Learning“. Applied Sciences 13, Nr. 4 (04.02.2023): 2053. http://dx.doi.org/10.3390/app13042053.
Der volle Inhalt der QuellePrakash, Kritika, Fiza Husain, Praveen Paruchuri und Sujit Gujar. „How Private Is Your RL Policy? An Inverse RL Based Analysis Framework“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 7 (28.06.2022): 8009–16. http://dx.doi.org/10.1609/aaai.v36i7.20772.
Der volle Inhalt der QuelleNiazi, Abdolkarim, Norizah Redzuan, Raja Ishak Raja Hamzah und Sara Esfandiari. „Improvement on Supporting Machine Learning Algorithm for Solving Problem in Immediate Decision Making“. Advanced Materials Research 566 (September 2012): 572–79. http://dx.doi.org/10.4028/www.scientific.net/amr.566.572.
Der volle Inhalt der QuelleMu, Tong, Georgios Theocharous, David Arbour und Emma Brunskill. „Constraint Sampling Reinforcement Learning: Incorporating Expertise for Faster Learning“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 7 (28.06.2022): 7841–49. http://dx.doi.org/10.1609/aaai.v36i7.20753.
Der volle Inhalt der QuelleKołota, Jakub, und Turhan Can Kargin. „Comparison of Various Reinforcement Learning Environments in the Context of Continuum Robot Control“. Applied Sciences 13, Nr. 16 (11.08.2023): 9153. http://dx.doi.org/10.3390/app13169153.
Der volle Inhalt der QuelleJang, Sun-Ho, Woo-Jin Ahn, Yu-Jin Kim, Hyung-Gil Hong, Dong-Sung Pae und Myo-Taeg Lim. „Stable and Efficient Reinforcement Learning Method for Avoidance Driving of Unmanned Vehicles“. Electronics 12, Nr. 18 (06.09.2023): 3773. http://dx.doi.org/10.3390/electronics12183773.
Der volle Inhalt der QuellePeng, Zhiyong, Changlin Han, Yadong Liu und Zongtan Zhou. „Weighted Policy Constraints for Offline Reinforcement Learning“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 8 (26.06.2023): 9435–43. http://dx.doi.org/10.1609/aaai.v37i8.26130.
Der volle Inhalt der QuelleTessler, Chen, Yuval Shpigelman, Gal Dalal, Amit Mandelbaum, Doron Haritan Kazakov, Benjamin Fuhrer, Gal Chechik und Shie Mannor. „Reinforcement Learning for Datacenter Congestion Control“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 11 (28.06.2022): 12615–21. http://dx.doi.org/10.1609/aaai.v36i11.21535.
Der volle Inhalt der QuelleJIANG, JU, MOHAMED S. KAMEL und LEI CHEN. „AGGREGATION OF MULTIPLE REINFORCEMENT LEARNING ALGORITHMS“. International Journal on Artificial Intelligence Tools 15, Nr. 05 (Oktober 2006): 855–61. http://dx.doi.org/10.1142/s0218213006002990.
Der volle Inhalt der QuelleChen, Feng, Chenghe Wang, Fuxiang Zhang, Hao Ding, Qiaoyong Zhong, Shiliang Pu und Zongzhang Zhang. „Towards Deployment-Efficient and Collision-Free Multi-Agent Path Finding (Student Abstract)“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 13 (26.06.2023): 16182–83. http://dx.doi.org/10.1609/aaai.v37i13.26951.
Der volle Inhalt der QuelleGuo, Kun, und Qishan Zhang. „A Discrete Artificial Bee Colony Algorithm for the Reverse Logistics Location and Routing Problem“. International Journal of Information Technology & Decision Making 16, Nr. 05 (September 2017): 1339–57. http://dx.doi.org/10.1142/s0219622014500126.
Der volle Inhalt der QuellePadakandla, Sindhu. „A Survey of Reinforcement Learning Algorithms for Dynamically Varying Environments“. ACM Computing Surveys 54, Nr. 6 (Juli 2021): 1–25. http://dx.doi.org/10.1145/3459991.
Der volle Inhalt der QuelleGaon, Maor, und Ronen Brafman. „Reinforcement Learning with Non-Markovian Rewards“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 04 (03.04.2020): 3980–87. http://dx.doi.org/10.1609/aaai.v34i04.5814.
Der volle Inhalt der QuelleSun, Peiquan, Wengang Zhou und Houqiang Li. „Attentive Experience Replay“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 04 (03.04.2020): 5900–5907. http://dx.doi.org/10.1609/aaai.v34i04.6049.
Der volle Inhalt der QuelleChen, Zaiwei. „A Unified Lyapunov Framework for Finite-Sample Analysis of Reinforcement Learning Algorithms“. ACM SIGMETRICS Performance Evaluation Review 50, Nr. 3 (30.12.2022): 12–15. http://dx.doi.org/10.1145/3579342.3579346.
Der volle Inhalt der QuelleYau, Kok-Lim Alvin, Geong-Sen Poh, Su Fong Chien und Hasan A. A. Al-Rawi. „Application of Reinforcement Learning in Cognitive Radio Networks: Models and Algorithms“. Scientific World Journal 2014 (2014): 1–23. http://dx.doi.org/10.1155/2014/209810.
Der volle Inhalt der QuelleTessler, Chen, Yuval Shpigelman, Gal Dalal, Amit Mandelbaum, Doron Haritan Kazakov, Benjamin Fuhrer, Gal Chechik und Shie Mannor. „Reinforcement Learning for Datacenter Congestion Control“. ACM SIGMETRICS Performance Evaluation Review 49, Nr. 2 (17.01.2022): 43–46. http://dx.doi.org/10.1145/3512798.3512815.
Der volle Inhalt der QuelleJin, Zengwang, Menglu Ma, Shuting Zhang, Yanyan Hu, Yanning Zhang und Changyin Sun. „Secure State Estimation of Cyber-Physical System under Cyber Attacks: Q-Learning vs. SARSA“. Electronics 11, Nr. 19 (01.10.2022): 3161. http://dx.doi.org/10.3390/electronics11193161.
Der volle Inhalt der QuelleLi, Shaodong, Xiaogang Yuan und Jie Niu. „Robotic Peg-in-Hole Assembly Strategy Research Based on Reinforcement Learning Algorithm“. Applied Sciences 12, Nr. 21 (03.11.2022): 11149. http://dx.doi.org/10.3390/app122111149.
Der volle Inhalt der QuellePan, Yaozong, Jian Zhang, Chunhui Yuan und Haitao Yang. „Supervised Reinforcement Learning via Value Function“. Symmetry 11, Nr. 4 (24.04.2019): 590. http://dx.doi.org/10.3390/sym11040590.
Der volle Inhalt der QuelleKabanda, Professor Gabriel, Colletor Tendeukai Chipfumbu und Tinashe Chingoriwo. „A Reinforcement Learning Paradigm for Cybersecurity Education and Training“. Oriental journal of computer science and technology 16, Nr. 01 (30.05.2023): 12–45. http://dx.doi.org/10.13005/ojcst16.01.02.
Der volle Inhalt der QuelleYousif, Ayman Basheer, Hassan Jaleel Hassan und Gaida Muttasher. „Applying reinforcement learning for random early detaction algorithm in adaptive queue management systems“. Indonesian Journal of Electrical Engineering and Computer Science 26, Nr. 3 (01.06.2022): 1684. http://dx.doi.org/10.11591/ijeecs.v26.i3.pp1684-1691.
Der volle Inhalt der QuelleSzita, István, und András Lörincz. „Learning Tetris Using the Noisy Cross-Entropy Method“. Neural Computation 18, Nr. 12 (Dezember 2006): 2936–41. http://dx.doi.org/10.1162/neco.2006.18.12.2936.
Der volle Inhalt der QuelleYe, Weicheng, und Dangxing Chen. „Analysis of Performance Measure in Q Learning with UCB Exploration“. Mathematics 10, Nr. 4 (12.02.2022): 575. http://dx.doi.org/10.3390/math10040575.
Der volle Inhalt der QuelleLin, Xingbin, Deyu Yuan und Xifei Li. „Reinforcement Learning with Dual Safety Policies for Energy Savings in Building Energy Systems“. Buildings 13, Nr. 3 (21.02.2023): 580. http://dx.doi.org/10.3390/buildings13030580.
Der volle Inhalt der QuelleLi, Luchen, und A. Aldo Faisal. „Bayesian Distributional Policy Gradients“. Proceedings of the AAAI Conference on Artificial Intelligence 35, Nr. 10 (18.05.2021): 8429–37. http://dx.doi.org/10.1609/aaai.v35i10.17024.
Der volle Inhalt der QuelleGrewal, Yashvir S., Frits De Nijs und Sarah Goodwin. „Evaluating Meta-Reinforcement Learning through a HVAC Control Benchmark (Student Abstract)“. Proceedings of the AAAI Conference on Artificial Intelligence 35, Nr. 18 (18.05.2021): 15785–86. http://dx.doi.org/10.1609/aaai.v35i18.17889.
Der volle Inhalt der QuelleVillalpando-Hernandez, Rafaela, Cesar Vargas-Rosales und David Munoz-Rodriguez. „Localization Algorithm for 3D Sensor Networks: A Recursive Data Fusion Approach“. Sensors 21, Nr. 22 (17.11.2021): 7626. http://dx.doi.org/10.3390/s21227626.
Der volle Inhalt der QuelleZhao, Richard, und Duane Szafron. „Learning Character Behaviors Using Agent Modeling in Games“. Proceedings of the AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment 5, Nr. 1 (16.10.2009): 179–85. http://dx.doi.org/10.1609/aiide.v5i1.12369.
Der volle Inhalt der QuelleHu und Xu. „Fuzzy Reinforcement Learning and Curriculum Transfer Learning for Micromanagement in Multi-Robot Confrontation“. Information 10, Nr. 11 (02.11.2019): 341. http://dx.doi.org/10.3390/info10110341.
Der volle Inhalt der QuelleShen, Haocheng, Jason Yosinski, Petar Kormushev, Darwin G. Caldwell und Hod Lipson. „Learning Fast Quadruped Robot Gaits with the RL PoWER Spline Parameterization“. Cybernetics and Information Technologies 12, Nr. 3 (01.09.2012): 66–75. http://dx.doi.org/10.2478/cait-2012-0022.
Der volle Inhalt der QuelleShaposhnikova, Sofiia, und Dmytro Omelian. „TOWARDS EFFECTIVE STRATEGIES FOR MOBILE ROBOT USING REINFORCEMENT LEARNING AND GRAPH ALGORITHMS“. Automation of technological and business processes 15, Nr. 2 (19.06.2023): 24–34. http://dx.doi.org/10.15673/atbp.v15i2.2522.
Der volle Inhalt der QuelleLiao, Hanlin. „Urban Intersection Simulation and Verification via Deep Reinforcement Learning Algorithms“. Journal of Physics: Conference Series 2435, Nr. 1 (01.02.2023): 012019. http://dx.doi.org/10.1088/1742-6596/2435/1/012019.
Der volle Inhalt der QuelleDing, Yuhao, Ming Jin und Javad Lavaei. „Non-stationary Risk-Sensitive Reinforcement Learning: Near-Optimal Dynamic Regret, Adaptive Detection, and Separation Design“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 6 (26.06.2023): 7405–13. http://dx.doi.org/10.1609/aaai.v37i6.25901.
Der volle Inhalt der QuelleSarkar, Soumyadip. „Quantitative Trading using Deep Q Learning“. International Journal for Research in Applied Science and Engineering Technology 11, Nr. 4 (30.04.2023): 731–38. http://dx.doi.org/10.22214/ijraset.2023.50170.
Der volle Inhalt der QuelleZhang, Ningyan. „Analysis of reinforce learning in medical treatment“. Applied and Computational Engineering 5, Nr. 1 (14.06.2023): 48–53. http://dx.doi.org/10.54254/2755-2721/5/20230527.
Der volle Inhalt der QuellePuspitasari, Annisa Anggun, und Byung Moo Lee. „A Survey on Reinforcement Learning for Reconfigurable Intelligent Surfaces in Wireless Communications“. Sensors 23, Nr. 5 (24.02.2023): 2554. http://dx.doi.org/10.3390/s23052554.
Der volle Inhalt der QuelleDelipetrev, Blagoj, Andreja Jonoski und Dimitri P. Solomatine. „A novel nested stochastic dynamic programming (nSDP) and nested reinforcement learning (nRL) algorithm for multipurpose reservoir optimization“. Journal of Hydroinformatics 19, Nr. 1 (17.09.2016): 47–61. http://dx.doi.org/10.2166/hydro.2016.243.
Der volle Inhalt der QuelleWang, Mengmei. „Optimizing Multitask Assignment of Internet of Things Devices by Reinforcement Learning in Mobile Crowdsensing Scenes“. Security and Communication Networks 2022 (17.08.2022): 1–10. http://dx.doi.org/10.1155/2022/6202237.
Der volle Inhalt der QuelleГайнетдинов, А. Ф. „NeRF IN REINFORCEMENT LEARNING FOR IMAGE RECOGNITION“. Южно-Сибирский научный вестник, Nr. 2(48) (30.04.2023): 63–72. http://dx.doi.org/10.25699/sssb.2023.48.2.011.
Der volle Inhalt der QuelleNicola, Marcel, und Claudiu-Ionel Nicola. „Improvement of Linear and Nonlinear Control for PMSM Using Computational Intelligence and Reinforcement Learning“. Mathematics 10, Nr. 24 (09.12.2022): 4667. http://dx.doi.org/10.3390/math10244667.
Der volle Inhalt der QuelleYou, Haoyi, Beichen Yu, Haiming Jin, Zhaoxing Yang und Jiahui Sun. „User-Oriented Robust Reinforcement Learning“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 12 (26.06.2023): 15269–77. http://dx.doi.org/10.1609/aaai.v37i12.26781.
Der volle Inhalt der QuelleYang, Bin, Muhammad Haseeb Arshad und Qing Zhao. „Packet-Level and Flow-Level Network Intrusion Detection Based on Reinforcement Learning and Adversarial Training“. Algorithms 15, Nr. 12 (30.11.2022): 453. http://dx.doi.org/10.3390/a15120453.
Der volle Inhalt der Quelle