Inhaltsverzeichnis
Auswahl der wissenschaftlichen Literatur zum Thema „RL ALGORITHMS“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "RL ALGORITHMS" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Zeitschriftenartikel zum Thema "RL ALGORITHMS"
Lahande, Prathamesh, Parag Kaveri und Jatinderkumar Saini. „Reinforcement Learning for Reducing the Interruptions and Increasing Fault Tolerance in the Cloud Environment“. Informatics 10, Nr. 3 (02.08.2023): 64. http://dx.doi.org/10.3390/informatics10030064.
Der volle Inhalt der QuelleTrella, Anna L., Kelly W. Zhang, Inbal Nahum-Shani, Vivek Shetty, Finale Doshi-Velez und Susan A. Murphy. „Designing Reinforcement Learning Algorithms for Digital Interventions: Pre-Implementation Guidelines“. Algorithms 15, Nr. 8 (22.07.2022): 255. http://dx.doi.org/10.3390/a15080255.
Der volle Inhalt der QuelleRodríguez Sánchez, Francisco, Ildeberto Santos-Ruiz, Joaquín Domínguez-Zenteno und Francisco Ronay López-Estrada. „Control Applications Using Reinforcement Learning: An Overview“. Memorias del Congreso Nacional de Control Automático 5, Nr. 1 (17.10.2022): 67–72. http://dx.doi.org/10.58571/cnca.amca.2022.019.
Der volle Inhalt der QuelleAbbass, Mahmoud Abdelkader Bashery, und Hyun-Soo Kang. „Drone Elevation Control Based on Python-Unity Integrated Framework for Reinforcement Learning Applications“. Drones 7, Nr. 4 (24.03.2023): 225. http://dx.doi.org/10.3390/drones7040225.
Der volle Inhalt der QuelleMann, Timothy, und Yoonsuck Choe. „Scaling Up Reinforcement Learning through Targeted Exploration“. Proceedings of the AAAI Conference on Artificial Intelligence 25, Nr. 1 (04.08.2011): 435–40. http://dx.doi.org/10.1609/aaai.v25i1.7929.
Der volle Inhalt der QuelleCheng, Richard, Gábor Orosz, Richard M. Murray und Joel W. Burdick. „End-to-End Safe Reinforcement Learning through Barrier Functions for Safety-Critical Continuous Control Tasks“. Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 3387–95. http://dx.doi.org/10.1609/aaai.v33i01.33013387.
Der volle Inhalt der QuelleKirsch, Louis, Sebastian Flennerhag, Hado van Hasselt, Abram Friesen, Junhyuk Oh und Yutian Chen. „Introducing Symmetries to Black Box Meta Reinforcement Learning“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 7 (28.06.2022): 7202–10. http://dx.doi.org/10.1609/aaai.v36i7.20681.
Der volle Inhalt der QuelleKim, Hyun-Su, und Uksun Kim. „Development of a Control Algorithm for a Semi-Active Mid-Story Isolation System Using Reinforcement Learning“. Applied Sciences 13, Nr. 4 (04.02.2023): 2053. http://dx.doi.org/10.3390/app13042053.
Der volle Inhalt der QuellePrakash, Kritika, Fiza Husain, Praveen Paruchuri und Sujit Gujar. „How Private Is Your RL Policy? An Inverse RL Based Analysis Framework“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 7 (28.06.2022): 8009–16. http://dx.doi.org/10.1609/aaai.v36i7.20772.
Der volle Inhalt der QuelleNiazi, Abdolkarim, Norizah Redzuan, Raja Ishak Raja Hamzah und Sara Esfandiari. „Improvement on Supporting Machine Learning Algorithm for Solving Problem in Immediate Decision Making“. Advanced Materials Research 566 (September 2012): 572–79. http://dx.doi.org/10.4028/www.scientific.net/amr.566.572.
Der volle Inhalt der QuelleDissertationen zum Thema "RL ALGORITHMS"
Marcus, Elwin. „Simulating market maker behaviour using Deep Reinforcement Learning to understand market microstructure“. Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-240682.
Der volle Inhalt der QuelleMarknadens mikrostruktur studerar hur utbytet av finansiella tillgångar sker enligt explicita regler. Algoritmisk och högfrekvenshandel har förändrat moderna finansmarknaders strukturer under de senaste 5 till 10 åren. Detta har även påverkat pålitligheten hos tidigare använda metoder från exempelvis ekonometri för att studera marknadens mikrostruktur. Maskininlärning och Reinforcement Learning har blivit mer populära, med många olika användningsområden både inom finans och andra fält. Inom finansfältet har dessa typer av metoder använts främst inom handel och optimal exekvering av ordrar. I denna uppsats kombineras både Reinforcement Learning och marknadens mikrostruktur, för att simulera en aktiemarknad baserad på NASDAQ i Norden. Där tränas market maker - agenter via Reinforcement Learning med målet att förstå marknadens mikrostruktur som uppstår via agenternas interaktioner. I denna uppsats utvärderas och testas agenterna på en dealer – marknad tillsammans med en limit - orderbok. Vilket särskiljer denna studie tillsammans med de två algoritmerna DQN och PPO från tidigare studier. Främst har stokastisk optimering använts för liknande problem i tidigare studier. Agenterna lyckas framgångsrikt med att återskapa egenskaper hos finansiella tidsserier som återgång till medelvärdet och avsaknad av linjär autokorrelation. Agenterna lyckas också med att vinna över slumpmässiga strategier, med maximal vinst på 200%. Slutgiltigen lyckas även agenterna med att visa annan handelsdynamik som förväntas ske på en verklig marknad. Huvudsakligen: kluster av spreads, optimal hantering av aktielager och en minskning av spreads under simuleringarna. Detta visar att Reinforcement Learning med PPO eller DQN är relevanta val vid modellering av marknadens mikrostruktur.
ALI, FAIZ MOHAMMAD. „CART POLE SYSTEM ANALYSIS AND CONTROL USING MACHINE LEARNING ALGORITHMS“. Thesis, 2022. http://dspace.dtu.ac.in:8080/jspui/handle/repository/19298.
Der volle Inhalt der QuelleBuchteile zum Thema "RL ALGORITHMS"
Ahlawat, Samit. „Recent RL Algorithms“. In Reinforcement Learning for Finance, 349–402. Berkeley, CA: Apress, 2022. http://dx.doi.org/10.1007/978-1-4842-8835-1_6.
Der volle Inhalt der QuelleNandy, Abhishek, und Manisha Biswas. „RL Theory and Algorithms“. In Reinforcement Learning, 19–69. Berkeley, CA: Apress, 2017. http://dx.doi.org/10.1007/978-1-4842-3285-9_2.
Der volle Inhalt der QuelleHahn, Ernst Moritz, Mateo Perez, Sven Schewe, Fabio Somenzi, Ashutosh Trivedi und Dominik Wojtczak. „Mungojerrie: Linear-Time Objectives in Model-Free Reinforcement Learning“. In Tools and Algorithms for the Construction and Analysis of Systems, 527–45. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-30823-9_27.
Der volle Inhalt der QuelleRamponi, Giorgia. „Learning in the Presence of Multiple Agents“. In Special Topics in Information Technology, 93–103. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-15374-7_8.
Der volle Inhalt der QuelleMetelli, Alberto Maria. „Configurable Environments in Reinforcement Learning: An Overview“. In Special Topics in Information Technology, 101–13. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-85918-3_9.
Der volle Inhalt der QuelleGros, Timo P., Holger Hermanns, Jörg Hoffmann, Michaela Klauck, Maximilian A. Köhl und Verena Wolf. „MoGym: Using Formal Models for Training and Verifying Decision-making Agents“. In Computer Aided Verification, 430–43. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-13188-2_21.
Der volle Inhalt der QuelleDu, Huaiyu, und Rafał Jóźwiak. „Representation of Observations in Reinforcement Learning for Playing Arcade Fighting Game“. In Digital Interaction and Machine Intelligence, 45–55. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-37649-8_5.
Der volle Inhalt der QuelleBugaenko, Andrey A. „Replacing the Reinforcement Learning (RL) to the Auto Reinforcement Learning (AutoRL) Algorithms to Find the Optimal Structure of Business Processes in the Bank“. In Software Engineering Application in Informatics, 15–22. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-90318-3_2.
Der volle Inhalt der QuelleWang, Dasong, und Roland Snooks. „Artificial Intuitions of Generative Design: An Approach Based on Reinforcement Learning“. In Proceedings of the 2020 DigitalFUTURES, 189–98. Singapore: Springer Singapore, 2021. http://dx.doi.org/10.1007/978-981-33-4400-6_18.
Der volle Inhalt der QuelleZhang, Sizhe, Haitao Wang, Jian Wen und Hejun Wu. „A Deep RL Algorithm for Location Optimization of Regional Express Distribution Center Using IoT Data“. In Lecture Notes in Electrical Engineering, 377–84. Singapore: Springer Nature Singapore, 2023. http://dx.doi.org/10.1007/978-981-99-0416-7_38.
Der volle Inhalt der QuelleKonferenzberichte zum Thema "RL ALGORITHMS"
Simão, Thiago D. „Safe and Sample-Efficient Reinforcement Learning Algorithms for Factored Environments“. In Twenty-Eighth International Joint Conference on Artificial Intelligence {IJCAI-19}. California: International Joint Conferences on Artificial Intelligence Organization, 2019. http://dx.doi.org/10.24963/ijcai.2019/919.
Der volle Inhalt der QuelleChrabąszcz, Patryk, Ilya Loshchilov und Frank Hutter. „Back to Basics: Benchmarking Canonical Evolution Strategies for Playing Atari“. In Twenty-Seventh International Joint Conference on Artificial Intelligence {IJCAI-18}. California: International Joint Conferences on Artificial Intelligence Organization, 2018. http://dx.doi.org/10.24963/ijcai.2018/197.
Der volle Inhalt der QuelleArusoaie, Andrei, David Nowak, Vlad Rusu und Dorel Lucanu. „A Certified Procedure for RL Verification“. In 2017 19th International Symposium on Symbolic and Numeric Algorithms for Scientific Computing (SYNASC). IEEE, 2017. http://dx.doi.org/10.1109/synasc.2017.00031.
Der volle Inhalt der QuelleGajane, Pratik, Peter Auer und Ronald Ortner. „Autonomous Exploration for Navigating in MDPs Using Blackbox RL Algorithms“. In Thirty-Second International Joint Conference on Artificial Intelligence {IJCAI-23}. California: International Joint Conferences on Artificial Intelligence Organization, 2023. http://dx.doi.org/10.24963/ijcai.2023/413.
Der volle Inhalt der QuelleLin, Zichuan, Tianqi Zhao, Guangwen Yang und Lintao Zhang. „Episodic Memory Deep Q-Networks“. In Twenty-Seventh International Joint Conference on Artificial Intelligence {IJCAI-18}. California: International Joint Conferences on Artificial Intelligence Organization, 2018. http://dx.doi.org/10.24963/ijcai.2018/337.
Der volle Inhalt der QuelleMartin, Jarryd, Suraj Narayanan S., Tom Everitt und Marcus Hutter. „Count-Based Exploration in Feature Space for Reinforcement Learning“. In Twenty-Sixth International Joint Conference on Artificial Intelligence. California: International Joint Conferences on Artificial Intelligence Organization, 2017. http://dx.doi.org/10.24963/ijcai.2017/344.
Der volle Inhalt der QuelleDa Silva, Felipe Leno, und Anna Helena Reali Costa. „Methods and Algorithms for Knowledge Reuse in Multiagent Reinforcement Learning“. In Concurso de Teses e Dissertações da SBC. Sociedade Brasileira de Computação - SBC, 2020. http://dx.doi.org/10.5753/ctd.2020.11360.
Der volle Inhalt der QuelleGao, Yang, Christian M. Meyer, Mohsen Mesgar und Iryna Gurevych. „Reward Learning for Efficient Reinforcement Learning in Extractive Document Summarisation“. In Twenty-Eighth International Joint Conference on Artificial Intelligence {IJCAI-19}. California: International Joint Conferences on Artificial Intelligence Organization, 2019. http://dx.doi.org/10.24963/ijcai.2019/326.
Der volle Inhalt der QuelleZhao, Enmin, Shihong Deng, Yifan Zang, Yongxin Kang, Kai Li und Junliang Xing. „Potential Driven Reinforcement Learning for Hard Exploration Tasks“. In Twenty-Ninth International Joint Conference on Artificial Intelligence and Seventeenth Pacific Rim International Conference on Artificial Intelligence {IJCAI-PRICAI-20}. California: International Joint Conferences on Artificial Intelligence Organization, 2020. http://dx.doi.org/10.24963/ijcai.2020/290.
Der volle Inhalt der QuelleSarafian, Elad, Aviv Tamar und Sarit Kraus. „Constrained Policy Improvement for Efficient Reinforcement Learning“. In Twenty-Ninth International Joint Conference on Artificial Intelligence and Seventeenth Pacific Rim International Conference on Artificial Intelligence {IJCAI-PRICAI-20}. California: International Joint Conferences on Artificial Intelligence Organization, 2020. http://dx.doi.org/10.24963/ijcai.2020/396.
Der volle Inhalt der QuelleBerichte der Organisationen zum Thema "RL ALGORITHMS"
A Decision-Making Method for Connected Autonomous Driving Based on Reinforcement Learning. SAE International, Dezember 2020. http://dx.doi.org/10.4271/2020-01-5154.
Der volle Inhalt der Quelle