Книги з теми "Recurrent neural networks BLSTM"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Recurrent neural networks BLSTM.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-40 книг для дослідження на тему "Recurrent neural networks BLSTM".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте книги для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Hu, Xiaolin, and P. Balasubramaniam. Recurrent neural networks. Rijek, Crotia: InTech, 2008.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Salem, Fathi M. Recurrent Neural Networks. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-89929-5.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Hammer, Barbara. Learning with recurrent neural networks. London: Springer London, 2000. http://dx.doi.org/10.1007/bfb0110016.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

ElHevnawi, Mahmoud, and Mohamed Mysara. Recurrent neural networks and soft computing. Rijeka: InTech, 2012.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Yi, Zhang. Convergence analysis of recurrent neural networks. Boston: Kluwer Academic Publishers, 2004.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Yi, Zhang, and K. K. Tan. Convergence Analysis of Recurrent Neural Networks. Boston, MA: Springer US, 2004. http://dx.doi.org/10.1007/978-1-4757-3819-3.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Graves, Alex. Supervised Sequence Labelling with Recurrent Neural Networks. Berlin, Heidelberg: Springer Berlin Heidelberg, 2012.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Graves, Alex. Supervised Sequence Labelling with Recurrent Neural Networks. Berlin, Heidelberg: Springer Berlin Heidelberg, 2012. http://dx.doi.org/10.1007/978-3-642-24797-2.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Michel, Anthony N. Qualitative analysis and synthesis of recurrent neural networks. New York: Marcel Dekker, Inc., 2002.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Chen, Wen. Recurrent neural networks applied to robotic motion control. Ottawa: National Library of Canada, 2002.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Rovithakis, George A., and Manolis A. Christodoulou. Adaptive Control with Recurrent High-order Neural Networks. London: Springer London, 2000. http://dx.doi.org/10.1007/978-1-4471-0785-9.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Bianchi, Filippo Maria, Enrico Maiorino, Michael C. Kampffmeyer, Antonello Rizzi, and Robert Jenssen. Recurrent Neural Networks for Short-Term Load Forecasting. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-70338-1.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Kuan, Chung-Ming. Forecasting exchange rates using feedforward and recurrent neural networks. Champaign: University of Illinois at Urbana-Champaign, 1993.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
14

Kuan, Chung-Ming. Forecasting exchange rates using feedforward and recurrent neural networks. [Urbana, Ill.]: College of Commerce and Business Administration, University of Illinois at Urbana-Champaign, 1992.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Rovithakis, George A. Adaptive control with recurrent high-order neural networks: Theory and industrial applications. London: Springer, 2000.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Rovithakis, George A. Adaptive Control with Recurrent High-order Neural Networks: Theory and Industrial Applications. London: Springer London, 2000.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Medsker, Larry, and Lakhmi C. Jain, eds. Recurrent Neural Networks. CRC Press, 1999. http://dx.doi.org/10.1201/9781420049176.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Hu, Xiaolin, and P. Balasubramaniam, eds. Recurrent Neural Networks. InTech, 2008. http://dx.doi.org/10.5772/68.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Hammer, Barbara. Learning with Recurrent Neural Networks. Springer, 2000.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Yi, Zhang. Convergence Analysis of Recurrent Neural Networks. Springer, 2013.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
21

R, Medsker L., and Jain L. C, eds. Recurrent neural networks: Design and applications. Boca Raton, Fla: CRC Press, 2000.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
22

ElHefnawi, Mahmoud, ed. Recurrent Neural Networks and Soft Computing. InTech, 2012. http://dx.doi.org/10.5772/2296.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
23

Graves, Alex. Supervised Sequence Labelling with Recurrent Neural Networks. Springer, 2012.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Supervised Sequence Labelling With Recurrent Neural Networks. Springer, 2012.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Recurrent Neural Networks for Temporal Data Processing. InTech, 2011.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
26

Brunner, Daniel, Miguel C. Soriano, and Guy Van der Sande. Photonic Reservoir Computing: Optical Recurrent Neural Networks. de Gruyter GmbH, Walter, 2019.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Cardot, Hubert, ed. Recurrent Neural Networks for Temporal Data Processing. InTech, 2011. http://dx.doi.org/10.5772/631.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
28

1965-, Kolen John F., and Kremer Stefan C. 1968-, eds. A field guide to dynamical recurrent networks. New York: IEEE Press, 2001.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
29

(Editor), John F. Kolen, and Stefan C. Kremer (Editor), eds. A Field Guide to Dynamical Recurrent Networks. Wiley-IEEE Press, 2001.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Omlin, Christian W. Knowledge Acquisition and Representation in Recurrent Neural Networks. World Scientific Publishing Company, 2005.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
31

Yi, Zhang, and K. K. Tan. Convergence Analysis of Recurrent Neural Networks (Network Theory and Applications). Springer, 2003.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
32

Mandic, Danilo, and Jonathon Chambers. Recurrent Neural Networks for Prediction: Learning Algorithms, Architectures and Stability. Wiley, 2001.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
33

Mandic, Danilo P., and Jonathon A. Chambers. Recurrent Neural Networks for Prediction: Learning Algorithms, Architectures and Stability. Wiley & Sons, Incorporated, John, 2003.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
34

(Editor), Larry Medsker, and Lakhmi C. Jain (Editor), eds. Recurrent Neural Networks: Design and Applications (The Crc Press International Series on Computational Intelligence). CRC, 1999.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
35

Michel, Anthony, and Derong Liu. Qualitative Analysis and Synthesis of Recurrent Neural Networks (Pure and Applied Mathematics). CRC, 2002.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
36

Bianchi, Filippo Maria Maria, Enrico Maiorino, Michael C. Kampffmeyer, Antonello Rizzi, and Robert Jenssen. Recurrent Neural Networks for Short-Term Load Forecasting: An Overview and Comparative Analysis. Springer, 2017.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
37

Kostadinov, Simeon. Recurrent Neural Networks with Python Quick Start Guide: Sequential learning and language modeling with TensorFlow. Packt Publishing, 2018.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
38

Gandhi, Vaibhav. Brain-Computer Interfacing for Assistive Robotics: Electroencephalograms, Recurrent Quantum Neural Networks, and User-Centric Graphical Interfaces. Academic Press, 2014.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
39

Lewis, Marc D. The Development of Emotion Regulation. Edited by Philip David Zelazo. Oxford University Press, 2013. http://dx.doi.org/10.1093/oxfordhb/9780199958474.013.0004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
This chapter examines the relation between normative advances and emerging individual differences in emotion regulation (ER), using principles from developmental cognitive neuroscience to integrate these seemingly disparate processes. Like several other theorists, I view corticolimbic development as a self-organizing stream of synaptic alterations, driven by experience rather than biologically prespecified. This conceptualization helps resolve ambiguities that appear when we try, but consistently fail, to neatly parse individual differences and developmental differences. At the neural level, increasingly specific patterns of synaptic activation converge in response to (or in anticipation of) recurrent emotions, creating synaptic networks that link multiple regions. These networks regulate emotions (in real time). But they also stabilize and consolidate with repetition, thus giving rise tohabitsthat are the hallmark of individual development. These configurations are progressively sculpted through individual learning experiences, but they also become increasingly effective with use, thereby expressing both individual trajectories and normative advances as they develop. In sum, experience-driven synaptic changes create a repertoire of individual solutions to universal challenges, shared among members of a culture or society. This description casts individual differences and age-related advances as dual facets of a unitary developmental process.
40

Trappenberg, Thomas P. Fundamentals of Machine Learning. Oxford University Press, 2019. http://dx.doi.org/10.1093/oso/9780198828044.001.0001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Machine learning is exploding, both in research and for industrial applications. This book aims to be a brief introduction to this area given the importance of this topic in many disciplines, from sciences to engineering, and even for its broader impact on our society. This book tries to contribute with a style that keeps a balance between brevity of explanations, the rigor of mathematical arguments, and outlining principle ideas. At the same time, this book tries to give some comprehensive overview of a variety of methods to see their relation on specialization within this area. This includes some introduction to Bayesian approaches to modeling as well as deep learning. Writing small programs to apply machine learning techniques is made easy today by the availability of high-level programming systems. This book offers examples in Python with the machine learning libraries sklearn and Keras. The first four chapters concentrate largely on the practical side of applying machine learning techniques. The book then discusses more fundamental concepts and includes their formulation in a probabilistic context. This is followed by chapters on advanced models, that of recurrent neural networks and that of reinforcement learning. The book closes with a brief discussion on the impact of machine learning and AI on our society.

До бібліографії