Academic literature on the topic 'Cellular neural networks'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Cellular neural networks.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Cellular neural networks"

1

O. H. Abdelwahed, O. H. Abdelwahed, and M. El-Sayed Wahed. "Optimizing Single Layer Cellular Neural Network Simulator using Simulated Annealing Technique with Neural Networks." Indian Journal of Applied Research 3, no. 6 (October 1, 2011): 91–94. http://dx.doi.org/10.15373/2249555x/june2013/31.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Tadeusiewicz, Ryszard. "Cellular neural networks (with CNNS [Cellular Neural Network Simulator] software — ver.3.6)." Neurocomputing 8, no. 2 (July 1995): 224–25. http://dx.doi.org/10.1016/0925-2312(95)90034-9.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Chua, L. O., and L. Yang. "Cellular neural networks: theory." IEEE Transactions on Circuits and Systems 35, no. 10 (October 1988): 1257–72. http://dx.doi.org/10.1109/31.7600.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Chua, L. O., and L. Yang. "Cellular neural networks: applications." IEEE Transactions on Circuits and Systems 35, no. 10 (October 1988): 1273–90. http://dx.doi.org/10.1109/31.7601.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Toth, Geza, Craig S. Lent, P. Douglas Tougaw, Yuriy Brazhnik, Weiwen Weng, Wolfgang Porod, Ruey-Wen Liu, and Yih-Fang Huang. "Quantum cellular neural networks." Superlattices and Microstructures 20, no. 4 (December 1996): 473–78. http://dx.doi.org/10.1006/spmi.1996.0104.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Slavova, Angela. "Dynamic properties of cellular neural networks." Journal of Applied Mathematics and Stochastic Analysis 6, no. 2 (January 1, 1993): 107–16. http://dx.doi.org/10.1155/s1048953393000103.

Full text
Abstract:
Dynamic behavior of a new class of information-processing systems called Cellular Neural Networks is investigated. In this paper we introduce a small parameter in the state equation of a cellular neural network and we seek for periodic phenomena. New approach is used for proving stability of a cellular neural network by constructing Lyapunov's majorizing equations. This algorithm is helpful for finding a map from initial continuous state space of a cellular neural network into discrete output. A comparison between cellular neural networks and cellular automata is made.
APA, Harvard, Vancouver, ISO, and other styles
7

ITOH, MAKOTO, and LEON O. CHUA. "AUTOASSOCIATIVE MEMORY CELLULAR NEURAL NETWORKS." International Journal of Bifurcation and Chaos 20, no. 10 (October 2010): 3225–66. http://dx.doi.org/10.1142/s0218127410027647.

Full text
Abstract:
An autoassociative memory is a device which accepts an input pattern and generates an output as the stored pattern which is most closely associated with the input. In this paper, we propose an autoassociative memory cellular neural network, which consists of one-dimensional cells with spatial derivative inputs, thresholds and memories. Computer simulations show that it exhibits good performance in face recognition: The network can retrieve the whole from a part of a face image, and can reproduce a clear version of a face image from a noisy one. For human memory, research on "visual illusions" and on "brain damaged visual perception", such as the Thatcher illusion, the hemispatial neglect syndrome, the split-brain, and the hemispheric differences in recognition of faces, has fundamental importance. We simulate them in this paper using an autoassociative memory cellular neural network. Furthermore, we generate many composite face images with spurious patterns by applying genetic algorithms to this network. We also simulate a morphing between two faces using autoassociative memory.
APA, Harvard, Vancouver, ISO, and other styles
8

Bhambhani, Varsha, Luis Valbuena‐Reyes, and Herbert Tanner. "Spatially distributed cellular neural networks." International Journal of Intelligent Computing and Cybernetics 4, no. 4 (November 22, 2011): 465–86. http://dx.doi.org/10.1108/17563781111186752.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Pudov, Sergey. "Learning of cellular neural networks." Future Generation Computer Systems 17, no. 6 (April 2001): 689–97. http://dx.doi.org/10.1016/s0167-739x(00)00052-2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Zamparelli, Michele. "Genetically Trained Cellular Neural Networks." Neural Networks 10, no. 6 (August 1997): 1143–51. http://dx.doi.org/10.1016/s0893-6080(96)00128-1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Cellular neural networks"

1

Viñoles, Serra Mireia. "Dynamics of Two Neuron Cellular Neural Networks." Doctoral thesis, Universitat Ramon Llull, 2011. http://hdl.handle.net/10803/9154.

Full text
Abstract:
Les xarxes neuronals cel·lulars altrament anomenades CNNs, són un tipus de sistema dinàmic que relaciona diferents elements que s'anomenen neurones via unes plantilles de paràmetres. Aquest sistema queda completament determinat coneixent quines són les entrades a la xarxa, les sortides i els paràmetres o pesos. En aquest treball fem un estudi exhaustiu sobre aquest tipus de xarxa en el cas més senzill on només hi intervenen dues neurones. Tot i la simplicitat del sistema, veurem que pot tenir una dinàmica molt rica.

Primer de tot, revisem l'estabilitat d'aquest sistema des de dos punts de vista diferents. Usant la teoria de Lyapunov, trobem el rang de paràmetres en el que hem de treballar per aconseguir la convergència de la xarxa cap a un punt fix. Aquest mètode ens obre les portes per abordar els diferents tipus de problemes que es poden resoldre usant una xarxa neuronal cel·lular de dues neurones. D'altra banda, el comportament dinàmic de la CNN està determinat per la funció lineal a trossos que defineix les sortides del sistema. Això ens permet estudiar els diferents sistemes que apareixen en cada una de les regions on el sistema és lineal, aconseguint un estudi complet de l'estabilitat de la xarxa en funció de les posicions locals dels diferents punts d'equilibri del sistema. D'aquí obtenim bàsicament dos tipus de convergència, cap a un punt fix o bé cap a un cicle límit. Aquests resultats ens permeten organitzar aquest estudi bàsicament en aquests dos tipus de convergència. Entendre el sistema d'equacions diferencials que defineixen la CNN en dimensió 1 usant només dues neurones, ens permet trobar les dificultats intrínseques de les xarxes neuronals cel·lulars així com els possibles usos que els hi podem donar. A més, ens donarà les claus per a poder entendre el cas general.

Un dels primers problemes que abordem és la dependència de les sortides del sistema respecte les condicions inicials. La funció de Lyapunov que usem en l'estudi de l'estabilitat es pot veure com una quàdrica si la pensem com a funció de les sortides. La posició i la geometria d'aquesta forma quadràtica ens permeten trobar condicions sobre els paràmetres que descriuen el sistema dinàmic. Treballant en aquestes regions aconseguim abolir el problema de la dependència. A partir d'aquí ja comencem a estudiar les diferents aplicacions de les CNN treballant en un rang de paràmetres on el sistema convergeix a un punt fix. Una primera aplicació la trobem usant aquest tipus de xarxa per a reproduir distribucions de probabilitat tipus Bernoulli usant altre cop la funció de Lyapunov emprada en l'estudi de l'estabilitat. Una altra aplicació apareix quan ens centrem a treballar dins del quadrat unitat. En aquest cas, el sistema és capaç de reproduir funcions lineals.

L'existència de la funció de Lyapunov permet també de construir unes gràfiques que depenen dels paràmetres de la CNN que ens indiquen la relació que hi ha entre les entrades de la CNN i les sortides. Aquestes gràfiques ens donen un algoritme per a dissenyar plantilles de paràmetres reproduint aquestes relacions. També ens obren la porta a un nou problema: com composar diferents plantilles per aconseguir una determinada relació entrada¬sortida. Tot aquest estudi ens porta a pensar en buscar una relació funcional entre les entrades externes a la xarxa i les sortides. Com que les possibles sortides és un conjunt discret d'elements gràcies a la funció lineal a trossos, la correspondència entrada¬sortida es pot pensar com un problema de classificació on cada una de les classes està definida per les diferent possibles sortides. Pensant¬ho d'aquesta manera, estudiem quins problemes de classificació es poden resoldre usant una CNN de dues neurones i trobem quina relació hi ha entre els paràmetres de la CNN, les entrades i les sortides. Això ens permet trobar un mètode per a dissenyar plantilles per a cada problema concret de classificació. A més, els resultats obtinguts d'aquest estudi ens porten cap al problema de reproduir funcions Booleanes usant CNNs i ens mostren alguns dels límits que tenen les xarxes neuronals cel·lulars tot intentant reproduir el capçal de la màquina universal de Turing descoberta per Marvin Minsky l'any 1962.

A partir d'aquí comencem a estudiar la xarxa neuronal cel·lular quan convergeix cap a un cicle límit. Basat en un exemple particular extret del llibre de L.O Chua, estudiem primer com trobar cicles límit en el cas que els paràmetres de la CNN que connecten les diferents neurones siguin antisimètrics. D'aquesta manera trobem en quin rang de paràmetres hem de treballar per assegurar que l'estat final de la xarxa sigui una corba tancada. A més ens dona la base per poder abordar el problema en el cas general. El comportament periòdic d'aquestes corbes ens incita primer a calcular aquest període per cada cicle i després a pensar en possibles aplicacions com ara usar les CNNs per a generar senyals de rellotge.

Finalment, un cop estudiats els diferents tipus de comportament dinàmics i les seves possibles aplicacions, fem un estudi comparatiu de la xarxa neuronal cel·lular quan la sortida està definida per la funció lineal a trossos i quan està definida per la tangent hiperbòlica ja que moltes vegades en la literatura s'usa l'una en comptes de l'altra aprofitant la seva diferenciabilitat. Aquest estudi ens indica que no sempre es pot usar la tangent hiperbòlica en comptes de la funció lineal a trossos ja que la convergència del sistema és diferent en un segons com es defineixin les sortides de la CNN.
Les redes neuronales celulares o CNNs, son un tipo de sistema dinámico que relaciona diferentes elementos llamados neuronas a partir de unas plantillas de parámetros. Este sistema queda completamente determinado conociendo las entradas de la red, las salidas y los parámetros o pesos. En este trabajo hacemos un estudio exhaustivo de estos tipos de red en el caso más sencillo donde sólo intervienen dos neuronas. Este es un sistema muy sencillo que puede llegar a tener una dinámica muy rica.

Primero, revisamos la estabilidad de este sistema desde dos puntos de vista diferentes. Usando la teoría de Lyapunov, encontramos el rango de parámetros en el que hemos de trabajar para conseguir que la red converja hacia un punto fijo. Este método nos abre las puertas parar poder abordar los diferentes tipos de problemas que se pueden resolver usando una red neuronal celular de dos neuronas. Por otro lado, el comportamiento dinámico de la CNN está determinado por la función lineal a tramos que define las salidas del sistema. Esto nos permite estudiar los diferentes sistemas que aparecen en cada una de las regiones donde el sistema es lineal, consiguiendo un estudio completo de la estabilidad de la red en función de las posiciones locales de los diferentes puntos de equilibrio del sistema. Obtenemos básicamente dos tipos de convergencia, hacia a un punto fijo o hacia un ciclo límite. Estos resultados nos permiten organizar este estudio básicamente en estos dos tipos de convergencia. Entender el sistema de ecuaciones diferenciales que definen la CNN en dimensión 1 usando solamente dos neuronas, nos permite encontrar las dificultades intrínsecas de las redes neuronales celulares así como sus posibles usos. Además, nos va a dar los puntos clave para poder entender el caso general. Uno de los primeros problemas que abordamos es la dependencia de las salidas del sistema respecto de las condiciones iniciales. La función de Lyapunov que usamos en el estudio de la estabilidad es una cuadrica si la pensamos como función de las salidas. La posición y la geometría de esta forma cuadrática nos permiten encontrar condiciones sobre los parámetros que describen el sistema dinámico. Trabajando en estas regiones logramos resolver el problema de la dependencia. A partir de aquí ya podemos empezar a estudiar las diferentes aplicaciones de las CNNs trabajando en un rango de parámetros donde el sistema converge a un punto fijo. Una primera aplicación la encontramos usando este tipo de red para reproducir distribuciones de probabilidad tipo Bernoulli usando otra vez la función de Lyapunov usada en el estudio de la estabilidad. Otra aplicación aparece cuando nos centramos en trabajar dentro del cuadrado unidad. En este caso, el sistema es capaz de reproducir funciones lineales.

La existencia de la función de Lyapuno v permite también construir unas graficas que dependen de los parámetros de la CNN que nos indican la relación que hay entre las entradas de la CNN y las salidas. Estas graficas nos dan un algoritmo para diseñar plantillas de parámetros reproduciendo estas relaciones. También nos abren la puerta hacia un nuevo problema: como componer diferentes plantillas para conseguir una determinada relación entrada¬salida. Todo este estudio nos lleva a pensar en buscar una relación funcional entre las entradas externas a la red y las salidas. Teniendo en cuenta que las posibles salidas es un conjunto discreto de elementos gracias a la función lineal a tramos, la correspondencia entrada¬salida se puede pensar como un problema de clasificación donde cada una de las clases está definida por las diferentes posibles salidas. Pensándolo de esta forma, estudiamos qué problemas de clasificación se pueden resolver usando una CNN de dos neuronas y encontramos la relación que hay entre los parámetros de la CNN, las entradas y las salidas. Esto nos permite encontrar un método de diseño de plantillas para cada problema concreto de clasificación. Además, los resultados obtenidos en este estudio nos conducen hacia el problema de reproducir funciones Booleanas usando CNNs y nos muestran algunos de los límites que tienen las redes neuronales celulares al intentar reproducir el cabezal (la cabeza) de la máquina universal de Turing descubierta por Marvin Minsky el año 1962.

A partir de aquí empezamos a estudiar la red neuronal celular cuando ésta converge hacia un ciclo límite. Basándonos en un ejemplo particular sacado del libro de L.O Chua, estudiamos primero como encontrar ciclos límite en el caso que los parámetros de la CNN que conectan las diferentes neuronas sean anti¬simétricos. De esta forma encontramos el rango de parámetros en el cuál hemos de trabajar para asegurar que el estado final de la red sea una curva cerrada. Además nos da la base para poder abordar el problema en el caso general. El comportamiento periódico de estas curvas incita primero a calcular su periodo para cada ciclo y luego a pensar en posibles aplicaciones como por ejemplo usar las CNNs para generar señales de reloj.

Finalmente, estudiados ya los diferentes tipos de comportamiento dinámico y sus posibles aplicaciones, hacemos un estudio comparativo de la red neuronal celular cuando la salida está definida por la función lineal a trozos y cuando está definida por la tangente hiperbólica ya que muchas veces en la literatura se usa una en vez de la otra intentado aprovechar su diferenciabilidad. Este estudio nos indica que no siempre se puede intercambiar dichas funciones ya que la convergencia del sistema es distinta según como se definan las salidas de la CNN.
In this dissertation we review the two neuron cellular neural network stability using the Lyapunov theory, and using the different local dynamic behavior derived from the piecewise linear function use. We study then a geometrical way to understand the system dynamics. The Lyapunov stability, gives us the key point to tackle the different convergence problems that can be studied when the CNN system converges to a fixed¬point. The geometric stability shed light on the convergence to limit cycles. This work is basically organized based on these two convergence classes.

We try to make an exhaustive study about Cellular Neural Networks in order to find the intrinsic difficulties, and the possible uses of a CNN. Understanding the CNN system in a lower dimension, give us some of the main keys in order to understand the general case. That's why we will focus our study in the one dimensional CNN case with only two neurons.

From the results obtained using the Lyapunov function, we propose some methods to avoid the dependence on initial conditions problem. Its intrinsic characteristics as a quadratic form of the output values gives us the key points to find parameters where the final outputs do not depend on initial conditions. At this point, we are able to study different CNN applications for parameter range where the system converges to a fixed¬point. We start by using CNNs to reproduce Bernoulli probability distributions, based on the Lyapunov function geometry. Secondly, we reproduce linear functions while working inside the unit square.

The existence of the Lyapunov function allows us to construct a map, called convergence map, depending on the CNN parameters, which relates the CNN inputs with the final outputs. This map gives us a recipe to design templates performing some desired input¬output associations. The results obtained drive us into the template composition problem. We study the way different templates can be applied in sequence. From the results obtained in the template design problem, we may think on finding a functional relation between the external inputs and the final outputs. Because the set of final states is discrete, thanks to the piecewise linear function, this correspondence can be thought as a classification problem. Each one of the different classes is defined by the different final states which, will depend on the CNN parameters.

Next, we study which classifications problems can be solved by a two neuron CNN, and relate them with weight parameters. In this case, we also find a recipe to design templates performing these classification problems. The results obtained allow us to tackle the problem to realize Boolean functions using CNNs, and show us some CNN limits trying to reproduce the header of a universal Turing machine.

Based on a particular limit cycle example extracted from Chua's book, we start this study with anti symmetric connections between cells. The results obtained can be generalized for CNNs with opposite sign parameters. We have seen in the stability study that limit cycles have the possibility to exist for this parameter range. Periodic behavior of these curves is computed in a particular case. The limit cycle period can be expressed as a function of the CNN parameters, and can be used to generate clock signals.

Finally, we compare the CNN dynamic behavior using different output functions, hyperbolic tangent and piecewise linear function. Many times in the literature, hyperbolic tangent is used instead of piecewise linear function because of its differentiability along the plane. Nevertheless, in some particular regions in the parameter space, they exhibit a different number of equilibrium points. Then, for theoretical results, hyperbolic tangent should not be used instead of piecewise linear function.
APA, Harvard, Vancouver, ISO, and other styles
2

Devoe, Malcom, and Malcom W. Jr Devoe. "Cellular Neural Networks with Switching Connections." Digital Archive @ GSU, 2012. http://digitalarchive.gsu.edu/math_theses/115.

Full text
Abstract:
Artificial neural networks are widely used for parallel processing of data analysis and visual information. The most prominent example of artificial neural networks is a cellular neural network (CNN), composed from two-dimensional arrays of simple first-order dynamical systems (“cells”) that are interconnected by wires. The information, to be processed by a CNN, represents the initial state of the network, and the parallel information processing is performed by converging to one of the stable spatial equilibrium states of the multi-stable CNN. This thesis studies a specific type of CNNs designed to perform the winner-take-all function of finding the largest among the n numbers, using the network dynamics. In a wider context, this amounts to automatically detecting a target spot in the given visual picture. The research, reported in this thesis, demonstrates that the addition of fast on-off switching (blinking) connections significantly improves the functionality of winner-take-all CNNs. Numerical calculations are performed to reveal the dependence of the probability, that the CNN correctly classifies the largest number, on the switching frequency.
APA, Harvard, Vancouver, ISO, and other styles
3

Saatci, Ertugrul. "Image processing using cellular neural networks." Thesis, London South Bank University, 2003. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.288173.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

El-Shafei, Ahmed. "Time multiplexing of cellular neural networks." Thesis, University of Kent, 2001. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.365221.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Mirzai, Bahram. "Robustness and applications of cellular neural networks /." Zürich, 1998. http://e-collection.ethbib.ethz.ch/show?type=diss&nr=12483.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Orovas, Christos. "Cellular associative neural networks for pattern recognition." Thesis, University of York, 2000. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.310983.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Hänggi, Martin. "Analysis, design, and optimization of cellular neural networks /." Zürich, 1999. http://e-collection.ethbib.ethz.ch/show?type=diss&nr=13225.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Joy, Mark Patrick. "On the convergent dynamics of cellular neural networks." Thesis, London South Bank University, 1996. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.336372.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Rush, Jonathan Reginald. "Evolving cellular neural networks for autonomous robot control." Thesis, University of Salford, 1996. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.308293.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Brewer, Grant. "Spiking cellular associative neural networks for pattern recognition." Thesis, University of York, 2008. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.445470.

Full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Cellular neural networks"

1

Hänggi, Martin, and George S. Moschytz, eds. Cellular Neural Networks. Boston, MA: Springer US, 2000. http://dx.doi.org/10.1007/978-1-4757-3220-7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Manganaro, Gabriele, Paolo Arena, and Luigi Fortuna. Cellular Neural Networks. Berlin, Heidelberg: Springer Berlin Heidelberg, 1999. http://dx.doi.org/10.1007/978-3-642-60044-9.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

1948-, Vandewalle J., and Roska T, eds. Cellular neural networks. Chichester [England]: Wiley, 1993.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Cellular neural networks: Dynamics and modelling. Dordrecht: Kluwer Academic Publishers, 2003.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Slavova, Angela. Cellular Neural Networks: Dynamics and Modelling. Dordrecht: Springer Netherlands, 2003. http://dx.doi.org/10.1007/978-94-017-0261-4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Chua, Leon O., Glenn Gulak, Edmund Pierzchala, and Angel Rodríguez-Vázquez, eds. Cellular Neural Networks and Analog VLSI. Boston, MA: Springer US, 1998. http://dx.doi.org/10.1007/978-1-4757-4730-0.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

1936-, Chua Leon O., ed. Cellular neural networks and analog VLSI. Boston: Kluwer Academic Publishers, 1998.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Chua, Leon O. Cellular Neural Networks and Analog VLSI. Boston, MA: Springer US, 1998.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Martin, Hänggi, and Moschytz George S, eds. Cellular neural networks: Analysis, design, and optimization. Boston: Kluwer Academic Publishers, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Yalçın, Müştak E., Tuba Ayhan, and Ramazan Yeniçeri. Reconfigurable Cellular Neural Networks and Their Applications. Cham: Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-17840-6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Book chapters on the topic "Cellular neural networks"

1

Fortuna, Luigi, Gianguido Rizzotto, Mario Lavorgna, Giuseppe Nunnari, M. Gabriella Xibilia, and Riccardo Caponetto. "Cellular Neural Networks." In Advanced Textbooks in Control and Signal Processing, 117–34. London: Springer London, 2001. http://dx.doi.org/10.1007/978-1-4471-0357-8_7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Li, Xuewei, Jinpei Wu, and Xueyan Li. "Cellular Neural Networks." In Theory of Practical Cellular Automaton, 193–232. Singapore: Springer Singapore, 2018. http://dx.doi.org/10.1007/978-981-10-7497-4_6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Yi, Zhang, and K. K. Tan. "Cellular Neural Networks." In Network Theory and Applications, 33–67. Boston, MA: Springer US, 2004. http://dx.doi.org/10.1007/978-1-4757-3819-3_3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Sheu, Bing J., and Joongho Choi. "Cellular Neural Networks." In Neural Information Processing and VLSI, 97–149. Boston, MA: Springer US, 1995. http://dx.doi.org/10.1007/978-1-4615-2247-8_5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Hänggi, Martin, and George S. Moschytz. "Introduction." In Cellular Neural Networks, 1–10. Boston, MA: Springer US, 2000. http://dx.doi.org/10.1007/978-1-4757-3220-7_1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Hänggi, Martin, and George S. Moschytz. "Locally Regular CNNS." In Cellular Neural Networks, 11–21. Boston, MA: Springer US, 2000. http://dx.doi.org/10.1007/978-1-4757-3220-7_2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Hänggi, Martin, and George S. Moschytz. "Robust Template Design." In Cellular Neural Networks, 23–46. Boston, MA: Springer US, 2000. http://dx.doi.org/10.1007/978-1-4757-3220-7_3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Hänggi, Martin, and George S. Moschytz. "CNN Settling Time." In Cellular Neural Networks, 47–81. Boston, MA: Springer US, 2000. http://dx.doi.org/10.1007/978-1-4757-3220-7_4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Hänggi, Martin, and George S. Moschytz. "Unification of Continuous- and Discrete-Time CNNS." In Cellular Neural Networks, 83–100. Boston, MA: Springer US, 2000. http://dx.doi.org/10.1007/978-1-4757-3220-7_5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Hänggi, Martin, and George S. Moschytz. "Stochastic Optimization." In Cellular Neural Networks, 101–25. Boston, MA: Springer US, 2000. http://dx.doi.org/10.1007/978-1-4757-3220-7_6.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Cellular neural networks"

1

Ueda, Yasuhiro, Masakazu Kawahara, Takashi Inoue, Yoko Uwate, and Yoshifumi Nishio. "Space-varying cellular neural networks designed by Hopfield neural network." In 2010 International Joint Conference on Neural Networks (IJCNN). IEEE, 2010. http://dx.doi.org/10.1109/ijcnn.2010.5596510.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Horvath, Andras, Michael Hillmer, Qiuwen Lou, X. Sharon Hu, and Michael Niemier. "Cellular neural network friendly convolutional neural networks — CNNs with CNNs." In 2017 Design, Automation & Test in Europe Conference & Exhibition (DATE). IEEE, 2017. http://dx.doi.org/10.23919/date.2017.7926973.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Brady, Raghavan, and Slawny. "Probabilistic cellular automata in pattern recognition." In International Joint Conference on Neural Networks. IEEE, 1989. http://dx.doi.org/10.1109/ijcnn.1989.118577.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Goras, Liviu, Viorel Stefan Savinescu, and Nica Ioan. "On Pattern Formation in Homogeneous and Nonhomogeneous Cellular Neural Networks." In 2018 14th Symposium on Neural Networks and Applications (NEUREL). IEEE, 2018. http://dx.doi.org/10.1109/neurel.2018.8587007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Alsina-Pages, Rosa Ma, Marcos Hervas, Xavier Vilasis-Cardona, and Mireia Vinyoles-Serra. "QPSK demodulation using cellular neural networks." In 2014 14th International Workshop on Cellular Nanoscale Networks and their Applications (CNNA). IEEE, 2014. http://dx.doi.org/10.1109/cnna.2014.6888622.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Manganaro, Gabriele. "Another look at Cellular Neural Networks." In 2021 17th International Workshop on Cellular Nanoscale Networks and their Applications (CNNA). IEEE, 2021. http://dx.doi.org/10.1109/cnna49188.2021.9610763.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Tarkov, Mikhail S. "Cellular Neural Networks with Quantized Weights." In 2019 International Multi-Conference on Engineering, Computer and Information Sciences (SIBIRCON). IEEE, 2019. http://dx.doi.org/10.1109/sibircon48586.2019.8958095.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Ozmen, Atilla, and Baran Tander. "Channel equalization with cellular neural networks." In MELECON 2010 - 2010 15th IEEE Mediterranean Electrotechnical Conference. IEEE, 2010. http://dx.doi.org/10.1109/melcon.2010.5476301.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Correa, Leonardo Garcia, Alexandre C. B. Delbem, and Zhao Liang. "Associative Memories Using Cellular Neural Networks." In Seventh International Conference on Intelligent Systems Design and Applications (ISDA 2007). IEEE, 2007. http://dx.doi.org/10.1109/isda.2007.133.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Correa, Leonardo Garcia, Alexandre C. B. Delbem, and Zhao Liang. "Associative Memories Using Cellular Neural Networks." In Seventh International Conference on Intelligent Systems Design and Applications (ISDA 2007). IEEE, 2007. http://dx.doi.org/10.1109/isda.2007.4389663.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography