Articles de revues sur le sujet « Entropy algorithms »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Entropy algorithms ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Li, Yancang, et Wanqing Li. « Adaptive Ant Colony Optimization Algorithm Based on Information Entropy : Foundation and Application ». Fundamenta Informaticae 77, no 3 (janvier 2007) : 229–42. https://doi.org/10.3233/fun-2007-77303.
Texte intégralTurlykozhayeva, D. A. « ROUTING METRIC AND PROTOCOL FOR WIRELESS MESH NETWORK BASED ON INFORMATION ENTROPY THEORY ». Eurasian Physical Technical Journal 20, no 4 (46) (19 décembre 2023) : 90–98. http://dx.doi.org/10.31489/2023no4/90-98.
Texte intégralZhang, Chuang, Yue-Han Pei, Xiao-Xue Wang, Hong-Yu Hou et Li-Hua Fu. « Symmetric cross-entropy multi-threshold color image segmentation based on improved pelican optimization algorithm ». PLOS ONE 18, no 6 (29 juin 2023) : e0287573. http://dx.doi.org/10.1371/journal.pone.0287573.
Texte intégralManis, George, Md Aktaruzzaman et Roberto Sassi. « Low Computational Cost for Sample Entropy ». Entropy 20, no 1 (13 janvier 2018) : 61. http://dx.doi.org/10.3390/e20010061.
Texte intégralLiu, Jing, Huibin Lu, Xiuru Zhang, Xiaoli Li, Lei Wang, Shimin Yin et Dong Cui. « Which Multivariate Multi-Scale Entropy Algorithm Is More Suitable for Analyzing the EEG Characteristics of Mild Cognitive Impairment ? » Entropy 25, no 3 (21 février 2023) : 396. http://dx.doi.org/10.3390/e25030396.
Texte intégralJi, Binghui, Xiaona Sun, Peimiao Chen, Siyu Wang, Shangfa Song et Bo He. « An Integrated Navigation Algorithm for Underwater Vehicles Improved by a Variational Bayesian and Minimum Mixed Error Entropy Unscented Kalman Filter ». Electronics 13, no 23 (29 novembre 2024) : 4727. http://dx.doi.org/10.3390/electronics13234727.
Texte intégralDu, Xinzhi. « A Robust and High-Dimensional Clustering Algorithm Based on Feature Weight and Entropy ». Entropy 25, no 3 (16 mars 2023) : 510. http://dx.doi.org/10.3390/e25030510.
Texte intégralMorozov, Denys. « Polynomial Representation of Binary Trees of Entropy Binary Codes ». Mohyla Mathematical Journal 4 (19 mai 2022) : 20–23. http://dx.doi.org/10.18523/2617-70804202120-23.
Texte intégralCrysdian, Cahyo. « The Evaluation of Entropy-based Algorithm towards the Production of Closed-Loop Edge ». JOIV : International Journal on Informatics Visualization 7, no 4 (31 décembre 2023) : 2481. http://dx.doi.org/10.62527/joiv.7.4.1727.
Texte intégralCrysdian, Cahyo. « The Evaluation of Entropy-based Algorithm towards the Production of Closed-Loop Edge ». JOIV : International Journal on Informatics Visualization 7, no 4 (31 décembre 2023) : 2481. http://dx.doi.org/10.30630/joiv.7.4.01727.
Texte intégralLi, Yanjun, et Yongquan Yan. « Training Autoencoders Using Relative Entropy Constraints ». Applied Sciences 13, no 1 (26 décembre 2022) : 287. http://dx.doi.org/10.3390/app13010287.
Texte intégralDelgado-Bonal, Alfonso, et Alexander Marshak. « Approximate Entropy and Sample Entropy : A Comprehensive Tutorial ». Entropy 21, no 6 (28 mai 2019) : 541. http://dx.doi.org/10.3390/e21060541.
Texte intégralCORTES, CORINNA, MEHRYAR MOHRI, ASHISH RASTOGI et MICHAEL RILEY. « ON THE COMPUTATION OF THE RELATIVE ENTROPY OF PROBABILISTIC AUTOMATA ». International Journal of Foundations of Computer Science 19, no 01 (février 2008) : 219–42. http://dx.doi.org/10.1142/s0129054108005644.
Texte intégralYi, Yang, Mei Jia Chen et Fa Hong Yu. « An Improved Estimation of Distribution Algorithm Based on the Entropy Increment Theorem ». Applied Mechanics and Materials 385-386 (août 2013) : 1675–78. http://dx.doi.org/10.4028/www.scientific.net/amm.385-386.1675.
Texte intégralCant, Richard, Ayodeji Remi-Omosowon, Caroline Langensiepen et Ahmad Lotfi. « An Entropy-Guided Monte Carlo Tree Search Approach for Generating Optimal Container Loading Layouts ». Entropy 20, no 11 (9 novembre 2018) : 866. http://dx.doi.org/10.3390/e20110866.
Texte intégralIgnatenko, Vera, Anton Surkov et Sergei Koltcov. « Random forests with parametric entropy-based information gains for classification and regression problems ». PeerJ Computer Science 10 (3 janvier 2024) : e1775. http://dx.doi.org/10.7717/peerj-cs.1775.
Texte intégralAmarantidis, Lampros Chrysovalantis, et Daniel Abásolo. « Interpretation of Entropy Algorithms in the Context of Biomedical Signal Analysis and Their Application to EEG Analysis in Epilepsy ». Entropy 21, no 9 (27 août 2019) : 840. http://dx.doi.org/10.3390/e21090840.
Texte intégralLiu, Weifeng, Ying Jiang et Yuesheng Xu. « A Super Fast Algorithm for Estimating Sample Entropy ». Entropy 24, no 4 (8 avril 2022) : 524. http://dx.doi.org/10.3390/e24040524.
Texte intégralPan, Rui, Wei Gao, Yunbo Zuo, Guoxin Wu et Yuda Chen. « Investigation into defect image segmentation algorithms for galvanised steel sheets under texture backgrounds ». Insight - Non-Destructive Testing and Condition Monitoring 65, no 9 (1 septembre 2023) : 492–500. http://dx.doi.org/10.1784/insi.2023.65.9.492.
Texte intégralO., Zemlianyi, et Baibuz O. « Algorithms for data imputation based on entropy ». System technologies 6, no 155 (2 février 2025) : 116–31. https://doi.org/10.34185/1562-9945-6-155-2024-12.
Texte intégralBacanin, Nebojsa, et Milan Tuba. « Firefly Algorithm for Cardinality Constrained Mean-Variance Portfolio Optimization Problem with Entropy Diversity Constraint ». Scientific World Journal 2014 (2014) : 1–16. http://dx.doi.org/10.1155/2014/721521.
Texte intégralLeng, Qi, Bo Shan et Chong Zhou. « Reference Point and Grid Method-Based Evolutionary Algorithm with Entropy for Many-Objective Optimization Problems ». Entropy 27, no 5 (14 mai 2025) : 524. https://doi.org/10.3390/e27050524.
Texte intégralMitroi-Symeonidis, Flavia-Corina, et Eleutherius Symeonidis. « Redistributing algorithms and Shannon’s Entropy ». Aequationes mathematicae 96, no 2 (31 janvier 2022) : 267–77. http://dx.doi.org/10.1007/s00010-022-00867-5.
Texte intégralFyfe, Colin, Domingo Ortiz-Boyer et Nicolas Garcia-Pedrajas. « Evolutionary algorithms and cross entropy ». International Journal of Knowledge-based and Intelligent Engineering Systems 16, no 4 (5 décembre 2012) : 215–21. http://dx.doi.org/10.3233/kes-2012-00244.
Texte intégralParthasarathy, Gayatri, et G. Abhilash. « Entropy‐based transform learning algorithms ». IET Signal Processing 12, no 4 (juin 2018) : 439–46. http://dx.doi.org/10.1049/iet-spr.2017.0337.
Texte intégralKumar, Sumit, Garima Vig, Sapna Varshney et Priti Bansal. « Brain Tumor Detection Based on Multilevel 2D Histogram Image Segmentation Using DEWO Optimization Algorithm ». International Journal of E-Health and Medical Communications 11, no 3 (juillet 2020) : 71–85. http://dx.doi.org/10.4018/ijehmc.2020070105.
Texte intégralKanzawa, Yuchi. « Bezdek-Type Fuzzified Co-Clustering Algorithm ». Journal of Advanced Computational Intelligence and Intelligent Informatics 19, no 6 (20 novembre 2015) : 852–60. http://dx.doi.org/10.20965/jaciii.2015.p0852.
Texte intégralAlexei, Kaltchenko. « Estimation of quantum entropies ». i-manager’s Journal on Mathematics 13, no 1 (2024) : 1. http://dx.doi.org/10.26634/jmat.13.1.20387.
Texte intégralFujita, Mizuki, et Yuchi Kanzawa. « Three Fuzzy c-Shapes Clustering Algorithms for Series Data ». Journal of Advanced Computational Intelligence and Intelligent Informatics 27, no 5 (20 septembre 2023) : 976–85. http://dx.doi.org/10.20965/jaciii.2023.p0976.
Texte intégralKANNAN, S. R., S. RAMATHILAGAM, R. DEVI et YUEH-MIN HUANG. « ENTROPY TOLERANT FUZZY C-MEANS IN MEDICAL IMAGES ». Journal of Innovative Optical Health Sciences 04, no 04 (octobre 2011) : 447–62. http://dx.doi.org/10.1142/s179354581100168x.
Texte intégralJayalakshmi, N., P. Padmaja et G. Jaya Suma. « An Approach for Interesting Subgraph Mining from Web Log Data Using W-Gaston Algorithm ». International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems 27, no 02 (avril 2019) : 277–301. http://dx.doi.org/10.1142/s0218488519500132.
Texte intégralMarkić, Ivan, Maja Štula, Marija Zorić et Darko Stipaničev. « Entropy-Based Approach in Selection Exact String-Matching Algorithms ». Entropy 23, no 1 (28 décembre 2020) : 31. http://dx.doi.org/10.3390/e23010031.
Texte intégralNiu, Yan, Jie Xiang, Kai Gao, Jinglong Wu, Jie Sun, Bin Wang, Runan Ding et al. « Multi-Frequency Entropy for Quantifying Complex Dynamics and Its Application on EEG Data ». Entropy 26, no 9 (27 août 2024) : 728. http://dx.doi.org/10.3390/e26090728.
Texte intégralAldemir, Erdoğan, et Hidayet Oğraş. « Increasing of Compression Efficiency for Genomic Data by Manipulating Empirical Entropy ». Journal of Physics : Conference Series 2701, no 1 (1 février 2024) : 012050. http://dx.doi.org/10.1088/1742-6596/2701/1/012050.
Texte intégralNomura, Tomoki, et Yuchi Kanzawa. « Two Fuzzy Clustering Algorithms Based on ARMA Model ». Journal of Advanced Computational Intelligence and Intelligent Informatics 28, no 6 (20 novembre 2024) : 1251–62. http://dx.doi.org/10.20965/jaciii.2024.p1251.
Texte intégralLi, Ming Jing, Yu Bing Dong et Jie Li. « Overview of Pixel Level Image Fusion Algorithm ». Applied Mechanics and Materials 519-520 (février 2014) : 590–93. http://dx.doi.org/10.4028/www.scientific.net/amm.519-520.590.
Texte intégralZhang, Shao Pu, et Tao Feng. « Reduction Algorithms of Incomplete Covering Decision Systems ». Advanced Materials Research 532-533 (juin 2012) : 1409–13. http://dx.doi.org/10.4028/www.scientific.net/amr.532-533.1409.
Texte intégralLi Wei-Jia, Shen Xiao-Hong, Li Ya-An et Zhang Kui. « Nonlinear Feature Extraction Based On Multi-Channel Dataset ». Acta Physica Sinica 74, no 4 (2025) : 0. https://doi.org/10.7498/aps.74.20241512.
Texte intégralManis, George, Dimitrios Bakalis et Roberto Sassi. « A Multithreaded Algorithm for the Computation of Sample Entropy ». Algorithms 16, no 6 (15 juin 2023) : 299. http://dx.doi.org/10.3390/a16060299.
Texte intégralABELLÁN, JOAQUIN, et SERAFIN MORAL. « AN ALGORITHM TO COMPUTE THE UPPER ENTROPY FOR ORDER-2 CAPACITIES ». International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems 14, no 02 (avril 2006) : 141–54. http://dx.doi.org/10.1142/s0218488506003911.
Texte intégralKafantaris, Evangelos, Ian Piper, Tsz-Yan Milly Lo et Javier Escudero. « Augmentation of Dispersion Entropy for Handling Missing and Outlier Samples in Physiological Signal Monitoring ». Entropy 22, no 3 (11 mars 2020) : 319. http://dx.doi.org/10.3390/e22030319.
Texte intégralLee, Jaehyuk, et Kyungroul Lee. « A Method for Neutralizing Entropy Measurement-Based Ransomware Detection Technologies Using Encoding Algorithms ». Entropy 24, no 2 (4 février 2022) : 239. http://dx.doi.org/10.3390/e24020239.
Texte intégralGao, Shu Tao. « The Scheduling Algorithm of Grid Task Based on Cloud Model ». Key Engineering Materials 439-440 (juin 2010) : 1177–83. http://dx.doi.org/10.4028/www.scientific.net/kem.439-440.1177.
Texte intégralZhuang, Liyun, et Yepeng Guan. « Adaptive Image Enhancement Using Entropy-Based Subhistogram Equalization ». Computational Intelligence and Neuroscience 2018 (13 août 2018) : 1–13. http://dx.doi.org/10.1155/2018/3837275.
Texte intégralZhang, Lei, et Liefeng Qiu. « Aerobic Exercise Fatigue Detection Based on Spatiotemporal Entropy and Label Technology ». Scientific Programming 2022 (5 avril 2022) : 1–9. http://dx.doi.org/10.1155/2022/8280685.
Texte intégralBonidia, Robson P., Anderson P. Avila Santos, Breno L. S. de Almeida, Peter F. Stadler, Ulisses Nunes da Rocha, Danilo S. Sanches et André C. P. L. F. de Carvalho. « Information Theory for Biological Sequence Classification : A Novel Feature Extraction Technique Based on Tsallis Entropy ». Entropy 24, no 10 (1 octobre 2022) : 1398. http://dx.doi.org/10.3390/e24101398.
Texte intégralCholewa, Marcin, et Bartłomiej Płaczek. « Application of Positional Entropy to Fast Shannon Entropy Estimation for Samples of Digital Signals ». Entropy 22, no 10 (19 octobre 2020) : 1173. http://dx.doi.org/10.3390/e22101173.
Texte intégralFurlong, Ryan, Mirvana Hilal, Vincent O’Brien et Anne Humeau-Heurtier. « Parameter Analysis of Multiscale Two-Dimensional Fuzzy and Dispersion Entropy Measures Using Machine Learning Classification ». Entropy 23, no 10 (3 octobre 2021) : 1303. http://dx.doi.org/10.3390/e23101303.
Texte intégralZhang, Xin, et Xiu Zhang. « Cross Entropy Method Meets Local Search for Continuous Optimization Problems ». International Journal on Artificial Intelligence Tools 26, no 06 (décembre 2017) : 1750020. http://dx.doi.org/10.1142/s0218213017500208.
Texte intégralLee, Hak-Su, Chang-Yong Kang, Sang-Hyung Kim et Sung-Won Jung. « Entropy Interpretation On flow Distribution Algorithms ». Journal of Korea Water Resources Association 36, no 2 (1 avril 2003) : 263–71. http://dx.doi.org/10.3741/jkwra.2003.36.2.263.
Texte intégral