Zeitschriftenartikel zum Thema „SPATIAL TEMPORAL DESCRIPTOR“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "SPATIAL TEMPORAL DESCRIPTOR" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Lin, Bo, und Bin Fang. „A new spatial-temporal histograms of gradients descriptor and HOD-VLAD encoding for human action recognition“. International Journal of Wavelets, Multiresolution and Information Processing 17, Nr. 02 (März 2019): 1940009. http://dx.doi.org/10.1142/s0219691319400095.
Der volle Inhalt der QuelleArun Kumar H. D. und Prabhakar C. J. „Moving Vehicles Detection in Traffic Video Using Modified SXCS-LBP Texture Descriptor“. International Journal of Computer Vision and Image Processing 5, Nr. 2 (Juli 2015): 14–34. http://dx.doi.org/10.4018/ijcvip.2015070102.
Der volle Inhalt der QuellePan, Xianzhang, Wenping Guo, Xiaoying Guo, Wenshu Li, Junjie Xu und Jinzhao Wu. „Deep Temporal–Spatial Aggregation for Video-Based Facial Expression Recognition“. Symmetry 11, Nr. 1 (05.01.2019): 52. http://dx.doi.org/10.3390/sym11010052.
Der volle Inhalt der QuelleUddin, Md Azher, Joolekha Bibi Joolee, Young-Koo Lee und Kyung-Ah Sohn. „A Novel Multi-Modal Network-Based Dynamic Scene Understanding“. ACM Transactions on Multimedia Computing, Communications, and Applications 18, Nr. 1 (31.01.2022): 1–19. http://dx.doi.org/10.1145/3462218.
Der volle Inhalt der QuelleHu, Xing, Shiqiang Hu, Xiaoyu Zhang, Huanlong Zhang und Lingkun Luo. „Anomaly Detection Based on Local Nearest Neighbor Distance Descriptor in Crowded Scenes“. Scientific World Journal 2014 (2014): 1–12. http://dx.doi.org/10.1155/2014/632575.
Der volle Inhalt der QuelleZheng, Aihua, Foqin Wang, Amir Hussain, Jin Tang und Bo Jiang. „Spatial-temporal representatives selection and weighted patch descriptor for person re-identification“. Neurocomputing 290 (Mai 2018): 121–29. http://dx.doi.org/10.1016/j.neucom.2018.02.039.
Der volle Inhalt der QuelleIslam, Md Anwarul, Md Azher Uddin und Young-Koo Lee. „A Distributed Automatic Video Annotation Platform“. Applied Sciences 10, Nr. 15 (31.07.2020): 5319. http://dx.doi.org/10.3390/app10155319.
Der volle Inhalt der QuelleSEURONT, LAURENT, und YVAN LAGADEUC. „VARIABILITY, INHOMOGENEITY AND HETEROGENEITY: TOWARDS A TERMINOLOGICAL CONSENSUS IN ECOLOGY“. Journal of Biological Systems 09, Nr. 02 (Juni 2001): 81–87. http://dx.doi.org/10.1142/s0218339001000281.
Der volle Inhalt der QuelleInturi, Anitha Rani, Vazhora Malayil Manikandan, Mahamkali Naveen Kumar, Shuihua Wang und Yudong Zhang. „Synergistic Integration of Skeletal Kinematic Features for Vision-Based Fall Detection“. Sensors 23, Nr. 14 (10.07.2023): 6283. http://dx.doi.org/10.3390/s23146283.
Der volle Inhalt der QuelleYan, Jing Jie, und Ming Han Xin. „Facial Expression Recognition Based on Fused Spatio-Temporal Features“. Applied Mechanics and Materials 347-350 (August 2013): 3780–85. http://dx.doi.org/10.4028/www.scientific.net/amm.347-350.3780.
Der volle Inhalt der QuelleCen, Shixin, Yang Yu, Gang Yan, Ming Yu und Qing Yang. „Sparse Spatiotemporal Descriptor for Micro-Expression Recognition Using Enhanced Local Cube Binary Pattern“. Sensors 20, Nr. 16 (08.08.2020): 4437. http://dx.doi.org/10.3390/s20164437.
Der volle Inhalt der QuelleZuo, Zheming, Bo Wei, Fei Chao, Yanpeng Qu, Yonghong Peng und Longzhi Yang. „Enhanced Gradient-Based Local Feature Descriptors by Saliency Map for Egocentric Action Recognition“. Applied System Innovation 2, Nr. 1 (19.02.2019): 7. http://dx.doi.org/10.3390/asi2010007.
Der volle Inhalt der QuelleXiang-Wei, Li, Li Zhan-Ming, Zhang Ming-Xin, Wang Yi-Ju und Zhang Zhi-Xun. „Rough Sets based Temporal-spatial Color Descriptor Extraction Algorithm in Compressed Domain for Video Retrieval“. Information Technology Journal 8, Nr. 4 (01.05.2009): 610–14. http://dx.doi.org/10.3923/itj.2009.610.614.
Der volle Inhalt der QuelleLi, Chenyang, Xin Zhang, Lufan Liao, Lianwen Jin und Weixin Yang. „Skeleton-Based Gesture Recognition Using Several Fully Connected Layers with Path Signature Features and Temporal Transformer Module“. Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 8585–93. http://dx.doi.org/10.1609/aaai.v33i01.33018585.
Der volle Inhalt der QuelleBen Tamou, Abdelouahid, Lahoucine Ballihi und Driss Aboutajdine. „Automatic Learning of Articulated Skeletons Based on Mean of 3D Joints for Efficient Action Recognition“. International Journal of Pattern Recognition and Artificial Intelligence 31, Nr. 04 (02.02.2017): 1750008. http://dx.doi.org/10.1142/s0218001417500082.
Der volle Inhalt der QuelleArunnehru, Jawaharlalnehru, Sambandham Thalapathiraj, Ravikumar Dhanasekar, Loganathan Vijayaraja, Raju Kannadasan, Arfat Ahmad Khan, Mohd Anul Haq, Mohammed Alshehri, Mohamed Ibrahim Alwanin und Ismail Keshta. „Machine Vision-Based Human Action Recognition Using Spatio-Temporal Motion Features (STMF) with Difference Intensity Distance Group Pattern (DIDGP)“. Electronics 11, Nr. 15 (28.07.2022): 2363. http://dx.doi.org/10.3390/electronics11152363.
Der volle Inhalt der QuelleOjo, John Adedapo, und Jamiu Alabi Oladosu. „Effective Smoke Detection Using Spatial-Temporal Energy and Weber Local Descriptors in Three Orthogonal Planes (WLD-TOP)“. Journal of Computer Science and Technology 18, Nr. 01 (25.04.2018): e05. http://dx.doi.org/10.24215/16666038.18.e05.
Der volle Inhalt der QuelleYan, Xunshi, und Yupin Luo. „Recognizing human actions using a new descriptor based on spatial–temporal interest points and weighted-output classifier“. Neurocomputing 87 (Juni 2012): 51–61. http://dx.doi.org/10.1016/j.neucom.2012.02.002.
Der volle Inhalt der QuelleMatsuzaka, Yasunari, und Yoshihiro Uesawa. „Ensemble Learning, Deep Learning-Based and Molecular Descriptor-Based Quantitative Structure–Activity Relationships“. Molecules 28, Nr. 5 (06.03.2023): 2410. http://dx.doi.org/10.3390/molecules28052410.
Der volle Inhalt der QuelleLópez Medina, Miguel Ángel, Macarena Espinilla, Cristiano Paggeti und Javier Medina Quero. „Activity Recognition for IoT Devices Using Fuzzy Spatio-Temporal Features as Environmental Sensor Fusion“. Sensors 19, Nr. 16 (11.08.2019): 3512. http://dx.doi.org/10.3390/s19163512.
Der volle Inhalt der QuelleZhou, Xi-guo, Ning-de Jin, Zhen-ya Wang und Wen-yin Zhang. „Temporal and spatial evolution characteristics of gas-liquid two-phase flow pattern based on image texture spectrum descriptor“. Optoelectronics Letters 5, Nr. 6 (November 2009): 445–49. http://dx.doi.org/10.1007/s11801-009-8215-7.
Der volle Inhalt der QuelleWang, Qiang, Qiao Ma, Chao-Hui Luo, Hai-Yan Liu und Can-Long Zhang. „Hybrid Histogram of Oriented Optical Flow for Abnormal Behavior Detection in Crowd Scenes“. International Journal of Pattern Recognition and Artificial Intelligence 30, Nr. 02 (Februar 2016): 1655007. http://dx.doi.org/10.1142/s0218001416550077.
Der volle Inhalt der QuelleJi, Ze, und Quanquan Han. „A novel image feature descriptor for SLM spattering pattern classification using a consumable camera“. International Journal of Advanced Manufacturing Technology 110, Nr. 11-12 (18.09.2020): 2955–76. http://dx.doi.org/10.1007/s00170-020-05995-3.
Der volle Inhalt der QuelleZhang, Biyao, Huichun Ye, Wei Lu, Wenjiang Huang, Bo Wu, Zhuoqing Hao und Hong Sun. „A Spatiotemporal Change Detection Method for Monitoring Pine Wilt Disease in a Complex Landscape Using High-Resolution Remote Sensing Imagery“. Remote Sensing 13, Nr. 11 (25.05.2021): 2083. http://dx.doi.org/10.3390/rs13112083.
Der volle Inhalt der QuelleLi, Xiaoqiang, Yi Zhang und Dong Liao. „Mining Key Skeleton Poses with Latent SVM for Action Recognition“. Applied Computational Intelligence and Soft Computing 2017 (2017): 1–11. http://dx.doi.org/10.1155/2017/5861435.
Der volle Inhalt der QuellePriyadharshini, P., und B. S. E. Zoraida. „Hybrid Semantic Feature Descriptor and Fuzzy C-Means Clustering for Lung Cancer Detection and Classification“. Journal of Computational and Theoretical Nanoscience 18, Nr. 4 (01.04.2021): 1263–69. http://dx.doi.org/10.1166/jctn.2021.9391.
Der volle Inhalt der QuelleUddin, Md, und Young-Koo Lee. „Feature Fusion of Deep Spatial Features and Handcrafted Spatiotemporal Features for Human Action Recognition“. Sensors 19, Nr. 7 (02.04.2019): 1599. http://dx.doi.org/10.3390/s19071599.
Der volle Inhalt der QuelleMáñez-Crespo, Julia, Fiona Tomas, Yolanda Fernández-Torquemada, Laura Royo, Fernando Espino, Laura Antich, Néstor E. Bosch et al. „Variation in Fish Abundance, Diversity and Assemblage Structure in Seagrass Meadows across the Atlanto-Mediterranean Province“. Diversity 14, Nr. 10 (28.09.2022): 808. http://dx.doi.org/10.3390/d14100808.
Der volle Inhalt der QuelleYao, Lingxiang, Worapan Kusakunniran, Qiang Wu, Jingsong Xu und Jian Zhang. „Recognizing Gaits Across Walking and Running Speeds“. ACM Transactions on Multimedia Computing, Communications, and Applications 18, Nr. 3 (31.08.2022): 1–22. http://dx.doi.org/10.1145/3488715.
Der volle Inhalt der QuelleSiritanawan, Prarinya, Kazunori Kotani und Fan Chen. „Cumulative Differential Gabor Features for Facial Expression Classification“. International Journal of Semantic Computing 09, Nr. 02 (Juni 2015): 193–213. http://dx.doi.org/10.1142/s1793351x15400036.
Der volle Inhalt der QuelleKuang, Yiqun, Hong Cheng, Yali Zheng, Fang Cui und Rui Huang. „One-shot gesture recognition with attention-based DTW for human-robot collaboration“. Assembly Automation 40, Nr. 1 (02.08.2019): 40–47. http://dx.doi.org/10.1108/aa-11-2018-0228.
Der volle Inhalt der QuelleMastan, Ch, Ch Ravindra, T. Kishore, T. Harish, R. Veeranjaneyulu und Dr A. Seshagiri Rao. „An Efficient Approach for Patterns of Oriented Motion Flow Facial Expression Recognition from Depth Video“. International Journal of Innovative Research in Computer Science & Technology 10, Nr. 5 (27.09.2022): 149–51. http://dx.doi.org/10.55524/ijircst.2022.10.5.22.
Der volle Inhalt der QuelleZin, Thi Thi, Ye Htet, Yuya Akagi, Hiroki Tamura, Kazuhiro Kondo, Sanae Araki und Etsuo Chosa. „Real-Time Action Recognition System for Elderly People Using Stereo Depth Camera“. Sensors 21, Nr. 17 (01.09.2021): 5895. http://dx.doi.org/10.3390/s21175895.
Der volle Inhalt der QuelleBai, Shizhen, und Fuli Han. „Tourist Behavior Recognition Through Scenic Spot Image Retrieval Based on Image Processing“. Traitement du Signal 37, Nr. 4 (10.10.2020): 619–26. http://dx.doi.org/10.18280/ts.370410.
Der volle Inhalt der QuelleChen, J., J. L. Hou und M. Deng. „AN APPROACH TO ALLEVIATE THE FALSE ALARM IN BUILDING CHANGE DETECTION FROM URBAN VHR IMAGE“. ISPRS - International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XLI-B7 (21.06.2016): 459–65. http://dx.doi.org/10.5194/isprs-archives-xli-b7-459-2016.
Der volle Inhalt der QuelleChen, J., J. L. Hou und M. Deng. „AN APPROACH TO ALLEVIATE THE FALSE ALARM IN BUILDING CHANGE DETECTION FROM URBAN VHR IMAGE“. ISPRS - International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XLI-B7 (21.06.2016): 459–65. http://dx.doi.org/10.5194/isprsarchives-xli-b7-459-2016.
Der volle Inhalt der QuelleSuchorski, Yuri, und Günther Rupprechter. „Catalysis by Imaging: From Meso- to Nano-scale“. Topics in Catalysis 63, Nr. 15-18 (02.07.2020): 1532–44. http://dx.doi.org/10.1007/s11244-020-01302-2.
Der volle Inhalt der QuelleHumeau, L., P. Roumagnac, Y. Picard, I. Robène-Soustrade, F. Chiroleu, L. Gagnevin und O. Pruvost. „Quantitative and Molecular Epidemiology of Bacterial Blight of Onion in Seed Production Fields“. Phytopathology® 96, Nr. 12 (Dezember 2006): 1345–54. http://dx.doi.org/10.1094/phyto-96-1345.
Der volle Inhalt der QuelleHu, Wenmin, Jiaxing Xu, Wei Zhang, Jiatao Zhao und Haokun Zhou. „Retrieving Surface Deformation of Mining Areas Using ZY-3 Stereo Imagery and DSMs“. Remote Sensing 15, Nr. 17 (01.09.2023): 4315. http://dx.doi.org/10.3390/rs15174315.
Der volle Inhalt der QuelleHao, Yu, Ying Liu, Jiulun Fan und Zhijie Xu. „Group Abnormal Behaviour Detection Algorithm Based on Global Optical Flow“. Complexity 2021 (05.05.2021): 1–12. http://dx.doi.org/10.1155/2021/5543204.
Der volle Inhalt der QuelleLye, Mohd Haris, Nouar AlDahoul und Hezerul Abdul Karim. „Fusion of Appearance and Motion Features for Daily Activity Recognition from Egocentric Perspective“. Sensors 23, Nr. 15 (30.07.2023): 6804. http://dx.doi.org/10.3390/s23156804.
Der volle Inhalt der QuelleBueno de las Heras, Julio L., Antonio Gutiérrez-Lavín, Manuel María Mahamud-López, Marisol Muñiz-Álvarez und Patricia Rodríguez-López. „Towards a Unified Model on the Description and Design of Process Operations: Extending the concept of Separation Units to Solid-fluid Sedimentation“. Recent Innovations in Chemical Engineering (Formerly Recent Patents on Chemical Engineering) 12, Nr. 1 (25.06.2019): 15–53. http://dx.doi.org/10.2174/2405520412666181123094540.
Der volle Inhalt der QuellePosa, D. „A simple description of spatial-temporal processes“. Computational Statistics & Data Analysis 15, Nr. 4 (Mai 1993): 425–37. http://dx.doi.org/10.1016/0167-9473(93)90174-r.
Der volle Inhalt der QuelleShen, Zhongwei, Xiao-Jun Wu und Josef Kittler. „Advanced skeleton-based action recognition via spatial–temporal rotation descriptors“. Pattern Analysis and Applications 24, Nr. 3 (14.02.2021): 1335–46. http://dx.doi.org/10.1007/s10044-020-00952-y.
Der volle Inhalt der QuelleYang, Meilin, Neeraj Gadgil, Mary L. Comer und Edward J. Delp. „Adaptive error concealment for temporal–spatial multiple description video coding“. Signal Processing: Image Communication 47 (September 2016): 313–31. http://dx.doi.org/10.1016/j.image.2016.05.014.
Der volle Inhalt der QuelleXu, Jie, Haoliang Wei, Linke Li, Qiuru Fu und Jinhong Guo. „Video Description Model Based on Temporal-Spatial and Channel Multi-Attention Mechanisms“. Applied Sciences 10, Nr. 12 (23.06.2020): 4312. http://dx.doi.org/10.3390/app10124312.
Der volle Inhalt der QuelleWang, Yu, Yong-Ping Huang und Xuan-Jing Shen. „ST-VLAD: Video Face Recognition Based on Aggregated Local Spatial-Temporal Descriptors“. IEEE Access 9 (2021): 31170–78. http://dx.doi.org/10.1109/access.2021.3060180.
Der volle Inhalt der QuellePászto, Vít, Rostislav Nétek, Alena Vondráková und Vít Voženílek. „Municipalities in the Czech Republic—Compilation of “a Universal” Dataset“. Data 5, Nr. 4 (24.11.2020): 107. http://dx.doi.org/10.3390/data5040107.
Der volle Inhalt der QuelleTsai, Wen-Jiin, und Jian-Yu Chen. „Joint Temporal and Spatial Error Concealment for Multiple Description Video Coding“. IEEE Transactions on Circuits and Systems for Video Technology 20, Nr. 12 (Dezember 2010): 1822–33. http://dx.doi.org/10.1109/tcsvt.2010.2087816.
Der volle Inhalt der QuelleBitner-Gregersen, Elzbieta M., Odin Gramstad, Anne Karin Magnusson und Mika Malila. „Challenges in Description of Nonlinear Waves Due to Sampling Variability“. Journal of Marine Science and Engineering 8, Nr. 4 (13.04.2020): 279. http://dx.doi.org/10.3390/jmse8040279.
Der volle Inhalt der Quelle