Zeitschriftenartikel zum Thema „SELF-ATTENTION MECHANISM“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "SELF-ATTENTION MECHANISM" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Yang, Kehua, Yaodong Wang, Wei Zhang, Jiqing Yao und Yuquan Le. „Keyphrase Generation Based on Self-Attention Mechanism“. Computers, Materials & Continua 61, Nr. 2 (2019): 569–81. http://dx.doi.org/10.32604/cmc.2019.05952.
Der volle Inhalt der QuelleLiu, Siqi, Jiangshu Wei, Gang Liu und Bei Zhou. „Image classification model based on large kernel attention mechanism and relative position self-attention mechanism“. PeerJ Computer Science 9 (21.04.2023): e1344. http://dx.doi.org/10.7717/peerj-cs.1344.
Der volle Inhalt der QuelleZhu, Hu, Ze Wang, Yu Shi, Yingying Hua, Guoxia Xu und Lizhen Deng. „Multimodal Fusion Method Based on Self-Attention Mechanism“. Wireless Communications and Mobile Computing 2020 (23.09.2020): 1–8. http://dx.doi.org/10.1155/2020/8843186.
Der volle Inhalt der QuelleCao, Fude, Chunguang Zheng, Limin Huang, Aihua Wang, Jiong Zhang, Feng Zhou, Haoxue Ju, Haitao Guo und Yuxia Du. „Research of Self-Attention in Image Segmentation“. Journal of Information Technology Research 15, Nr. 1 (Januar 2022): 1–12. http://dx.doi.org/10.4018/jitr.298619.
Der volle Inhalt der QuelleWu, Hongqiu, Ruixue Ding, Hai Zhao, Pengjun Xie, Fei Huang und Min Zhang. „Adversarial Self-Attention for Language Understanding“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 11 (26.06.2023): 13727–35. http://dx.doi.org/10.1609/aaai.v37i11.26608.
Der volle Inhalt der QuelleXie, Fei, Dalong Zhang und Chengming Liu. „Global–Local Self-Attention Based Transformer for Speaker Verification“. Applied Sciences 12, Nr. 19 (10.10.2022): 10154. http://dx.doi.org/10.3390/app121910154.
Der volle Inhalt der QuelleWang, Duofeng, Haifeng Hu und Dihu Chen. „Transformer with sparse self‐attention mechanism for image captioning“. Electronics Letters 56, Nr. 15 (Juli 2020): 764–66. http://dx.doi.org/10.1049/el.2020.0635.
Der volle Inhalt der QuelleLi, Yujie, und Jintong Cai. „Point cloud classification network based on self-attention mechanism“. Computers and Electrical Engineering 104 (Dezember 2022): 108451. http://dx.doi.org/10.1016/j.compeleceng.2022.108451.
Der volle Inhalt der QuelleBrotchie, James, Wei Shao, Wenchao Li und Allison Kealy. „Leveraging Self-Attention Mechanism for Attitude Estimation in Smartphones“. Sensors 22, Nr. 22 (21.11.2022): 9011. http://dx.doi.org/10.3390/s22229011.
Der volle Inhalt der QuelleFan, Zhongkui, und Ye-Peng Guan. „Pedestrian attribute recognition based on dual self-attention mechanism“. Computer Science and Information Systems, Nr. 00 (2023): 16. http://dx.doi.org/10.2298/csis220815016f.
Der volle Inhalt der QuelleLuo, Youtao, und Xiaoming Gao. „Lightweight Human Pose Estimation Based on Self-Attention Mechanism“. Advances in Engineering Technology Research 4, Nr. 1 (21.03.2023): 253. http://dx.doi.org/10.56028/aetr.4.1.253.2023.
Der volle Inhalt der QuelleRendón-Segador, Fernando J., Juan A. Álvarez-García und Angel Jesús Varela-Vaca. „Paying attention to cyber-attacks: A multi-layer perceptron with self-attention mechanism“. Computers & Security 132 (September 2023): 103318. http://dx.doi.org/10.1016/j.cose.2023.103318.
Der volle Inhalt der QuelleDai, Biyun, Jinlong Li und Ruoyi Xu. „Multiple Positional Self-Attention Network for Text Classification“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 05 (03.04.2020): 7610–17. http://dx.doi.org/10.1609/aaai.v34i05.6261.
Der volle Inhalt der QuelleLin, Zhihui, Maomao Li, Zhuobin Zheng, Yangyang Cheng und Chun Yuan. „Self-Attention ConvLSTM for Spatiotemporal Prediction“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 07 (03.04.2020): 11531–38. http://dx.doi.org/10.1609/aaai.v34i07.6819.
Der volle Inhalt der QuelleNakata, Haruki, Kanji Tanaka und Koji Takeda. „Exploring Self-Attention for Visual Intersection Classification“. Journal of Advanced Computational Intelligence and Intelligent Informatics 27, Nr. 3 (20.05.2023): 386–93. http://dx.doi.org/10.20965/jaciii.2023.p0386.
Der volle Inhalt der QuelleBae, Ara, und Wooil Kim. „Speaker Verification Employing Combinations of Self-Attention Mechanisms“. Electronics 9, Nr. 12 (21.12.2020): 2201. http://dx.doi.org/10.3390/electronics9122201.
Der volle Inhalt der QuelleWang, Yu, Liang Hu, Yang Wu und Wanfu Gao. „Graph Multihead Attention Pooling with Self-Supervised Learning“. Entropy 24, Nr. 12 (29.11.2022): 1745. http://dx.doi.org/10.3390/e24121745.
Der volle Inhalt der QuelleZheng, Jianming, Fei Cai, Taihua Shao und Honghui Chen. „Self-Interaction Attention Mechanism-Based Text Representation for Document Classification“. Applied Sciences 8, Nr. 4 (12.04.2018): 613. http://dx.doi.org/10.3390/app8040613.
Der volle Inhalt der QuelleWang, Yue, Guanci Yang, Shaobo Li, Yang Li, Ling He und Dan Liu. „Arrhythmia classification algorithm based on multi-head self-attention mechanism“. Biomedical Signal Processing and Control 79 (Januar 2023): 104206. http://dx.doi.org/10.1016/j.bspc.2022.104206.
Der volle Inhalt der QuelleChun, Yutong, Chuansheng Wang und Mingke He. „A Novel Clothing Attribute Representation Network-Based Self-Attention Mechanism“. IEEE Access 8 (2020): 201762–69. http://dx.doi.org/10.1109/access.2020.3035781.
Der volle Inhalt der QuelleHu, Wanting, Lu Cao, Qunsheng Ruan und Qingfeng Wu. „Research on Anomaly Network Detection Based on Self-Attention Mechanism“. Sensors 23, Nr. 11 (25.05.2023): 5059. http://dx.doi.org/10.3390/s23115059.
Der volle Inhalt der QuelleChen, Ziye, Mingming Gong, Yanwu Xu, Chaohui Wang, Kun Zhang und Bo Du. „Compressed Self-Attention for Deep Metric Learning“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 04 (03.04.2020): 3561–68. http://dx.doi.org/10.1609/aaai.v34i04.5762.
Der volle Inhalt der QuelleZhang, Zhiqin, Bo Zhang, Fen Li und Dehua Kong. „Multihead Self Attention Hand Pose Estimation“. E3S Web of Conferences 218 (2020): 03023. http://dx.doi.org/10.1051/e3sconf/202021803023.
Der volle Inhalt der QuelleJi, Mingi, Weonyoung Joo, Kyungwoo Song, Yoon-Yeong Kim und Il-Chul Moon. „Sequential Recommendation with Relation-Aware Kernelized Self-Attention“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 04 (03.04.2020): 4304–11. http://dx.doi.org/10.1609/aaai.v34i04.5854.
Der volle Inhalt der QuelleZhao Ning, 赵宁, und 刘立波 Liu Libo. „融合自注意力机制的人物姿态迁移生成模型“. Laser & Optoelectronics Progress 59, Nr. 4 (2022): 0410014. http://dx.doi.org/10.3788/lop202259.0410014.
Der volle Inhalt der QuelleDaihong, Jiang, Hu yuanzheng, Dai Lei und Peng Jin. „Facial Expression Recognition Based on Attention Mechanism“. Scientific Programming 2021 (02.03.2021): 1–10. http://dx.doi.org/10.1155/2021/6624251.
Der volle Inhalt der QuelleTiwari, Prayag, Amit Kumar Jaiswal, Sahil Garg und Ilsun You. „SANTM: Efficient Self-attention-driven Network for Text Matching“. ACM Transactions on Internet Technology 22, Nr. 3 (31.08.2022): 1–21. http://dx.doi.org/10.1145/3426971.
Der volle Inhalt der QuelleYang, Zuoxi, und Shoubin Dong. „HSRec: Hierarchical self-attention incorporating knowledge graph for sequential recommendation“. Journal of Intelligent & Fuzzy Systems 42, Nr. 4 (04.03.2022): 3749–60. http://dx.doi.org/10.3233/jifs-211953.
Der volle Inhalt der QuelleMa, Xin, Zhanzhan Liu, Mingxing Zheng und Youqing Wang. „Application and exploration of self-attention mechanism in dynamic process monitoring“. IFAC-PapersOnLine 55, Nr. 6 (2022): 139–44. http://dx.doi.org/10.1016/j.ifacol.2022.07.119.
Der volle Inhalt der QuelleLiang, Hong, Hui Zhou, Qian Zhang und Ting Wu. „Object Detection Algorithm Based on Context Information and Self-Attention Mechanism“. Symmetry 14, Nr. 5 (28.04.2022): 904. http://dx.doi.org/10.3390/sym14050904.
Der volle Inhalt der QuelleZhang, Ru, Xinjian Zhao, Jiaqi Li, Song Zhang und Zhijie Shang. „A malicious code family classification method based on self-attention mechanism“. Journal of Physics: Conference Series 2010, Nr. 1 (01.09.2021): 012066. http://dx.doi.org/10.1088/1742-6596/2010/1/012066.
Der volle Inhalt der QuelleYE, Rui-da, Wei-jie WANG, Liang HE, Xiao-cen CHEN und Yue XUE. „RUL prediction of aero-engine based on residual self-attention mechanism“. Optics and Precision Engineering 29, Nr. 6 (2021): 1482–90. http://dx.doi.org/10.37188/ope.20212906.1482.
Der volle Inhalt der QuelleLi, Jinsong, Jianhua Peng, Shuxin Liu, Lintianran Weng und Cong Li. „Temporal link prediction in directed networks based on self-attention mechanism“. Intelligent Data Analysis 26, Nr. 1 (13.01.2022): 173–88. http://dx.doi.org/10.3233/ida-205524.
Der volle Inhalt der QuelleCheng, Kefei, Yanan Yue und Zhiwen Song. „Sentiment Classification Based on Part-of-Speech and Self-Attention Mechanism“. IEEE Access 8 (2020): 16387–96. http://dx.doi.org/10.1109/access.2020.2967103.
Der volle Inhalt der QuelleLiao, Fei, Liangli Ma, Jingjing Pei und Linshan Tan. „Combined Self-Attention Mechanism for Chinese Named Entity Recognition in Military“. Future Internet 11, Nr. 8 (18.08.2019): 180. http://dx.doi.org/10.3390/fi11080180.
Der volle Inhalt der QuellePeng, Dunlu, Weiwei Yuan und Cong Liu. „HARSAM: A Hybrid Model for Recommendation Supported by Self-Attention Mechanism“. IEEE Access 7 (2019): 12620–29. http://dx.doi.org/10.1109/access.2019.2892565.
Der volle Inhalt der QuelleZhou, Yuhang, Xiaoli Huo, Zhiqun Gu, Jiawei Zhang, Yi Ding, Rentao Gu und Yuefeng Ji. „Self-Attention Mechanism-Based Multi-Channel QoT Estimation in Optical Networks“. Photonics 10, Nr. 1 (06.01.2023): 63. http://dx.doi.org/10.3390/photonics10010063.
Der volle Inhalt der QuelleWu, Peiyang, Zongxu Pan, Hairong Tang und Yuxin Hu. „Cloudformer: A Cloud-Removal Network Combining Self-Attention Mechanism and Convolution“. Remote Sensing 14, Nr. 23 (03.12.2022): 6132. http://dx.doi.org/10.3390/rs14236132.
Der volle Inhalt der QuelleWang, Mei, Yu Yao, Hongbin Qiu und Xiyu Song. „Adaptive Memory-Controlled Self-Attention for Polyphonic Sound Event Detection“. Symmetry 14, Nr. 2 (12.02.2022): 366. http://dx.doi.org/10.3390/sym14020366.
Der volle Inhalt der QuelleLiu, Guangjie, Xin Ma, Jinlong Zhu, Yu Zhang, Danyang Yang, Jianfeng Wang und Yi Wang. „Individualized tourism recommendation based on self-attention“. PLOS ONE 17, Nr. 8 (25.08.2022): e0272319. http://dx.doi.org/10.1371/journal.pone.0272319.
Der volle Inhalt der QuelleWei, Yupeng, Dazhong Wu und Janis Terpenny. „Bearing remaining useful life prediction using self-adaptive graph convolutional networks with self-attention mechanism“. Mechanical Systems and Signal Processing 188 (April 2023): 110010. http://dx.doi.org/10.1016/j.ymssp.2022.110010.
Der volle Inhalt der QuelleMa, Suling. „A Study of Two-Way Short- and Long-Term Memory Network Intelligent Computing IoT Model-Assisted Home Education Attention Mechanism“. Computational Intelligence and Neuroscience 2021 (21.12.2021): 1–11. http://dx.doi.org/10.1155/2021/3587884.
Der volle Inhalt der QuelleJiang, Cheng, Yuanxi Peng, Xuebin Tang, Chunchao Li und Teng Li. „PointSwin: Modeling Self-Attention with Shifted Window on Point Cloud“. Applied Sciences 12, Nr. 24 (09.12.2022): 12616. http://dx.doi.org/10.3390/app122412616.
Der volle Inhalt der QuellePan, Wenxia. „English Machine Translation Model Based on an Improved Self-Attention Technology“. Scientific Programming 2021 (23.12.2021): 1–11. http://dx.doi.org/10.1155/2021/2601480.
Der volle Inhalt der QuelleIshizuka, Ryoto, Ryo Nishikimi und Kazuyoshi Yoshii. „Global Structure-Aware Drum Transcription Based on Self-Attention Mechanisms“. Signals 2, Nr. 3 (13.08.2021): 508–26. http://dx.doi.org/10.3390/signals2030031.
Der volle Inhalt der QuelleHu, Gensheng, Lidong Qian, Dong Liang und Mingzhu Wan. „Self-adversarial Training and Attention for Multi-task Wheat Phenotyping“. Applied Engineering in Agriculture 35, Nr. 6 (2019): 1009–14. http://dx.doi.org/10.13031/aea.13406.
Der volle Inhalt der QuelleFang, Yong, Shaoshuai Yang, Bin Zhao und Cheng Huang. „Cyberbullying Detection in Social Networks Using Bi-GRU with Self-Attention Mechanism“. Information 12, Nr. 4 (16.04.2021): 171. http://dx.doi.org/10.3390/info12040171.
Der volle Inhalt der QuelleFernández-Llaneza, Daniel, Silas Ulander, Dea Gogishvili, Eva Nittinger, Hongtao Zhao und Christian Tyrchan. „Siamese Recurrent Neural Network with a Self-Attention Mechanism for Bioactivity Prediction“. ACS Omega 6, Nr. 16 (15.04.2021): 11086–94. http://dx.doi.org/10.1021/acsomega.1c01266.
Der volle Inhalt der QuelleChen, Shuai, Lin Luo, Qilei Xia und Lunjie Wang. „Self-attention Mechanism based Dynamic Fault Diagnosis and Classification for Chemical Processes“. Journal of Physics: Conference Series 1914, Nr. 1 (01.05.2021): 012046. http://dx.doi.org/10.1088/1742-6596/1914/1/012046.
Der volle Inhalt der QuelleNkabiti, Kabo Poloko, und Yueyun Chen. „Application of solely self-attention mechanism in CSI-fingerprinting-based indoor localization“. Neural Computing and Applications 33, Nr. 15 (18.01.2021): 9185–98. http://dx.doi.org/10.1007/s00521-020-05681-1.
Der volle Inhalt der Quelle