Inhaltsverzeichnis
Auswahl der wissenschaftlichen Literatur zum Thema „SELF-ATTENTION MECHANISM“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "SELF-ATTENTION MECHANISM" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Zeitschriftenartikel zum Thema "SELF-ATTENTION MECHANISM"
Yang, Kehua, Yaodong Wang, Wei Zhang, Jiqing Yao und Yuquan Le. „Keyphrase Generation Based on Self-Attention Mechanism“. Computers, Materials & Continua 61, Nr. 2 (2019): 569–81. http://dx.doi.org/10.32604/cmc.2019.05952.
Der volle Inhalt der QuelleLiu, Siqi, Jiangshu Wei, Gang Liu und Bei Zhou. „Image classification model based on large kernel attention mechanism and relative position self-attention mechanism“. PeerJ Computer Science 9 (21.04.2023): e1344. http://dx.doi.org/10.7717/peerj-cs.1344.
Der volle Inhalt der QuelleZhu, Hu, Ze Wang, Yu Shi, Yingying Hua, Guoxia Xu und Lizhen Deng. „Multimodal Fusion Method Based on Self-Attention Mechanism“. Wireless Communications and Mobile Computing 2020 (23.09.2020): 1–8. http://dx.doi.org/10.1155/2020/8843186.
Der volle Inhalt der QuelleCao, Fude, Chunguang Zheng, Limin Huang, Aihua Wang, Jiong Zhang, Feng Zhou, Haoxue Ju, Haitao Guo und Yuxia Du. „Research of Self-Attention in Image Segmentation“. Journal of Information Technology Research 15, Nr. 1 (Januar 2022): 1–12. http://dx.doi.org/10.4018/jitr.298619.
Der volle Inhalt der QuelleWu, Hongqiu, Ruixue Ding, Hai Zhao, Pengjun Xie, Fei Huang und Min Zhang. „Adversarial Self-Attention for Language Understanding“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 11 (26.06.2023): 13727–35. http://dx.doi.org/10.1609/aaai.v37i11.26608.
Der volle Inhalt der QuelleXie, Fei, Dalong Zhang und Chengming Liu. „Global–Local Self-Attention Based Transformer for Speaker Verification“. Applied Sciences 12, Nr. 19 (10.10.2022): 10154. http://dx.doi.org/10.3390/app121910154.
Der volle Inhalt der QuelleWang, Duofeng, Haifeng Hu und Dihu Chen. „Transformer with sparse self‐attention mechanism for image captioning“. Electronics Letters 56, Nr. 15 (Juli 2020): 764–66. http://dx.doi.org/10.1049/el.2020.0635.
Der volle Inhalt der QuelleLi, Yujie, und Jintong Cai. „Point cloud classification network based on self-attention mechanism“. Computers and Electrical Engineering 104 (Dezember 2022): 108451. http://dx.doi.org/10.1016/j.compeleceng.2022.108451.
Der volle Inhalt der QuelleBrotchie, James, Wei Shao, Wenchao Li und Allison Kealy. „Leveraging Self-Attention Mechanism for Attitude Estimation in Smartphones“. Sensors 22, Nr. 22 (21.11.2022): 9011. http://dx.doi.org/10.3390/s22229011.
Der volle Inhalt der QuelleFan, Zhongkui, und Ye-Peng Guan. „Pedestrian attribute recognition based on dual self-attention mechanism“. Computer Science and Information Systems, Nr. 00 (2023): 16. http://dx.doi.org/10.2298/csis220815016f.
Der volle Inhalt der QuelleDissertationen zum Thema "SELF-ATTENTION MECHANISM"
Raykos, Bronwyn C. „Attentional and interpretive biases : independent dimensions of individual difference or expressions of a common selective processing mechanism?“ University of Western Australia. School of Psychology, 2007. http://theses.library.uwa.edu.au/adt-WU2007.0018.
Der volle Inhalt der QuelleRaykos, Bronwyn C. „Attentional and interpretive biases : independent dimensions of individual difference or expressions of a common selective processing mechanism? /“. Connect to this title, 2006. http://theses.library.uwa.edu.au/adt-WU2007.0018.
Der volle Inhalt der QuelleSACHDEVA, NITIN. „CYBERBULLYING DETECTION ON SOCIAL MEDIA USING DEEP LEARNING MODELS“. Thesis, DELHI TECHNOLOGICAL UNIVERSITY, 2021. http://dspace.dtu.ac.in:8080/jspui/handle/repository/18914.
Der volle Inhalt der QuelleGovindarajan, Hariprasath. „Self-Supervised Representation Learning for Content Based Image Retrieval“. Thesis, Linköpings universitet, Statistik och maskininlärning, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-166223.
Der volle Inhalt der QuelleMoadab, Ida. „The Role of Mindfulness and Self-Compassion in the Neural Mechanisms of Attention and Self-Monitoring“. Thesis, University of Oregon, 2013. http://hdl.handle.net/1794/13402.
Der volle Inhalt der QuelleBakkali, Souhail. „Multimodal Document Understanding with Unified Vision and Language Cross-Modal Learning“. Electronic Thesis or Diss., La Rochelle, 2022. http://www.theses.fr/2022LAROS046.
Der volle Inhalt der QuelleThe frameworks developed in this thesis were the outcome of an iterative process of analysis and synthesis between existing theories and our performed studies. More specifically, we wish to study cross-modality learning for contextualized comprehension on document components across language and vision. The main idea is to leverage multimodal information from document images into a common semantic space. This thesis focuses on advancing the research on cross-modality learning and makes contributions on four fronts: (i) to proposing a cross-modal approach with deep networks to jointly leverage visual and textual information into a common semantic representation space to automatically perform and make predictions about multimodal documents (i.e., the subject matter they are about); (ii) to investigating competitive strategies to address the tasks of cross-modal document classification, content-based retrieval and few-shot document classification; (iii) to addressing data-related issues like learning when data is not annotated, by proposing a network that learns generic representations from a collection of unlabeled documents; and (iv) to exploiting few-shot learning settings when data contains only few examples
Yeh, Han-Yun, und 葉瀚允. „End-to-end Pinyin to Character Language Model using Self-Attention Mechanism“. Thesis, 2019. http://ndltd.ncl.edu.tw/handle/vk3zt8.
Der volle Inhalt der Quelle國立交通大學
電信工程研究所
107
Deep nerual network with conventional automatic speech recognition structure has achieved huge improvement. Similarly, end-to-end speech recongnition structure got close performance in these two years, but with huge amout of data and computing resources. This study attempt to focus on end-to-end language model, training an end-to-end language model by sequence labeling method and self-attention seq2seq model (Transformer) which are common method in some NLP task, with syllable sequence converted from 440 million words chinese corpus through a proposed G2P system. And the syllable to character model with transformer achieved lower character error rate than the baseline trigram model in our outside test set.
Sarzedas, João Pereira. „The impact of hallucination predisposition on vocal perception mechanisms : an ERP study of attention, identity and emotion“. Master's thesis, 2020. http://hdl.handle.net/10451/45746.
Der volle Inhalt der QuelleIn recent years, a more dimensional view of psychotic disorders has been supported by several epidemiological studies showing the existence of a continuum of psychotic like-experiences in the general population. Reported similarities between the cognitive and neural mechanisms underpinning hallucinatory experiences in psychotic and in individuals with high hallucination predisposition provide further support for this psychosis continuum model. In the auditory domain, schizophrenic patients show altered perception of vocal information with negative content, as well as of voice identity. Whether the same voice processing mechanisms are similarly altered in individuals with high hallucination predisposition remains to be clarified. In the current study, thirty nonclinical participants with different scores on the Launay-Slade Hallucination Scale (a measure of hallucination predisposition) listened to prerecorded words varying in identity (self vs. non-self-voice) and emotional quality (negative vs. neutral vs. positive), while electroencephalographic data were recorded. Two tasks with a different attentional focus (identity focus task vs. emotional focus task) were conducted. In the identity focus task, participants attended to the identity of the voice and decided whether the voice they heard was their own voice, the voice of another person or if they were unsure. In the emotional focus task, they evaluated the emotional quality of the words. The N1, P2 and late positive potential (LPP) components were analyzed. We found a larger N1 in response to self-voice in the identity focus task and a larger LPP for the self-voice, irrespective of the attention focus. Furthermore, in the emotional focus task, we observed an association between high hallucination predisposition and a trend for a reduced LPP amplitude in response to the self-voice. The LPP result suggests the existence of an altered perception of voice identity, dependent of the attention focus, in individuals with high hallucination predisposition. Overall, the current findings partially support the psychosis continuum model.
Nas últimas décadas, uma abordagem mais dimensional das perturbações psicóticas tem ganho força com base em vários estudos epidemiológicos que demostram a existência de um continuum de experiências psicóticas na população em geral. O modelo do continuum de psicose advoga a existência de vários fenótipos de psicose num continuum que engloba indivíduos com um diagnóstico psiquiátrico (e.g., esquizofrenia) mas também indivíduos sem diagnóstico clínico que manifestam experiências do tipo psicótico. O modelo do continuum de psicose é suportado por estudos que mostram semelhanças entre os mecanismos cognitivos e neuronais que estão na base das experiências alucinatórias de pacientes psicóticos e de indivíduos sem diagnóstico clínico. As alucinações (i.e., experiências percetuais que ocorrem na ausência de estimulação externa correspondente) são um sintoma característicos das perturbações psicóticas. Contudo, também são reportadas experiências alucinatórias em pacientes com outras perturbações psiquiátricas e em indivíduos sem diagnóstico que não necessitam de apoio clínico. Os indivíduos sem diagnóstico clínico que experienciam alucinações auditivas verbais breves ou outras experiências alucinatórias são descritos na literatura como indivíduos com alta predisposição alucinatória. Numa amostra de 84711 participantes foi encontrada uma taxa de prevalência de 9.6 % de experiências alucinatórias, o que demonstra que este não é um fenómeno incomum na população em geral. A maioria das experiências alucinatórias são transitórias, mas em alguns casos persistem e aumentam o risco de transição para psicose. O estudo de experiências alucinatórias em indivíduos com predisposição alucinatória pode contribuir para uma melhor compreensão e tratamento de perturbações clínicas. Existe evidência que demonstra a existência de uma associação entre alucinações auditivas verbais e défices específicos de processamento vocal. Os modelos neurocognitivos de processamento de voz postulam que a identidade, a emoção e a fala são processados por regiões corticais funcionalmente distintas. Em indivíduos com esquizofrenia têm sido consistentemente reportadas alterações no processamento vocal da identidade, da fala e da emoção. Contudo, ainda não é claro qual o impacto destas alterações de processamento vocal no desencadear de sintomas psicóticos específicos. Examinar a existência destas alterações em indivíduos com alta predisposição alucinatória pode ser um passo útil para uma melhor compreensão da influência que estes processos têm no desencadear de experiências alucinatórias. Os escassos estudos que testaram simultaneamente o processamento de identidade, discurso e emoção parecem demonstrar diferenças de processamento vocal entre indivíduos com esquizofrenia e indivíduos com alta predisposição alucinatória. Em comparação com grupos de controlo e pacientes sem alucinações auditivas verbais, os pacientes com alucinações auditivas verbais demonstraram uma maior dificuldade no reconhecimento da sua própria voz quando esta apresentava um conteúdo negativo. Por outro lado, em indivíduos com alta predisposição alucinatória, as dificuldades no reconhecimento da própria voz não parecem estar relacionadas com o conteúdo emocional da fala. Uma das técnicas que tem vindo a demonstrar a sua utilidade para a investigação de mecanismos de perceção vocal é a técnica de potenciais evocados por eventos (event related potentials – ERP), caracterizada por elevada resolução temporal. Um dos estudos que investigou o processamento vocal da identidade, discurso e emoção com ERP encontrou efeitos de interação entre identidade (voz própria vs. voz de um desconhecido) e emoção (palavras negativas vs. neutras vs. positivas) em três componentes: N1, P2 e late positive potential (LPP). O N1 é um componente associado ao processamento sensorial da voz. O P2 é um componente associado a uma deteção precoce de saliência emocional de um estímulo. O LPP está associado a processos de atenção sustentada e de avaliação do conteúdo emocional da voz. Um estudo subsequente, utilizando um paradigma idêntico, encontrou alterações de processamento vocal, nos componentes P2 e LPP, em indivíduos com esquizofrenia. Nestes dois estudos, o conteúdo emocional foi processado implicitamente, uma vez que os participantes foram instruídos a focarem a sua atenção na identidade da voz e avaliarem se as gravações que ouviam pertenciam a eles próprios ou a outra pessoa. Alguns estudos demonstram que alterar o foco atencional de uma tarefa influencia o modo como os estímulos são processados neurofisiologicamente. Deste modo, é possível que sejam encontrados resultados diferentes numa condição onde os participantes são instruídos a focarem a sua atenção no conteúdo emocional do estímulo (i.e., avaliarem se o estímulo é negativo, neutro ou positivo). Tanto em indivíduos com esquizofrenia como em indivíduos com alta predisposição alucinatória, têm vindo a ser reportadas alterações de processos atencionais. Por conseguinte, é possível que o foco atencional module o presumível impacto da predisposição alucinatória em mecanismos de perceção de voz. No presente estudo foi explorado, através de ERPs: 1) o impacto do foco atencional na interação entre o processamento vocal da identidade e da emoção; 2) o impacto da predisposição alucinatória nestes mecanismos (foco atencional, identidade e emoção). Para esse propósito, foram realizadas duas tarefas. Em ambas as tarefas, os participantes ouviram gravações de uma voz (própria voz vs. voz de um desconhecido) a proferir palavras com conteúdo negativo, neutro ou positivo. Enquanto que na primeira tarefa (tarefa do foco na identidade) os participantes tinham de identificar a identidade da voz, na segunda tarefa (tarefa do foco na emoção) eram instruídos a avaliar o conteúdo emocional das palavras proferidas. Na tarefa de foco na identidade, procurámos replicar resultados de estudos anteriores que observaram efeitos de interação entre identidade e emoção e efeitos principais de identidade, bem como uma associação entre altos níveis de predisposição alucinatória e uma maior dificuldade no reconhecimento da própria voz. Ainda para esta tarefa, foi explorada a hipótese de que altos níveis de predisposição alucinatória predizessem um padrão neurofisiológico semelhante ao dos pacientes com esquizofrenia, uma observação que serviria de suporte para a hipótese do continuum de psicose. Na tarefa de foco na emoção era esperada uma maior amplitude de LPP em resposta a palavras negativas e positivas, em comparação com palavras neutras e, em termos exploratórios, era esperado uma influência do foco atencional no presumível impacto da predisposição alucinatória em mecanismos de perceção de voz. Foram recrutados 30 participantes “saudáveis”, sendo que o grau de predisposição alucinatória de cada individuo foi avaliado através da Launay-Slade Hallucination Scale (LSHS). No presente estudo não foram observadas interações entre identidade e emoção, nem efeitos principais de emoção. É possível que este resultado se deva a diferenças linguísticas existentes entre os estímulos usados neste estudo e os estímulos usados em estudos anteriores. Contudo, em comparação com uma voz desconhecida, a voz dos participantes elicitou uma maior amplitude de N1 na tarefa de foco na identidade e uma maior amplitude de LPP em ambas as tarefas. Estes resultados parecem sugerir que, em termos neurofisiológicos, a própria voz de uma pessoa é mais saliente do que a voz de um desconhecido. Na tarefa do foco na emoção foi também encontrada uma associação entre altos níveis de predisposição alucinatória e uma tendência para uma menor amplitude de LPP em reposta a gravações da própria voz. Este resultado sugere que o foco atencional modela o presumível impacto da predisposição alucinatória em mecanismos de perceção de voz. Ao contrário do observado em pacientes com esquizofrenia (menor amplitude de LPP em resposta a gravações da própria voz e de vozes desconhecidas com conteúdo negativo), o presumível défice de processamento vocal em indivíduos com predisposição alucinatória parece não depender do conteúdo emocional e parece ser menos marcado, uma vez que é observado apenas em resposta a gravações da própria voz e numa condição onde a identidade não está a ser explicitamente processada. Em suma, os resultados encontrados parecem servir de suporte parcial para o modelo de continuum de psicose.
Bücher zum Thema "SELF-ATTENTION MECHANISM"
Mironova, Svetlana. The doctrine of the financial and legal status of municipalities in the Russian Federation and its implementation. ru: INFRA-M Academic Publishing LLC., 2021. http://dx.doi.org/10.12737/1819040.
Der volle Inhalt der QuelleAvhadeev, V., L. Bitkova, C. Bogolyubov, I. Bondarchuk, A. Vinokurov, E. Galinovskaya, D. Gorohov et al. Implementation of the Law on Responsible Treatment of Animals: from the quality of norms to effective law enforcement. ru: INFRA-M Academic Publishing LLC., 2021. http://dx.doi.org/10.12737/1410760.
Der volle Inhalt der QuelleAndrichenko, Lyudmila, A. Postnikov, L. Vasil'eva, Zh Gaunova, E. Nikitina und Inna Plyugina. Reform of the organization of public power: the main directions of implementation. ru: INFRA-M Academic Publishing LLC., 2021. http://dx.doi.org/10.12737/1839416.
Der volle Inhalt der QuelleSazhina, Muza, Anna Kashirova, Stanislav Makarov und Egor Osiop. The social wealth of the innovation system. ru: INFRA-M Academic Publishing LLC., 2022. http://dx.doi.org/10.12737/1875920.
Der volle Inhalt der QuelleCrowell, Sheila E., Mona Yaptangco und Sara L. Turner. Coercion, Invalidation, and Risk for Self-Injury and Borderline Personality Traits. Herausgegeben von Thomas J. Dishion und James Snyder. Oxford University Press, 2015. http://dx.doi.org/10.1093/oxfordhb/9780199324552.013.16.
Der volle Inhalt der QuelleO'Callaghan, Claire, und Muireann Irish. Candidate Mechanisms of Spontaneous Cognition as Revealed by Dementia Syndromes. Herausgegeben von Kalina Christoff und Kieran C. R. Fox. Oxford University Press, 2018. http://dx.doi.org/10.1093/oxfordhb/9780190464745.013.6.
Der volle Inhalt der QuelleHasenkamp, Wendy. Catching the Wandering Mind. Herausgegeben von Kalina Christoff und Kieran C. R. Fox. Oxford University Press, 2018. http://dx.doi.org/10.1093/oxfordhb/9780190464745.013.12.
Der volle Inhalt der QuelleBlackmore, Susan. Consciousness: A Very Short Introduction. Oxford University Press, 2017. http://dx.doi.org/10.1093/actrade/9780198794738.001.0001.
Der volle Inhalt der QuelleHan, Shihui. Cultural diversity. Oxford University Press, 2017. http://dx.doi.org/10.1093/acprof:oso/9780198743194.003.0001.
Der volle Inhalt der QuelleFerguson, Robert, und Karen Gillock. Memory and Attention Adaptation Training. Oxford University Press, 2021. http://dx.doi.org/10.1093/med/9780197521526.001.0001.
Der volle Inhalt der QuelleBuchteile zum Thema "SELF-ATTENTION MECHANISM"
Hossain, Syed Md Minhaz, Anik Sen und Kaushik Deb. „Detecting Spam SMS Using Self Attention Mechanism“. In Intelligent Computing & Optimization, 175–84. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-19958-5_17.
Der volle Inhalt der QuelleDaanouni, Othmane, Bouchaib Cherradi und Amal Tmiri. „Self-Attention Mechanism for Diabetic Retinopathy Detection“. In Emerging Trends in ICT for Sustainable Development, 79–88. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-53440-0_10.
Der volle Inhalt der QuelleZhang, Jiaxin, Yinshan Jia und Hongfei Yu. „Application Research of YOLOv3 Incorporating Self-attention Mechanism“. In Lecture Notes in Electrical Engineering, 454–61. Singapore: Springer Nature Singapore, 2022. http://dx.doi.org/10.1007/978-981-19-3927-3_45.
Der volle Inhalt der QuelleKanno, Satoki, und Mamoru Mimura. „Detection of Malware Using Self-Attention Mechanism and Strings“. In Network and System Security, 46–60. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-39828-5_3.
Der volle Inhalt der QuelleYuan, Genji, Jianbo Li, Yue Wang und Xianglong Meng. „Incorporating Self Attention Mechanism into Semantic Segmentation for Lane Detection“. In Wireless Algorithms, Systems, and Applications, 441–49. Cham: Springer Nature Switzerland, 2022. http://dx.doi.org/10.1007/978-3-031-19214-2_37.
Der volle Inhalt der QuelleCvitanović, Ivana, und Marina Bagić Babac. „Deep Learning with Self-Attention Mechanism for Fake News Detection“. In Studies in Computational Intelligence, 205–29. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-90087-8_10.
Der volle Inhalt der QuelleZhang, Rui, Binbin Chen und Hongbo Tang. „A Novel Sentiment Classification Architecture Based on Self-attention Mechanism“. In 2020 International Conference on Data Processing Techniques and Applications for Cyber-Physical Systems, 685–92. Singapore: Springer Singapore, 2021. http://dx.doi.org/10.1007/978-981-16-1726-3_85.
Der volle Inhalt der QuelleLi, Xiang, Ning Sun, Jixin Liu, Lei Chai und Haian Sun. „Multi-modal Scene Recognition Based on Global Self-attention Mechanism“. In Advances in Natural Computation, Fuzzy Systems and Knowledge Discovery, 109–21. Cham: Springer International Publishing, 2023. http://dx.doi.org/10.1007/978-3-031-20738-9_14.
Der volle Inhalt der QuelleSinh, Vu Trong, und Nguyen Le Minh. „A Study on Self-attention Mechanism for AMR-to-text Generation“. In Natural Language Processing and Information Systems, 321–28. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-23281-8_27.
Der volle Inhalt der QuelleYu, Xu, Fayang Wan, Bin Tang, Dingjia Zhan, Qinglong Peng, Miao Yu, Zhaozhe Wang und Shuang Cui. „Deep Bug Triage Model Based on Multi-head Self-attention Mechanism“. In Computer Supported Cooperative Work and Social Computing, 107–19. Singapore: Springer Nature Singapore, 2022. http://dx.doi.org/10.1007/978-981-19-4549-6_9.
Der volle Inhalt der QuelleKonferenzberichte zum Thema "SELF-ATTENTION MECHANISM"
Shang, Yunhao, Ning Xu, Zhenzhou Jin und Xiao Yao. „Capsule Network Based on Self-Attention Mechanism“. In 2021 13th International Conference on Wireless Communications and Signal Processing (WCSP). IEEE, 2021. http://dx.doi.org/10.1109/wcsp52459.2021.9613717.
Der volle Inhalt der QuelleXu, Yichong, Chenguang Zhu, Shuohang Wang, Siqi Sun, Hao Cheng, Xiaodong Liu, Jianfeng Gao, Pengcheng He, Michael Zeng und Xuedong Huang. „Human Parity on CommonsenseQA: Augmenting Self-Attention with External Attention“. In Thirty-First International Joint Conference on Artificial Intelligence {IJCAI-22}. California: International Joint Conferences on Artificial Intelligence Organization, 2022. http://dx.doi.org/10.24963/ijcai.2022/383.
Der volle Inhalt der QuellePan, Yunyi, Yuan Gan, Kun Liu und Yan Zhang. „Progressive Scene Segmentation Based on Self-Attention Mechanism“. In 2020 25th International Conference on Pattern Recognition (ICPR). IEEE, 2021. http://dx.doi.org/10.1109/icpr48806.2021.9412021.
Der volle Inhalt der QuelleCui, Baiyun, Yingming Li, Ming Chen und Zhongfei Zhang. „Fine-tune BERT with Sparse Self-Attention Mechanism“. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). Stroudsburg, PA, USA: Association for Computational Linguistics, 2019. http://dx.doi.org/10.18653/v1/d19-1361.
Der volle Inhalt der QuelleChen, Yanmin, Hao Wang, Ruijun Sun und Enhong Chen. „Context-Aware Semantic Matching with Self Attention Mechanism“. In 2022 5th International Conference on Pattern Recognition and Artificial Intelligence (PRAI). IEEE, 2022. http://dx.doi.org/10.1109/prai55851.2022.9904084.
Der volle Inhalt der QuelleMandhana, Vedang, und Rutuja Taware. „De novo drug design using self attention mechanism“. In SAC '20: The 35th ACM/SIGAPP Symposium on Applied Computing. New York, NY, USA: ACM, 2020. http://dx.doi.org/10.1145/3341105.3374024.
Der volle Inhalt der QuelleXu, Song, Haoran Li, Peng Yuan, Youzheng Wu, Xiaodong He und Bowen Zhou. „Self-Attention Guided Copy Mechanism for Abstractive Summarization“. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA, USA: Association for Computational Linguistics, 2020. http://dx.doi.org/10.18653/v1/2020.acl-main.125.
Der volle Inhalt der QuelleGeng, Xinwei, Longyue Wang, Xing Wang, Bing Qin, Ting Liu und Zhaopeng Tu. „How Does Selective Mechanism Improve Self-Attention Networks?“ In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA, USA: Association for Computational Linguistics, 2020. http://dx.doi.org/10.18653/v1/2020.acl-main.269.
Der volle Inhalt der QuelleGu, Zongyun, Qing Wang, Fangfang Li und Junling Kan. „Salient Object Detection Based on Self-attention Mechanism“. In 2021 IEEE 5th Information Technology,Networking,Electronic and Automation Control Conference (ITNEC). IEEE, 2021. http://dx.doi.org/10.1109/itnec52019.2021.9587108.
Der volle Inhalt der QuelleLi, Xinyi, Ying Qian und Liang Dou. „BERT Named Entity Recognition with Self-attention Mechanism“. In 2021 IEEE Conference on Telecommunications, Optics and Computer Science (TOCS). IEEE, 2021. http://dx.doi.org/10.1109/tocs53301.2021.9688590.
Der volle Inhalt der QuelleBerichte der Organisationen zum Thema "SELF-ATTENTION MECHANISM"
Chornodon, Myroslava. FEAUTURES OF GENDER IN MODERN MASS MEDIA. Ivan Franko National University of Lviv, Februar 2021. http://dx.doi.org/10.30970/vjo.2021.49.11064.
Der volle Inhalt der Quelle