Zeitschriftenartikel zum Thema „Sparse Accelerator“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Sparse Accelerator" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Xie, Xiaoru, Mingyu Zhu, Siyuan Lu und Zhongfeng Wang. „Efficient Layer-Wise N:M Sparse CNN Accelerator with Flexible SPEC: Sparse Processing Element Clusters“. Micromachines 14, Nr. 3 (24.02.2023): 528. http://dx.doi.org/10.3390/mi14030528.
Der volle Inhalt der QuelleLi, Yihang. „Sparse-Aware Deep Learning Accelerator“. Highlights in Science, Engineering and Technology 39 (01.04.2023): 305–10. http://dx.doi.org/10.54097/hset.v39i.6544.
Der volle Inhalt der QuelleXu, Jia, Han Pu und Dong Wang. „Sparse Convolution FPGA Accelerator Based on Multi-Bank Hash Selection“. Micromachines 16, Nr. 1 (27.12.2024): 22. https://doi.org/10.3390/mi16010022.
Der volle Inhalt der QuelleZheng, Yong, Haigang Yang, Yiping Jia und Zhihong Huang. „PermLSTM: A High Energy-Efficiency LSTM Accelerator Architecture“. Electronics 10, Nr. 8 (08.04.2021): 882. http://dx.doi.org/10.3390/electronics10080882.
Der volle Inhalt der QuelleYavits, Leonid, und Ran Ginosar. „Accelerator for Sparse Machine Learning“. IEEE Computer Architecture Letters 17, Nr. 1 (01.01.2018): 21–24. http://dx.doi.org/10.1109/lca.2017.2714667.
Der volle Inhalt der QuelleTeodorovic, Predrag, und Rastislav Struharik. „Hardware Acceleration of Sparse Oblique Decision Trees for Edge Computing“. Elektronika ir Elektrotechnika 25, Nr. 5 (06.10.2019): 18–24. http://dx.doi.org/10.5755/j01.eie.25.5.24351.
Der volle Inhalt der QuelleVranjkovic, Vuk, Predrag Teodorovic und Rastislav Struharik. „Universal Reconfigurable Hardware Accelerator for Sparse Machine Learning Predictive Models“. Electronics 11, Nr. 8 (08.04.2022): 1178. http://dx.doi.org/10.3390/electronics11081178.
Der volle Inhalt der QuelleGowda, Kavitha Malali Vishveshwarappa, Sowmya Madhavan, Stefano Rinaldi, Parameshachari Bidare Divakarachari und Anitha Atmakur. „FPGA-Based Reconfigurable Convolutional Neural Network Accelerator Using Sparse and Convolutional Optimization“. Electronics 11, Nr. 10 (22.05.2022): 1653. http://dx.doi.org/10.3390/electronics11101653.
Der volle Inhalt der QuelleDey, Sumon, Lee Baker, Joshua Schabel, Weifu Li und Paul D. Franzon. „A Scalable Cluster-based Hierarchical Hardware Accelerator for a Cortically Inspired Algorithm“. ACM Journal on Emerging Technologies in Computing Systems 17, Nr. 4 (30.06.2021): 1–29. http://dx.doi.org/10.1145/3447777.
Der volle Inhalt der QuelleLiu, Sheng, Yasong Cao und Shuwei Sun. „Mapping and Optimization Method of SpMV on Multi-DSP Accelerator“. Electronics 11, Nr. 22 (11.11.2022): 3699. http://dx.doi.org/10.3390/electronics11223699.
Der volle Inhalt der QuelleVranjkovic, Vuk, und Rastislav Struharik. „Hardware Acceleration of Sparse Support Vector Machines for Edge Computing“. Elektronika ir Elektrotechnika 26, Nr. 3 (27.06.2020): 42–53. http://dx.doi.org/10.5755/j01.eie.26.3.25796.
Der volle Inhalt der QuelleLiu, Peng, und Yu Wang. „A Low-Power General Matrix Multiplication Accelerator with Sparse Weight-and-Output Stationary Dataflow“. Micromachines 16, Nr. 1 (16.01.2025): 101. https://doi.org/10.3390/mi16010101.
Der volle Inhalt der QuelleWang, Deguang, Junzhong Shen, Mei Wen und Chunyuan Zhang. „Efficient Implementation of 2D and 3D Sparse Deconvolutional Neural Networks with a Uniform Architecture on FPGAs“. Electronics 8, Nr. 7 (18.07.2019): 803. http://dx.doi.org/10.3390/electronics8070803.
Der volle Inhalt der QuelleHe, Pengzhou, Yazheng Tu, Tianyou Bao, Çetin Çetin Koç und Jiafeng Xie. „HSPA: High-Throughput Sparse Polynomial Multiplication for Code-based Post-Quantum Cryptography“. ACM Transactions on Embedded Computing Systems 24, Nr. 1 (10.12.2024): 1–24. https://doi.org/10.1145/3703837.
Der volle Inhalt der QuelleXIAO, Hao, Kaikai ZHAO und Guangzhu LIU. „Efficient Hardware Accelerator for Compressed Sparse Deep Neural Network“. IEICE Transactions on Information and Systems E104.D, Nr. 5 (01.05.2021): 772–75. http://dx.doi.org/10.1587/transinf.2020edl8153.
Der volle Inhalt der QuelleLi, Jiajun, Shuhao Jiang, Shijun Gong, Jingya Wu, Junchao Yan, Guihai Yan und Xiaowei Li. „SqueezeFlow: A Sparse CNN Accelerator Exploiting Concise Convolution Rules“. IEEE Transactions on Computers 68, Nr. 11 (01.11.2019): 1663–77. http://dx.doi.org/10.1109/tc.2019.2924215.
Der volle Inhalt der QuelleLi, Fanrong, Gang Li, Zitao Mo, Xiangyu He und Jian Cheng. „FSA: A Fine-Grained Systolic Accelerator for Sparse CNNs“. IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems 39, Nr. 11 (November 2020): 3589–600. http://dx.doi.org/10.1109/tcad.2020.3012212.
Der volle Inhalt der QuelleYang, Tao, Zhezhi He, Tengchuan Kou, Qingzheng Li, Qi Han, Haibao Yu, Fangxin Liu, Yun Liang und Li Jiang. „BISWSRBS: A Winograd-based CNN Accelerator with a Fine-grained Regular Sparsity Pattern and Mixed Precision Quantization“. ACM Transactions on Reconfigurable Technology and Systems 14, Nr. 4 (31.12.2021): 1–28. http://dx.doi.org/10.1145/3467476.
Der volle Inhalt der QuelleWu, Di, Xitian Fan, Wei Cao und Lingli Wang. „SWM: A High-Performance Sparse-Winograd Matrix Multiplication CNN Accelerator“. IEEE Transactions on Very Large Scale Integration (VLSI) Systems 29, Nr. 5 (Mai 2021): 936–49. http://dx.doi.org/10.1109/tvlsi.2021.3060041.
Der volle Inhalt der QuelleLiu, Qingliang, Jinmei Lai und Jiabao Gao. „An Efficient Channel-Aware Sparse Binarized Neural Networks Inference Accelerator“. IEEE Transactions on Circuits and Systems II: Express Briefs 69, Nr. 3 (März 2022): 1637–41. http://dx.doi.org/10.1109/tcsii.2021.3119369.
Der volle Inhalt der QuelleSun, Yichun, Hengzhu Liu und Tong Zhou. „Sparse Cholesky Factorization on FPGA Using Parameterized Model“. Mathematical Problems in Engineering 2017 (2017): 1–11. http://dx.doi.org/10.1155/2017/3021591.
Der volle Inhalt der QuelleWang, Renping, Shun Li, Enhao Tang, Sen Lan, Yajing Liu, Jing Yang, Shizhen Huang und Hailong Hu. „SH-GAT: Software-hardware co-design for accelerating graph attention networks on FPGA“. Electronic Research Archive 32, Nr. 4 (2024): 2310–22. http://dx.doi.org/10.3934/era.2024105.
Der volle Inhalt der QuelleXie, Xiaoru, Jun Lin, Zhongfeng Wang und Jinghe Wei. „An Efficient and Flexible Accelerator Design for Sparse Convolutional Neural Networks“. IEEE Transactions on Circuits and Systems I: Regular Papers 68, Nr. 7 (Juli 2021): 2936–49. http://dx.doi.org/10.1109/tcsi.2021.3074300.
Der volle Inhalt der QuelleLai, Bo-Cheng, Jyun-Wei Pan und Chien-Yu Lin. „Enhancing Utilization of SIMD-Like Accelerator for Sparse Convolutional Neural Networks“. IEEE Transactions on Very Large Scale Integration (VLSI) Systems 27, Nr. 5 (Mai 2019): 1218–22. http://dx.doi.org/10.1109/tvlsi.2019.2897052.
Der volle Inhalt der QuelleLu, Yuntao, Chao Wang, Lei Gong und Xuehai Zhou. „SparseNN: A Performance-Efficient Accelerator for Large-Scale Sparse Neural Networks“. International Journal of Parallel Programming 46, Nr. 4 (03.10.2017): 648–59. http://dx.doi.org/10.1007/s10766-017-0528-8.
Der volle Inhalt der QuelleMelham, R. „A systolic accelerator for the iterative solution of sparse linear systems“. IEEE Transactions on Computers 38, Nr. 11 (1989): 1591–95. http://dx.doi.org/10.1109/12.42132.
Der volle Inhalt der QuelleLi, Tao, und Li Shen. „A sparse matrix vector multiplication accelerator based on high-bandwidth memory“. Computers and Electrical Engineering 105 (Januar 2023): 108488. http://dx.doi.org/10.1016/j.compeleceng.2022.108488.
Der volle Inhalt der QuelleZhu, Chaoyang, Kejie Huang, Shuyuan Yang, Ziqi Zhu, Hejia Zhang und Haibin Shen. „An Efficient Hardware Accelerator for Structured Sparse Convolutional Neural Networks on FPGAs“. IEEE Transactions on Very Large Scale Integration (VLSI) Systems 28, Nr. 9 (September 2020): 1953–65. http://dx.doi.org/10.1109/tvlsi.2020.3002779.
Der volle Inhalt der QuelleWang, Zixiao, Ke Xu, Shuaixiao Wu, Li Liu, Lingzhi Liu und Dong Wang. „Sparse-YOLO: Hardware/Software Co-Design of an FPGA Accelerator for YOLOv2“. IEEE Access 8 (2020): 116569–85. http://dx.doi.org/10.1109/access.2020.3004198.
Der volle Inhalt der QuelleHumble, Ryan, William Colocho, Finn O’Shea, Daniel Ratner und Eric Darve. „Resilient VAE: Unsupervised Anomaly Detection at the SLAC Linac Coherent Light Source“. EPJ Web of Conferences 295 (2024): 09033. http://dx.doi.org/10.1051/epjconf/202429509033.
Der volle Inhalt der QuelleLiang, Zhongwei, Xiaochu Liu, Guilin Wen und Jinrui Xiao. „Effectiveness prediction of abrasive jetting stream of accelerator tank using normalized sparse autoencoder-adaptive neural fuzzy inference system“. Proceedings of the Institution of Mechanical Engineers, Part B: Journal of Engineering Manufacture 234, Nr. 13 (26.06.2020): 1615–39. http://dx.doi.org/10.1177/0954405420927582.
Der volle Inhalt der QuelleShimoda, Masayuki, Youki Sada und Hiroki Nakahara. „FPGA-Based Inter-layer Pipelined Accelerators for Filter-Wise Weight-Balanced Sparse Fully Convolutional Networks with Overlapped Tiling“. Journal of Signal Processing Systems 93, Nr. 5 (13.02.2021): 499–512. http://dx.doi.org/10.1007/s11265-021-01642-6.
Der volle Inhalt der QuelleWang, Miao, Xiaoya Fan, Wei Zhang, Ting Zhu, Tengteng Yao, Hui Ding und Danghui Wang. „Balancing memory-accessing and computing over sparse DNN accelerator via efficient data packaging“. Journal of Systems Architecture 117 (August 2021): 102094. http://dx.doi.org/10.1016/j.sysarc.2021.102094.
Der volle Inhalt der QuelleZhao, Yunping, Jianzhuang Lu und Xiaowen Chen. „A Dynamically Reconfigurable Accelerator Design Using a Sparse-Winograd Decomposition Algorithm for CNNs“. Computers, Materials & Continua 66, Nr. 1 (2020): 517–35. http://dx.doi.org/10.32604/cmc.2020.012380.
Der volle Inhalt der QuelleLiu, Zhi-Gang, Paul N. Whatmough und Matthew Mattina. „Systolic Tensor Array: An Efficient Structured-Sparse GEMM Accelerator for Mobile CNN Inference“. IEEE Computer Architecture Letters 19, Nr. 1 (01.01.2020): 34–37. http://dx.doi.org/10.1109/lca.2020.2979965.
Der volle Inhalt der QuellePham, Duc-An, und Bo-Cheng Lai. „Dataflow and microarchitecture co-optimisation for sparse CNN on distributed processing element accelerator“. IET Circuits, Devices & Systems 14, Nr. 8 (01.11.2020): 1185–94. http://dx.doi.org/10.1049/iet-cds.2019.0225.
Der volle Inhalt der QuelleZhang, Min, Linpeng Li, Hai Wang, Yan Liu, Hongbo Qin und Wei Zhao. „Optimized Compression for Implementing Convolutional Neural Networks on FPGA“. Electronics 8, Nr. 3 (06.03.2019): 295. http://dx.doi.org/10.3390/electronics8030295.
Der volle Inhalt der QuelleLiu, Chester, Sung-Gun Cho und Zhengya Zhang. „A 2.56-mm2 718GOPS Configurable Spiking Convolutional Sparse Coding Accelerator in 40-nm CMOS“. IEEE Journal of Solid-State Circuits 53, Nr. 10 (Oktober 2018): 2818–27. http://dx.doi.org/10.1109/jssc.2018.2865457.
Der volle Inhalt der QuelleAimar, Alessandro, Hesham Mostafa, Enrico Calabrese, Antonio Rios-Navarro, Ricardo Tapiador-Morales, Iulia-Alexandra Lungu, Moritz B. Milde et al. „NullHop: A Flexible Convolutional Neural Network Accelerator Based on Sparse Representations of Feature Maps“. IEEE Transactions on Neural Networks and Learning Systems 30, Nr. 3 (März 2019): 644–56. http://dx.doi.org/10.1109/tnnls.2018.2852335.
Der volle Inhalt der QuelleQian, Cheng, Bruce Childers, Libo Huang, Hui Guo und Zhiying Wang. „CGAcc: A Compressed Sparse Row Representation-Based BFS Graph Traversal Accelerator on Hybrid Memory Cube“. Electronics 7, Nr. 11 (07.11.2018): 307. http://dx.doi.org/10.3390/electronics7110307.
Der volle Inhalt der QuelleBian, Haoqiong, Tiannan Sha und Anastasia Ailamaki. „Using Cloud Functions as Accelerator for Elastic Data Analytics“. Proceedings of the ACM on Management of Data 1, Nr. 2 (13.06.2023): 1–27. http://dx.doi.org/10.1145/3589306.
Der volle Inhalt der QuelleChen, Xi, Chang Gao, Zuowen Wang, Longbiao Cheng, Sheng Zhou, Shih-Chii Liu und Tobi Delbruck. „Exploiting Symmetric Temporally Sparse BPTT for Efficient RNN Training“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 10 (24.03.2024): 11399–406. http://dx.doi.org/10.1609/aaai.v38i10.29020.
Der volle Inhalt der QuelleWeng, Yui-Kai, Shih-Hsu Huang und Hsu-Yu Kao. „Block-Based Compression and Corresponding Hardware Circuits for Sparse Activations“. Sensors 21, Nr. 22 (10.11.2021): 7468. http://dx.doi.org/10.3390/s21227468.
Der volle Inhalt der QuelleXu, Shiyao, Jingfei Jiang, jinwei Xu und Xifu Qian. „Efficient SpMM Accelerator for Deep Learning: Sparkle and Its Automated Generator“. ACM Transactions on Reconfigurable Technology and Systems, 07.06.2024. http://dx.doi.org/10.1145/3665896.
Der volle Inhalt der QuelleHwang, Soojin, Daehyeon Baek, Jongse Park und Jaehyuk Huh. „Cerberus: Triple Mode Acceleration of Sparse Matrix and Vector Multiplication“. ACM Transactions on Architecture and Code Optimization, 17.03.2024. http://dx.doi.org/10.1145/3653020.
Der volle Inhalt der QuelleXie, Kunpeng, Ye Lu, Xinyu He, Dezhi Yi, Huijuan Dong und Yao Chen. „Winols: A Large-Tiling Sparse Winograd CNN Accelerator on FPGAs“. ACM Transactions on Architecture and Code Optimization, 31.01.2024. http://dx.doi.org/10.1145/3643682.
Der volle Inhalt der QuelleWang, Bo, Sheng Ma, Shengbai Luo, Lizhou Wu, Jianmin Zhang, Chunyuan Zhang und Tiejun Li. „SparGD: A Sparse GEMM Accelerator with Dynamic Dataflow“. ACM Transactions on Design Automation of Electronic Systems, 27.11.2023. http://dx.doi.org/10.1145/3634703.
Der volle Inhalt der QuelleSoltaniyeh, Mohammadreza, Richard P. Martin und Santosh Nagarakatte. „An Accelerator for Sparse Convolutional Neural Networks Leveraging Systolic General Matrix-Matrix Multiplication“. ACM Transactions on Architecture and Code Optimization, 25.04.2022. http://dx.doi.org/10.1145/3532863.
Der volle Inhalt der QuelleSoltaniyeh, Mohammadreza, Richard P. Martin und Santosh Nagarakatte. „An Accelerator for Sparse Convolutional Neural Networks Leveraging Systolic General Matrix-Matrix Multiplication“. ACM Transactions on Architecture and Code Optimization, 25.04.2022. http://dx.doi.org/10.1145/3532863.
Der volle Inhalt der QuelleDel Sarto, Nicola, Diane A. Isabelle, Valentina Cucino und Alberto Di Minin. „Engaging with startups through corporate accelerators: the case of H‐FARM's White Label Accelerator“. R&D Management, 09.07.2024. http://dx.doi.org/10.1111/radm.12705.
Der volle Inhalt der Quelle