Zeitschriftenartikel zum Thema „Digital gesture“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Digital gesture" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Hesenius, Marc, Markus Kleffmann und Volker Gruhn. „AugIR Meets GestureCards: A Digital Sketching Environment for Gesture-Based Applications“. Interacting with Computers 33, Nr. 2 (März 2021): 134–54. http://dx.doi.org/10.1093/iwcomp/iwab017.
Der volle Inhalt der Quellevan den Hoven, Elise, und Ali Mazalek. „Grasping gestures: Gesturing with physical artifacts“. Artificial Intelligence for Engineering Design, Analysis and Manufacturing 25, Nr. 3 (11.07.2011): 255–71. http://dx.doi.org/10.1017/s0890060411000072.
Der volle Inhalt der QuelleVogiatzidakis, Panagiotis, und Panayiotis Koutsabasis. „Gesture Elicitation Studies for Mid-Air Interaction: A Review“. Multimodal Technologies and Interaction 2, Nr. 4 (29.09.2018): 65. http://dx.doi.org/10.3390/mti2040065.
Der volle Inhalt der QuelleZhong, Yushan, Yifan Jia und Liang Ma. „Design and implementation of children’s gesture education games based on AI gesture recognition technology“. MATEC Web of Conferences 355 (2022): 03043. http://dx.doi.org/10.1051/matecconf/202235503043.
Der volle Inhalt der QuelleMcNamara, Alison. „Digital Gesture-Based Games“. International Journal of Game-Based Learning 6, Nr. 4 (Oktober 2016): 52–72. http://dx.doi.org/10.4018/ijgbl.2016100104.
Der volle Inhalt der QuelleSantosh Kumar J, Vamsi, Vinod, Madhusudhan and Tejas. „Design and Development of IoT Device that Recognizes Hand Gestures using Sensors“. September 2021 7, Nr. 09 (27.09.2021): 29–34. http://dx.doi.org/10.46501/ijmtst0709006.
Der volle Inhalt der QuellePowar, Salonee, Shweta Kadam, Sonali Malage und Priyanka Shingane. „Automated Digital Presentation Control using Hand Gesture Technique“. ITM Web of Conferences 44 (2022): 03031. http://dx.doi.org/10.1051/itmconf/20224403031.
Der volle Inhalt der QuelleZhao, Shichao. „Exploring How Interactive Technology Enhances Gesture-Based Expression and Engagement: A Design Study“. Multimodal Technologies and Interaction 3, Nr. 1 (27.02.2019): 13. http://dx.doi.org/10.3390/mti3010013.
Der volle Inhalt der QuelleWattamwar, Aniket. „Sign Language Recognition using CNN“. International Journal for Research in Applied Science and Engineering Technology 9, Nr. 9 (30.09.2021): 826–30. http://dx.doi.org/10.22214/ijraset.2021.38058.
Der volle Inhalt der QuelleAdak, Nitin, und Dr S. D. Lokhande Dr. S. D. Lokhande. „An Accelerometer-Based Digital Pen for Handwritten Digit and Gesture Recognition“. Indian Journal of Applied Research 3, Nr. 12 (01.10.2011): 207–10. http://dx.doi.org/10.15373/2249555x/dec2013/61.
Der volle Inhalt der QuelleKolhe, Ashwini, R. R. Itkarkar und Anilkumar V. Nandani. „Robust Part-Based Hand Gesture Recognition Using Finger-Earth Mover’s Distance“. International Journal of Advanced Research in Computer Science and Software Engineering 7, Nr. 7 (29.07.2017): 131. http://dx.doi.org/10.23956/ijarcsse/v7i7/0196.
Der volle Inhalt der QuelleFahrudin, Fikri, Mesi Andriani, Muallimin und Eka Altiarika. „Gerakan Tangan Pemain Otomatis Menggunakan Computer Vision“. Journal of Information Technology and society 1, Nr. 1 (24.06.2023): 15–19. http://dx.doi.org/10.35438/jits.v1i1.19.
Der volle Inhalt der QuelleAttygalle, Nuwan T., Luis A. Leiva, Matjaž Kljun, Christian Sandor, Alexander Plopski, Hirokazu Kato und Klen Čopič Pucihar. „No Interface, No Problem: Gesture Recognition on Physical Objects Using Radar Sensing“. Sensors 21, Nr. 17 (27.08.2021): 5771. http://dx.doi.org/10.3390/s21175771.
Der volle Inhalt der QuelleHerman, L., Z. Stachoň, R. Stuchlík, J. Hladík und P. Kubíček. „TOUCH INTERACTION WITH 3D GEOGRAPHICAL VISUALIZATION ON WEB: SELECTED TECHNOLOGICAL AND USER ISSUES“. ISPRS - International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XLII-2/W2 (05.10.2016): 33–40. http://dx.doi.org/10.5194/isprs-archives-xlii-2-w2-33-2016.
Der volle Inhalt der QuelleQian, Hao, Yangbin Chi, Zining Dong, Feng Yan und Limin Zhang. „A Gesture Recognition Method with a Charge Induction Array of Nine Electrodes“. Sensors 22, Nr. 3 (03.02.2022): 1158. http://dx.doi.org/10.3390/s22031158.
Der volle Inhalt der QuelleSruthi S und Swetha S. „Hand Gesture Controlled Presentation using OpenCV and MediaPipe“. international journal of engineering technology and management sciences 7, Nr. 4 (2023): 338–42. http://dx.doi.org/10.46647/ijetms.2023.v07i04.046.
Der volle Inhalt der QuelleVolioti, Christina, Apostolos Tsagaris, Dimitrios Trigkas, Theodoros Iliou, Menelaos N. Katsantonis und Ioannis Mavridis. „HapticSOUND: An Interactive Learning Experience with a Digital Musical Instrument“. Applied Sciences 13, Nr. 12 (14.06.2023): 7149. http://dx.doi.org/10.3390/app13127149.
Der volle Inhalt der QuelleMo, Dong-Han, Chuen-Lin Tien, Yu-Ling Yeh, Yi-Ru Guo, Chern-Sheng Lin, Chih-Chin Chen und Che-Ming Chang. „Design of Digital-Twin Human-Machine Interface Sensor with Intelligent Finger Gesture Recognition“. Sensors 23, Nr. 7 (27.03.2023): 3509. http://dx.doi.org/10.3390/s23073509.
Der volle Inhalt der QuelleSahithi, G. „A Model for Sign Language Recognition System using Deep Learning“. International Journal for Research in Applied Science and Engineering Technology 10, Nr. 6 (30.06.2022): 2270–76. http://dx.doi.org/10.22214/ijraset.2022.44286.
Der volle Inhalt der QuelleMehta, Devika. „Panchatantra Storytelling using Hand Gesture and Digital System“. International Journal for Research in Applied Science and Engineering Technology V, Nr. VIII (29.08.2017): 538–43. http://dx.doi.org/10.22214/ijraset.2017.8075.
Der volle Inhalt der Quellesundari, P. Gnana, K. Jawa har, J. Elan go, M. Anbu raj und K. Harish. „Digital Art using Hand Gesture Control with IOT“. International Journal of Engineering Trends and Technology 45, Nr. 8 (25.03.2017): 412–15. http://dx.doi.org/10.14445/22315381/ijett-v45p277.
Der volle Inhalt der QuelleK, Jishma, und Anupama Jims. „Hand Gesture Controlled Presentation Viewer with AI Virtual Painter“. YMER Digital 21, Nr. 05 (23.05.2022): 1016–25. http://dx.doi.org/10.37896/ymer21.05/b6.
Der volle Inhalt der QuelleMohammed Musharaf Z, Meril Akash. J und M. Malleswari. „Dynamic virtual assistance of I/O functionalities“. World Journal of Advanced Engineering Technology and Sciences 8, Nr. 2 (30.03.2023): 023–33. http://dx.doi.org/10.30574/wjaets.2023.8.2.0061.
Der volle Inhalt der QuellePurse, Lisa. „Digital Visceral: Textural Play and the Flamboyant Gesture in Digital Screen Violence“. Journal of Popular Film and Television 45, Nr. 1 (02.01.2017): 16–25. http://dx.doi.org/10.1080/01956051.2017.1270137.
Der volle Inhalt der QuelleFreire, Davi Soares, Renata Imaculada Soares Pereira, Maiara Jéssica Ribeiro Silva und Sandro César Silveira Jucá. „Embedded Linux System for Digital Image Recognition using Internet of Things“. Journal of Mechatronics Engineering 1, Nr. 2 (07.10.2018): 2. http://dx.doi.org/10.21439/jme.v1i2.14.
Der volle Inhalt der QuelleAdema, Janneke, und Kamila Kuc. „Unruly Gestures: Seven Cine-Paragraphs on Reading/Writing Practices in our Post-Digital Condition“. Culture Unbound 11, Nr. 1 (12.04.2019): 190–208. http://dx.doi.org/10.3384/cu.2000.1525.2019111190.
Der volle Inhalt der QuelleChoe, Jong-Hoon. „Gesture Interaction of Digital Frame for Visual Image Content“. Journal of the Korea Contents Association 10, Nr. 10 (28.10.2010): 120–27. http://dx.doi.org/10.5392/jkca.10.10.120.
Der volle Inhalt der QuelleJia, Lesong, Xiaozhou Zhou, Hao Qin, Ruidong Bai, Liuqing Wang und Chengqi Xue. „Research on Discrete Semantics in Continuous Hand Joint Movement Based on Perception and Expression“. Sensors 21, Nr. 11 (27.05.2021): 3735. http://dx.doi.org/10.3390/s21113735.
Der volle Inhalt der QuelleKoptyra, Katarzyna, und Marek R. Ogiela. „Steganography in IoT: Information Hiding with APDS-9960 Proximity and Gestures Sensor“. Sensors 22, Nr. 7 (29.03.2022): 2612. http://dx.doi.org/10.3390/s22072612.
Der volle Inhalt der QuellePatel, Nihar. „Smart City using Sixth Sense Technology“. International Journal for Research in Applied Science and Engineering Technology 10, Nr. 1 (31.01.2022): 1205–8. http://dx.doi.org/10.22214/ijraset.2022.40024.
Der volle Inhalt der QuelleVan Nort, Doug. „Instrumental Listening: sonic gesture as design principle“. Organised Sound 14, Nr. 2 (29.06.2009): 177–87. http://dx.doi.org/10.1017/s1355771809000284.
Der volle Inhalt der QuelleMoldovan, Constantin Catalin, und Ionel Staretu. „Real-Time Gesture Recognition for Controlling a Virtual Hand“. Advanced Materials Research 463-464 (Februar 2012): 1147–50. http://dx.doi.org/10.4028/www.scientific.net/amr.463-464.1147.
Der volle Inhalt der QuelleZhou, Zhenkun, Yin Zhang, Jiangqin Wu und Yueting Zhuang. „CReader: Multi-Touch Gesture Supported Reading Environment in Digital Library“. Advanced Science Letters 10, Nr. 1 (15.05.2012): 421–27. http://dx.doi.org/10.1166/asl.2012.3328.
Der volle Inhalt der QuelleKum, Junyeong, und Myungho Lee. „Can Gestural Filler Reduce User-Perceived Latency in Conversation with Digital Humans?“ Applied Sciences 12, Nr. 21 (29.10.2022): 10972. http://dx.doi.org/10.3390/app122110972.
Der volle Inhalt der QuelleRahmad, Cahya, Arief Prasetyo und Riza Awwalul Baqy. „PowerPoint slideshow navigation control with hand gestures using Hidden Markov Model method“. Matrix : Jurnal Manajemen Teknologi dan Informatika 12, Nr. 1 (29.03.2022): 7–18. http://dx.doi.org/10.31940/matrix.v12i1.7-18.
Der volle Inhalt der QuelleKeefe, Daniel F. „From Gesture to Form: The Evolution of Expressive Freehand Spatial Interfaces“. Leonardo 44, Nr. 5 (Oktober 2011): 460–61. http://dx.doi.org/10.1162/leon_a_00261.
Der volle Inhalt der QuelleKeefe, Daniel F. „From Gesture to Form: The Evolution of Expressive Freehand Spatial Interfaces“. Leonardo 46, Nr. 1 (Februar 2013): 82–83. http://dx.doi.org/10.1162/leon_a_00492.
Der volle Inhalt der QuelleZhang, Ning. „3D Digital Model of Folk Dance Based on Few-Shot Learning and Gesture Recognition“. Computational Intelligence and Neuroscience 2022 (30.06.2022): 1–11. http://dx.doi.org/10.1155/2022/3682261.
Der volle Inhalt der QuelleRhodes, Chris, Richard Allmendinger und Ricardo Climent. „New Interfaces and Approaches to Machine Learning When Classifying Gestures within Music“. Entropy 22, Nr. 12 (07.12.2020): 1384. http://dx.doi.org/10.3390/e22121384.
Der volle Inhalt der QuelleNam, Jung, und Daniel F. Keefe. „Spatial Correlation: An Interactive Display of Virtual Gesture Sculpture“. Leonardo 50, Nr. 1 (Februar 2017): 94–95. http://dx.doi.org/10.1162/leon_a_01226.
Der volle Inhalt der QuelleLe Cor, Gwen. „From erasure poetry to e-mash-ups, “reel on/ another! power!”“. Convergence: The International Journal of Research into New Media Technologies 24, Nr. 3 (23.11.2016): 305–20. http://dx.doi.org/10.1177/1354856516675254.
Der volle Inhalt der QuelleHolmes, Tiffany. „The Corporeal Stenographer: Language, Gesture, and Cyberspace“. Leonardo 32, Nr. 5 (Oktober 1999): 383–89. http://dx.doi.org/10.1162/002409499553613.
Der volle Inhalt der QuelleMustafa, Sriyanti, Toto Nusantara, Subanji Subanji und Santi Irawati. „Mathematical Thinking Process of Autistic Students in Terms of Representational Gesture“. International Education Studies 9, Nr. 6 (26.05.2016): 93. http://dx.doi.org/10.5539/ies.v9n6p93.
Der volle Inhalt der QuelleSreyas, S., Sreeja Kochuvila, S. Vignesh und R. Pranav. „AIR TOUCH: Human Machine Interface Using Electromyography Signals“. Journal of Physics: Conference Series 2251, Nr. 1 (01.04.2022): 012001. http://dx.doi.org/10.1088/1742-6596/2251/1/012001.
Der volle Inhalt der QuelleRepp, Bruno H. „A Constraint on the Expressive Timing of a Melodic Gesture: Evidence from Performance and Aesthetic Judgment“. Music Perception 10, Nr. 2 (1992): 221–41. http://dx.doi.org/10.2307/40285608.
Der volle Inhalt der QuelleTafler, David I. „Drawing Spirits in the Sand: Performative Storytelling in the Digital Age“. Religions 10, Nr. 9 (21.08.2019): 492. http://dx.doi.org/10.3390/rel10090492.
Der volle Inhalt der QuellePadmasari, Ayung Candra, Yona Wahyuningsih und Deti Rostika. „Design of Digital Map based on Hand Gesture as a Preservation of West Java History Sites for Elementary School“. Letters in Information Technology Education (LITE) 2, Nr. 2 (09.11.2019): 23. http://dx.doi.org/10.17977/um010v2i22019p023.
Der volle Inhalt der QuelleKalra, Siddharth, Sarika Jain und Amit Agarwal. „Gesture Controlled Tactile Augmented Reality Interface for the Visually Impaired“. Journal of Information Technology Research 14, Nr. 2 (April 2021): 125–51. http://dx.doi.org/10.4018/jitr.2021040107.
Der volle Inhalt der QuelleZhu, Penghua, Jie Zhu, Xiaofei Xue und Yongtao Song. „Stretchable Filler/Solid Rubber Piezoresistive Thread Sensor for Gesture Recognition“. Micromachines 13, Nr. 1 (22.12.2021): 7. http://dx.doi.org/10.3390/mi13010007.
Der volle Inhalt der QuelleZhang, Yajun, Yan Yang, Zijian Li, Zhixiong Yang, Xu Liu und Bo Yuan. „RF-Alphabet: Cross Domain Alphabet Recognition System Based on RFID Differential Threshold Similarity Calculation Model“. Sensors 23, Nr. 2 (13.01.2023): 920. http://dx.doi.org/10.3390/s23020920.
Der volle Inhalt der Quelle