Academic literature on the topic 'VIRTUAL REALITY 3D GRAPHIC INTERFACES'
Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles
Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'VIRTUAL REALITY 3D GRAPHIC INTERFACES.'
Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.
You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.
Journal articles on the topic "VIRTUAL REALITY 3D GRAPHIC INTERFACES"
KIM, HADONG, and MALREY LEE. "AN OPEN MODULE DEVELOPMENT ENVIRONMENT (OMDE) FOR INTERACTIVE VIRTUAL REALITY SYSTEMS." International Journal of Pattern Recognition and Artificial Intelligence 24, no. 06 (September 2010): 947–60. http://dx.doi.org/10.1142/s0218001410008251.
Full textYilmaz, Bulent, and Muge Goken. "Virtual reality (VR) technologies in education of industrial design." New Trends and Issues Proceedings on Humanities and Social Sciences 2, no. 1 (February 19, 2016): 498–503. http://dx.doi.org/10.18844/prosoc.v2i1.336.
Full textMironenko, Maxim, Viktor Chertopolokhov, and Margarita Belousova. "Virtual Reality Technologies and Universal 3D Reconstruction Interface Development." Историческая информатика, no. 4 (April 2020): 192–205. http://dx.doi.org/10.7256/2585-7797.2020.4.34671.
Full textSung, Jung-Hwan, Dae-Young Lee, and Hyung-Koo Kim. "Difference of GUI Efficiency based on 3D and 2D Graphic -Imaginary 3D IPTV Interface Development Using Virtual Reality Theory-." Journal of the Korea Contents Association 7, no. 7 (July 28, 2007): 87–95. http://dx.doi.org/10.5392/jkca.2007.7.7.087.
Full textLim, Enmi, Kiyoshi Umeki, and Tsuyoshi Honjo. "Application of Virtual Reality and Plant Modeling for Participation in Urban Planning and Design." International Journal of Virtual Reality 8, no. 2 (January 1, 2009): 91–99. http://dx.doi.org/10.20870/ijvr.2009.8.2.2730.
Full text구상권 and 민수홍. "Considerations on Rationalization of 3D Computer Graphic Rendering Technology and Appropriation of the Role of Fake Interface on Virtual Reality." Journal of Digital Design 7, no. 2 (April 2007): 121–32. http://dx.doi.org/10.17280/jdd.2007.7.2.012.
Full textVörös, Viktor, Ruixuan Li, Ayoob Davoodi, Gauthier Wybaillie, Emmanuel Vander Poorten, and Kenan Niu. "An Augmented Reality-Based Interaction Scheme for Robotic Pedicle Screw Placement." Journal of Imaging 8, no. 10 (October 6, 2022): 273. http://dx.doi.org/10.3390/jimaging8100273.
Full textYue, Xue Jun, Tian Sheng Hong, Xing Xu, and Wei Bin Wu. "Study on 3D Virtual Reality Modeling." Advanced Materials Research 129-131 (August 2010): 1296–300. http://dx.doi.org/10.4028/www.scientific.net/amr.129-131.1296.
Full textHwang, Jane, Jaehoon Jung, Sunghoon Yim, Jaeyoung Cheon, Sungkil Lee, Seungmoon Choi, and Gerard J. Kim. "Requirements, Implementation and Applications of Hand-held Virtual Reality." International Journal of Virtual Reality 5, no. 2 (January 1, 2006): 59–66. http://dx.doi.org/10.20870/ijvr.2006.5.2.2689.
Full textNovak-Marcincin, Jozef. "Virtual Reality Modeling Language as Tool for Automated Workplaces Simulation." Applied Mechanics and Materials 309 (February 2013): 372–79. http://dx.doi.org/10.4028/www.scientific.net/amm.309.372.
Full textDissertations / Theses on the topic "VIRTUAL REALITY 3D GRAPHIC INTERFACES"
Chen, Yenan. "Advanced Multi-modal User Interfaces in 3D Computer Graphics and Virtual Reality." Thesis, Linköpings universitet, Institutionen för teknik och naturvetenskap, 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-75889.
Full textMíchal, Vít. "3D video browser." Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2009. http://www.nusl.cz/ntk/nusl-235486.
Full textFernández, Baena Adso. "Animation and Interaction of Responsive, Expressive, and Tangible 3D Virtual Characters." Doctoral thesis, Universitat Ramon Llull, 2015. http://hdl.handle.net/10803/311800.
Full textAquesta tesi s'emmarca dins del món de l'animació de personatges virtuals tridimensionals. Els personatges virtuals s'utilitzen en moltes aplicacions d'interacció home màquina, com els videojocs o els serious games, on es mouen i actuen de forma similar als humans dins de mons virtuals, i on són controlats pels usuaris per mitjà d'alguna interfície, o d'altra manera per sistemes intel·ligents. Reptes com aconseguir moviments fluids i comportament natural, controlar en temps real el moviment de manera intuitiva i precisa, i inclús explorar la interacció dels personatges virtuals amb elements físics intel·ligents; són els que es treballen a continuació amb l'objectiu de contribuir en la generació de personatges virtuals responsius, expressius i tangibles. La navegació dins dels mons virtuals fa ús de locomocions com caminar, córrer, etc. Per tal d'aconseguir el màxim de realisme, es capturen i reutilitzen moviments d'actors per animar els personatges virtuals. Així funcionen els motion graphs, una estructura que encapsula moviments i per mitjà de cerques dins d'aquesta, els concatena creant un flux continu. La síntesi de locomocions usant els motion graphs comporta un compromís entre el número de transicions entre les diferents locomocions, i la qualitat d'aquestes (similitud entre les postures a connectar). Per superar aquest inconvenient, proposem el mètode transicions progressives usant Body Part Motion Graphs (BPMGs). Aquest mètode tracta els moviments de manera parcial, i genera transicions específiques i sincronitzades per cada part del cos (grup d'articulacions) dins d'una finestra temporal. Per tant, la conectivitat del sistema no està lligada a la similitud de postures globals, permetent trobar més punts de transició i de més qualitat, i sobretot incrementant la rapidesa en resposta i execució de les transicions respecte als motion graphs estàndards. En segon lloc, més enllà d'aconseguir transicions ràpides i moviments fluids, els personatges virtuals també interaccionen entre ells i amb els usuaris parlant, creant la necessitat de generar moviments apropiats a la veu que reprodueixen. Els gestos formen part del llenguatge no verbal que acostuma a acompanyar a la veu. La credibilitat dels personatges virtuals parlants està lligada a la naturalitat dels seus moviments i a la concordança que aquests tenen amb la veu, sobretot amb l'entonació d'aquesta. Així doncs, hem realitzat l'anàlisi de la relació entre els gestos i la veu, i la conseqüent generació de gestos d'acord a la veu. S'han definit indicadors d'intensitat tant per gestos (GSI, Gesture Strength Indicator) com per la veu (PSI, Pitch Strength Indicator), i s'ha estudiat la relació entre la temporalitat i la intensitat de les dues senyals per establir unes normes de sincronia temporal i d'intensitat. Més endavant es presenta el Gesture Motion Graph (GMG), que selecciona gestos adients a la veu d'entrada (text anotat a partir de la senyal de veu) i les regles esmentades. L'avaluació de les animaciones resultants demostra la importància de relacionar la intensitat per generar animacions cre\"{ibles, més enllà de la sincronització temporal. Posteriorment, presentem un sistema de generació automàtica de gestos i animació facial a partir d'una senyal de veu: BodySpeech. Aquest sistema també inclou millores en l'animació, major reaprofitament de les dades d'entrada i sincronització més flexible, i noves funcionalitats com l'edició de l'estil les animacions de sortida. A més, l'animació facial també té en compte l'entonació de la veu. Finalment, s'han traslladat els personatges virtuals dels entorns virtuals al món físic per tal d'explorar les possibilitats d'interacció amb objectes reals. Per aquest fi, presentem els AvatARs, personatges virtuals que tenen representació tangible i que es visualitzen integrats en la realitat a través d'un dispositiu mòbil gràcies a la realitat augmentada. El control de l'animació es duu a terme per mitjà d'un objecte físic que l'usuari manipula, seleccionant i parametritzant les animacions, i que al mateix temps serveix com a suport per a la representació del personatge virtual. Posteriorment, s'ha explorat la interacció dels AvatARs amb objectes físics intel·ligents com el robot social Pleo. El Pleo s'utilitza per a assistir a nens hospitalitzats en teràpia o simplement per jugar. Tot i els seus beneficis, hi ha una manca de relació emocional i interacció entre els nens i el Pleo que amb el temps fa que els nens perdin l'interès en ell. Així doncs, hem creat un escenari d'interacció mixt on el Vleo (un AvatAR en forma de Pleo; element virtual) i el Pleo (element real) interactuen de manera natural. Aquest escenari s'ha testejat i els resultats conclouen que els AvatARs milloren la motivació per jugar amb el Pleo, obrint un nou horitzó en la interacció dels personatges virtuals amb robots.
Esta tesis se enmarca dentro del mundo de la animación de personajes virtuales tridimensionales. Los personajes virtuales se utilizan en muchas aplicaciones de interacción hombre máquina, como los videojuegos y los serious games, donde dentro de mundo virtuales se mueven y actúan de manera similar a los humanos, y son controlados por usuarios por mediante de alguna interfaz, o de otro modo, por sistemas inteligentes. Retos como conseguir movimientos fluidos y comportamiento natural, controlar en tiempo real el movimiento de manera intuitiva y precisa, y incluso explorar la interacción de los personajes virtuales con elementos físicos inteligentes; son los que se trabajan a continuación con el objetivo de contribuir en la generación de personajes virtuales responsivos, expresivos y tangibles. La navegación dentro de los mundos virtuales hace uso de locomociones como andar, correr, etc. Para conseguir el máximo realismo, se capturan y reutilizan movimientos de actores para animar los personajes virtuales. Así funcionan los motion graphs, una estructura que encapsula movimientos y que por mediante búsquedas en ella, los concatena creando un flujo contínuo. La síntesi de locomociones usando los motion graphs comporta un compromiso entre el número de transiciones entre las distintas locomociones, y la calidad de estas (similitud entre las posturas a conectar). Para superar este inconveniente, proponemos el método transiciones progresivas usando Body Part Motion Graphs (BPMGs). Este método trata los movimientos de manera parcial, y genera transiciones específicas y sincronizadas para cada parte del cuerpo (grupo de articulaciones) dentro de una ventana temporal. Por lo tanto, la conectividad del sistema no está vinculada a la similitud de posturas globales, permitiendo encontrar más puntos de transición y de más calidad, incrementando la rapidez en respuesta y ejecución de las transiciones respeto a los motion graphs estándards. En segundo lugar, más allá de conseguir transiciones rápidas y movimientos fluídos, los personajes virtuales también interaccionan entre ellos y con los usuarios hablando, creando la necesidad de generar movimientos apropiados a la voz que reproducen. Los gestos forman parte del lenguaje no verbal que acostumbra a acompañar a la voz. La credibilidad de los personajes virtuales parlantes está vinculada a la naturalidad de sus movimientos y a la concordancia que estos tienen con la voz, sobretodo con la entonación de esta. Así pues, hemos realizado el análisis de la relación entre los gestos y la voz, y la consecuente generación de gestos de acuerdo a la voz. Se han definido indicadores de intensidad tanto para gestos (GSI, Gesture Strength Indicator) como para la voz (PSI, Pitch Strength Indicator), y se ha estudiado la relación temporal y de intensidad para establecer unas reglas de sincronía temporal y de intensidad. Más adelante se presenta el Gesture Motion Graph (GMG), que selecciona gestos adientes a la voz de entrada (texto etiquetado a partir de la señal de voz) y las normas mencionadas. La evaluación de las animaciones resultantes demuestra la importancia de relacionar la intensidad para generar animaciones creíbles, más allá de la sincronización temporal. Posteriormente, presentamos un sistema de generación automática de gestos y animación facial a partir de una señal de voz: BodySpeech. Este sistema también incluye mejoras en la animación, como un mayor aprovechamiento de los datos de entrada y una sincronización más flexible, y nuevas funcionalidades como la edición del estilo de las animaciones de salida. Además, la animación facial también tiene en cuenta la entonación de la voz. Finalmente, se han trasladado los personajes virtuales de los entornos virtuales al mundo físico para explorar las posibilidades de interacción con objetos reales. Para este fin, presentamos los AvatARs, personajes virtuales que tienen representación tangible y que se visualizan integrados en la realidad a través de un dispositivo móvil gracias a la realidad aumentada. El control de la animación se lleva a cabo mediante un objeto físico que el usuario manipula, seleccionando y configurando las animaciones, y que a su vez sirve como soporte para la representación del personaje. Posteriormente, se ha explorado la interacción de los AvatARs con objetos físicos inteligentes como el robot Pleo. Pleo se utiliza para asistir a niños en terapia o simplemente para jugar. Todo y sus beneficios, hay una falta de relación emocional y interacción entre los niños y Pleo que con el tiempo hace que los niños pierdan el interés. Así pues, hemos creado un escenario de interacción mixto donde Vleo (AvatAR en forma de Pleo; virtual) y Pleo (real) interactúan de manera natural. Este escenario se ha testeado y los resultados concluyen que los AvatARs mejoran la motivación para jugar con Pleo, abriendo un nuevo horizonte en la interacción de los personajes virtuales con robots.
Terziman, Léo. "Contribution à l'Étude des Techniques d'Interaction 3D et des Retours Sensoriels pour Améliorer la Navigation et la Marche en Réalité Virtuelle." Phd thesis, INSA de Rennes, 2012. http://tel.archives-ouvertes.fr/tel-00767488.
Full textWang, Jia. "Isometric versus Elastic Surfboard Interfaces for 3D Travel in Virtual Reality." Digital WPI, 2011. https://digitalcommons.wpi.edu/etd-theses/874.
Full textSantos, Lages Wallace. "Walk-Centric User Interfaces for Mixed Reality." Diss., Virginia Tech, 2018. http://hdl.handle.net/10919/84460.
Full textPh. D.
Silveira, Junior Wedson Gomes da. "Manipulação de objetos 3D em ambientes colaborativos com o uso do dispositivo Kinect." Universidade Federal de Uberlândia, 2013. https://repositorio.ufu.br/handle/123456789/14523.
Full textAs pesquisas na área de interação natural vêm crescendo significativamente, pois, com a disseminação de computadores pessoais, existe uma demanda crescente por interfaces que maximizem a produtividade. Dentre essas interfaces podemos destacar a Realidade Virtual e a Realidade Aumentada (KIRNER, TORI e SISCOUTO, 2006), de forma que os usuários possam realizar tarefas simples como: escolha de um objeto 3D, translação, rotação e mudança de escala neste objeto 3D. Essas tarefas normalmente são realizadas através de dispositivos como o teclado e o mouse, podendo, dessa maneira, acontecer uma perda de imersão por parte do usuário no ambiente virtual. Sendo assim, investigar metodologias para interação natural nesses ambientes, pode ajudar a aumentar a imersão do usuário, no ambiente virtual. Outra questão que vem sendo o foco de muitas pesquisas são os Ambientes Virtuais Colaborativos (KIRNER e TORI, 2004), que permitem aos usuários se comunicarem e compartilhar informações. Esses usuários podem estar próximos fisicamente ou não. O foco principal desse trabalho é justamente a comunicação entre usuários dispersos remotamente. Dessa maneira, pretende-se, com esse trabalho, propor um sistema que possibilite a manipulação objetos 3D através de gestos naturais e compartilhar dados com usuários dispersos remotamente.
Mestre em Ciências
Hachet, Martin. "Interfaces utilisateur 3D, des terminaux mobiles aux environnements virtuels immersifs." Habilitation à diriger des recherches, Université Sciences et Technologies - Bordeaux I, 2010. http://tel.archives-ouvertes.fr/tel-00576663.
Full textPouke, M. (Matti). "Augmented virtuality:transforming real human activity into virtual environments." Doctoral thesis, Oulun yliopisto, 2015. http://urn.fi/urn:isbn:9789526208343.
Full textTiivistelmä Tämän väitöskirjatyön aiheena on ihmistoiminnan muuntaminen todellisesta maailmasta virtuaalitodellisuuteen. Työssä käsitellään kuinka näkyvästä ihmistoiminnasta tunnistetaan sensoriverkkojen avulla erilaisia ominaisuuksia ja kuinka nämä ominaisuudet voidaan esittää eri tavoin virtuaaliympäristöissä. Ihmistoiminnan muuntaminen virtuaaliympäristöihin on kohtalaisen uusi tutkimusalue. Olemassa oleva tutkimus keskittyy yleensä kerrallaan vain tietyntyyppisen ihmistoiminnan, kuten perustoimintojen tai liikkumisen, tunnistamiseen ja visualisointiin. Erilaiset anturit ja muut datalähteet pystyvät kuitenkin tuottamaan hyvin erityyppistä dataa ja siten soveltuvat hyvin erilaisiin käyttötapauksiin. Tämä työ tutkii ensimmäisten joukossa ihmistoiminnan tunnistamista ja visualisointia virtuaaliympäristössä laajemmassa mittakaavassa ja useista teoreettisista näkökulmista tarkasteltuna. Työssä hyödynnetään konstrukteja jotka on kehitetty eri käyttötapauksia varten. Konstruktit ovat sekoitetun todellisuuden sovelluksia joissa hyödynnetään erityyppistä lähdedataa ja visualisoidaan ihmistoimintaa eri tavoin. Konstrukteja arvioidaan sekä niiden käytännön sovellusalueen, että erilaisten teoreettisten viitekehysten kannalta. Tulokset viittaavat siihen, että erilaisilla muunnoksilla on selkeästi erityyppiset ominaisuudet. Selkein teoreettinen löydös on, että mitä yksityiskohtaisemmasta toiminnasta on kyse, sitä vähemmän tunnistuksessa voidaan hyödyntää kontekstuaalista tietoa tai tavanomaisia datalähteitä. Tuloksissa tuodaan myös uusia näkökulmia ihmistoiminnan visualisoinnin hyödyntämisestä erilaisissa käytännön sovelluskohteissa. Sovelluskohteina toimivat ihmiskehon käyttäminen ohjauslaitteena sekä ihmistoiminnan visualisointi ja simulointi kotihoidon ja kaupunkisuunnittelun sovellusalueilla
Barnes, Evans Katie. "Beyond the Screen: Embedded Interfaces as Retail Wayfinding Tools." Kent State University / OhioLINK, 2017. http://rave.ohiolink.edu/etdc/view?acc_num=kent1493251709396537.
Full textBooks on the topic "VIRTUAL REALITY 3D GRAPHIC INTERFACES"
Xuelei, Qian, and ebrary Inc, eds. OpenSceneGraph 3.0: Beginner's guide : create high-performance virtual reality applications with OpenSceneGraph, one of the best 3D graphics engines. Birmingham, U.K: Packt Open Source, 2010.
Find full textCai, Yiyu. 3D Immersive and Interactive Learning. Singapore: Springer Singapore, 2013.
Find full textIEEE Symposium on 3D User Interfaces (2008 Reno, Nev.). 3DUI: IEEE Symposium on 3D User Interfaces 2008 : Reno, Nevada, USA, March 8-9, 2008 : proceedings. Piscataway, NJ: Institute of Electrical and Electronics Engineers, 2008.
Find full textMinn.) IEEE Symposium on 3D User Interfaces (9th 2014 Minneapolis. 2014 IEEE Symposium on 3D User Interfaces (3DUI 2014): Minneapolis, Minnesota, USA, 29-30 March 2014. Piscataway, NJ: IEEE, 2014.
Find full textIEEE Symposium on 3D User Interfaces (2nd 2007 Charlotte, N.C.). 3DUI: IEEE Symposium on 3D User Interfaces 2007 : proceedings, Charlotte, North Carolina, USA, March 10-11, 2007. Piscataway, NJ: Institute of Electrical and Electronics Engineers, 2007.
Find full textOrlando, Fla ). IEEE Symposium on 3D User Interfaces (8th 2013. 2013 IEEE Symposium on 3D User Interface (3DUI 2013): Orlando, Florida, USA, 16-17 March 2013. Piscataway, NJ: IEEE, 2013.
Find full textStaff, IEEE. 2022 IEEE Conference on Virtual Reality and 3D User Interfaces (VR). IEEE, 2022.
Find full textStaff, IEEE. 2022 IEEE Conference on Virtual Reality and 3D User Interfaces Abstracts and Workshops (VRW). IEEE, 2022.
Find full textBook chapters on the topic "VIRTUAL REALITY 3D GRAPHIC INTERFACES"
Lacoche, Jérémy, Thierry Duval, Bruno Arnaldi, Eric Maisel, and Jérôme Royan. "3DPlasticToolkit: Plasticity for 3D User Interfaces." In Virtual Reality and Augmented Reality, 62–83. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-31908-3_5.
Full textLacoche, Jérémy, Thierry Duval, Bruno Arnaldi, Eric Maisel, and Jérôme Royan. "Machine Learning Based Interaction Technique Selection for 3D User Interfaces." In Virtual Reality and Augmented Reality, 33–51. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-31908-3_3.
Full textCannavò, Alberto, Davide Calandra, Aidan Kehoe, and Fabrizio Lamberti. "Evaluating Consumer Interaction Interfaces for 3D Sketching in Virtual Reality." In Lecture Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering, 291–306. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-73426-8_17.
Full textRiddershom Bargum, Anders, Oddur Ingi Kristjánsson, Péter Babó, Rasmus Eske Waage Nielsen, Simon Rostami Mosen, and Stefania Serafin. "Spatial Audio Mixing in Virtual Reality." In Sonic Interactions in Virtual Environments, 269–302. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-04021-4_9.
Full textAndujar, Carlos, and Pere Brunet. "A Critical Analysis of Human-Subject Experiments in Virtual Reality and 3D User Interfaces." In Lecture Notes in Computer Science, 79–90. Cham: Springer International Publishing, 2015. http://dx.doi.org/10.1007/978-3-319-17043-5_5.
Full textZappi, Victor, Dario Mazzanti, and Florent Berthaut. "From the Lab to the Stage: Practical Considerations on Designing Performances with Immersive Virtual Musical Instruments." In Sonic Interactions in Virtual Environments, 383–424. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-04021-4_13.
Full textJasmine, S. Graceline, L. Jani Anbarasi, Modigari Narendra, and Benson Edwin Raj. "Augmented and Virtual Reality and Its Applications." In Multimedia and Sensory Input for Augmented, Mixed, and Virtual Reality, 68–85. IGI Global, 2021. http://dx.doi.org/10.4018/978-1-7998-4703-8.ch003.
Full textSantoianni, Flavia, and Alessandro Ciasullo. "Digital and Spatial Education Intertwining in the Evolution of Technology Resources for Educational Curriculum Reshaping and Skills Enhancement." In Virtual Reality in Education, 330–47. IGI Global, 2019. http://dx.doi.org/10.4018/978-1-5225-8179-6.ch016.
Full textArmiano, Ioana. "Creative Interfaces." In Innovative Design and Creation of Visual Interfaces, 192–219. IGI Global, 2012. http://dx.doi.org/10.4018/978-1-4666-0285-4.ch014.
Full textGaspar, Filipe, Rafael Bastos, and Miguel Sales. "Accurate Infrared Tracking System for Immersive Virtual Environments." In Innovative Design and Creation of Visual Interfaces, 318–43. IGI Global, 2012. http://dx.doi.org/10.4018/978-1-4666-0285-4.ch020.
Full textConference papers on the topic "VIRTUAL REALITY 3D GRAPHIC INTERFACES"
"IEEE Visualization and Graphics Technical Committee (VGTC)." In 2021 IEEE Virtual Reality and 3D User Interfaces (VR). IEEE, 2021. http://dx.doi.org/10.1109/vr50410.2021.00008.
Full textRiecke, Bernhard E., Joseph J. LaViola, and Ernst Kruijff. "3D user interfaces for virtual reality and games." In SIGGRAPH '18: Special Interest Group on Computer Graphics and Interactive Techniques Conference. New York, NY, USA: ACM, 2018. http://dx.doi.org/10.1145/3214834.3214869.
Full textMuller, Christoph, Matthias Braun, and Thomas Ertl. "Optimised Molecular Graphics on the HoloLens." In 2019 IEEE Conference on Virtual Reality and 3D User Interfaces (VR). IEEE, 2019. http://dx.doi.org/10.1109/vr.2019.8798111.
Full text"IEEE Visualization and Graphics Technical Committee (VGTC)." In 2018 IEEE Conference on Virtual Reality and 3D User Interfaces (VR). IEEE, 2018. http://dx.doi.org/10.1109/vr.2018.8446353.
Full text"IEEE Visualization and Graphics Technical Committee (VGTC)." In 2019 IEEE Conference on Virtual Reality and 3D User Interfaces (VR). IEEE, 2019. http://dx.doi.org/10.1109/vr.2019.8798109.
Full textHobson, Tanner, Jeremiah Duncan, Mohammad Raji, Aidong Lu, and Jian Huang. "Alpaca: AR Graphics Extensions for Web Applications." In 2020 IEEE Conference on Virtual Reality and 3D User Interfaces (VR). IEEE, 2020. http://dx.doi.org/10.1109/vr46266.2020.00036.
Full textHobson, Tanner, Jeremiah Duncan, Mohammad Raji, Aidong Lu, and Jian Huang. "Alpaca: AR Graphics Extensions for Web Applications." In 2020 IEEE Conference on Virtual Reality and 3D User Interfaces (VR). IEEE, 2020. http://dx.doi.org/10.1109/vr46266.2020.1581207820146.
Full textKaur, Akriti, and Pradeep G. Yammiyavar. "A comparative study of 2D and 3D mobile keypad user interaction preferences in virtual reality graphic user interfaces." In VRST '17: 23rd ACM Symposium on Virtual Reality Software and Technology. New York, NY, USA: ACM, 2017. http://dx.doi.org/10.1145/3139131.3141221.
Full textWhitlock, Matt, Stephen Smart, and Danielle Albers Szafir. "Graphical Perception for Immersive Analytics." In 2020 IEEE Conference on Virtual Reality and 3D User Interfaces (VR). IEEE, 2020. http://dx.doi.org/10.1109/vr46266.2020.00084.
Full textWhitlock, Matt, Stephen Smart, and Danielle Albers Szafir. "Graphical Perception for Immersive Analytics." In 2020 IEEE Conference on Virtual Reality and 3D User Interfaces (VR). IEEE, 2020. http://dx.doi.org/10.1109/vr46266.2020.1582298687237.
Full text