Gotowa bibliografia na temat „Image visible”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „Image visible”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Artykuły w czasopismach na temat "Image visible"
Uddin, Mohammad Shahab, Chiman Kwan i Jiang Li. "MWIRGAN: Unsupervised Visible-to-MWIR Image Translation with Generative Adversarial Network". Electronics 12, nr 4 (20.02.2023): 1039. http://dx.doi.org/10.3390/electronics12041039.
Pełny tekst źródłaDong, Yumin, Zhengquan Chen, Ziyi Li i Feng Gao. "A Multi-Branch Multi-Scale Deep Learning Image Fusion Algorithm Based on DenseNet". Applied Sciences 12, nr 21 (30.10.2022): 10989. http://dx.doi.org/10.3390/app122110989.
Pełny tekst źródłaZhang, Yongxin, Deguang Li i WenPeng Zhu. "Infrared and Visible Image Fusion with Hybrid Image Filtering". Mathematical Problems in Engineering 2020 (29.07.2020): 1–17. http://dx.doi.org/10.1155/2020/1757214.
Pełny tekst źródłaSon, Dong-Min, Hyuk-Ju Kwon i Sung-Hak Lee. "Visible and Near Infrared Image Fusion Using Base Tone Compression and Detail Transform Fusion". Chemosensors 10, nr 4 (25.03.2022): 124. http://dx.doi.org/10.3390/chemosensors10040124.
Pełny tekst źródłaLiu, Zheng, Su Mei Cui, He Yin i Yu Chi Lin. "Comparative Analysis of Image Measurement Accuracy in High Temperature Based on Visible and Infrared Vision". Applied Mechanics and Materials 300-301 (luty 2013): 1681–86. http://dx.doi.org/10.4028/www.scientific.net/amm.300-301.1681.
Pełny tekst źródłaHuang, Hui, Linlu Dong, Zhishuang Xue, Xiaofang Liu i Caijian Hua. "Fusion algorithm of visible and infrared image based on anisotropic diffusion and image enhancement (capitalize only the first word in a title (or heading), the first word in a subtitle (or subheading), and any proper nouns)". PLOS ONE 16, nr 2 (19.02.2021): e0245563. http://dx.doi.org/10.1371/journal.pone.0245563.
Pełny tekst źródłaXu, Dongdong, Yongcheng Wang, Shuyan Xu, Kaiguang Zhu, Ning Zhang i Xin Zhang. "Infrared and Visible Image Fusion with a Generative Adversarial Network and a Residual Network". Applied Sciences 10, nr 2 (11.01.2020): 554. http://dx.doi.org/10.3390/app10020554.
Pełny tekst źródłaNiu, Yifeng, Shengtao Xu, Lizhen Wu i Weidong Hu. "Airborne Infrared and Visible Image Fusion for Target Perception Based on Target Region Segmentation and Discrete Wavelet Transform". Mathematical Problems in Engineering 2012 (2012): 1–10. http://dx.doi.org/10.1155/2012/275138.
Pełny tekst źródłaYang, Shihao, Min Sun, Xiayin Lou, Hanjun Yang i Dong Liu. "Nighttime Thermal Infrared Image Translation Integrating Visible Images". Remote Sensing 16, nr 4 (13.02.2024): 666. http://dx.doi.org/10.3390/rs16040666.
Pełny tekst źródłaBatchuluun, Ganbayar, Se Hyun Nam i Kang Ryoung Park. "Deep Learning-Based Plant Classification Using Nonaligned Thermal and Visible Light Images". Mathematics 10, nr 21 (1.11.2022): 4053. http://dx.doi.org/10.3390/math10214053.
Pełny tekst źródłaRozprawy doktorskie na temat "Image visible"
Salvador, Amaia. "Computer vision beyond the visible : image understanding through language". Doctoral thesis, Universitat Politècnica de Catalunya, 2019. http://hdl.handle.net/10803/667162.
Pełny tekst źródłaEn l'última dècada, les xarxes neuronals profundes han revolucionat el camp de la visió per computador. Els resultats favorables obtinguts amb arquitectures neuronals profundes entrenades per resoldre tasques de reconeixement visual han causat un canvi de paradigma cap al disseny de mètodes basats en representacions d'imatges apreses de manera automàtica, deixant enrere les tècniques tradicionals basades en l'enginyeria de representacions. Aquest canvi ha permès l'aparició de tècniques basades en l'aprenentatge d'extrem a extrem (end-to-end), capaces de resoldre de manera efectiva molts dels problemes tradicionals de la visió per computador (e.g. classificació d'imatges o detecció d'objectes), així com nous problemes emergents com la descripció textual d'imatges (image captioning). Donat el context de la ràpida evolució de la visió per computador en el qual aquesta tesi s'emmarca, presentem contribucions alineades amb tres dels canvis més importants que la visió per computador ha experimentat recentment: 1) la reutilització de representacions extretes de models neuronals pre-entrenades per a tasques auxiliars, 2) els avantatges de formular els problemes amb solucions end-to-end entrenades amb grans bases de dades, i 3) el creixent interès en utilitzar llenguatge natural en lloc de conjunts d'etiquetes categòriques pre-definits per descriure el contingut visual de les imatges, facilitant així l'extracció d'informació visual més enllà del reconeixement de l'escena i els elements que la composen La primera part de la tesi està dedicada al problema de la cerca d'imatges (image retrieval), centrada especialment en l'obtenció de representacions visuals significatives i discriminatòries que permetin la recuperació eficient i efectiva d'imatges donada una consulta formulada amb una imatge d'exemple. Les contribucions en aquesta part de la tesi inclouen la construcció de representacions Bag-of-Words a partir de descriptors locals obtinguts d'una xarxa neuronal entrenada per classificació, així com un estudi dels avantatges d'utilitzar xarxes neuronals per a detecció d'objectes entrenades utilitzant les imatges d'exemple, amb l'objectiu de millorar les capacitats discriminatòries de les representacions obtingudes. La segona part de la tesi presenta contribucions al problema de predicció de conjunts a partir d'imatges (image to set prediction), entès com la tasca de predir una col·lecció no ordenada d'elements de longitud variable donada una imatge d'entrada. En aquest context, presentem una anàlisi exhaustiva dels mètodes actuals per a la classificació multi-etiqueta d'imatges, que són capaços de resoldre la tasca de manera integral calculant simultàniament la distribució probabilística sobre etiquetes i la cardinalitat del conjunt. Seguidament, estenem l'anàlisi dels mètodes de predicció de conjunts a la segmentació d'instàncies semàntiques, presentant un model recurrent capaç de predir conjunts d'objectes (representats per màscares binàries i etiquetes categòriques) de manera seqüencial. Finalment, la tercera part de la tesi estén els coneixements apresos en les dues parts anteriors per presentar solucions d'aprenentatge profund per connectar imatges amb llenguatge natural en el context de receptes de cuina i imatges de plats cuinats. En primer lloc, proposem una solució basada en algoritmes de cerca, on la recepta escrita i la imatge es codifiquen amb representacions compactes que permeten la recuperació d'una donada l'altra. En segon lloc, com a alternativa a la solució basada en algoritmes de cerca, proposem un model generatiu capaç de predir receptes (compostes pels seus ingredients, predits com a conjunts, i instruccions) directament a partir d'imatges de menjar.
Font, Aragonès Xavier. "Visible, near infrared and thermal hand-based image biometric recognition". Doctoral thesis, Universitat Politècnica de Catalunya, 2013. http://hdl.handle.net/10803/117685.
Pełny tekst źródłaEl Reconeixement Biomètric fa referència a la identi cació automàtica de persones fent us d'alguna característica o modalitat anatòmica (empremta digital) o d'alguna característica de comportament (signatura). És un aspecte fonamental en qualsevol procés relacionat amb la seguretat, la compartició de recursos o les transaccions electròniques entre d'altres. És converteix en un pas imprescindible abans de concedir l'autorització. Aquesta autorització, s'entén que protegeix recursos clau, permeten així, que aquests siguin utilitzats pels usuaris que han estat autoritzats a utilitzar-los o a tenir-hi accés. Els sistemes biomètrics poden funcionar en veri cació, on es resol la pregunta: Soc jo qui dic que soc? O en identi cació on es resol la qüestió: Qui soc jo? La comunitat cientí ca ha incrementat els seus esforços per millorar el rendiment dels sistemes biomètrics. En funció de l'aplicació, diverses solucions s'adrecen a treballar amb múltiples modalitats o combinant diferents mètodes de classi cació. Donat que incrementar el número de modalitats, representa a la vegada problemes pels usuaris, moltes d'aquestes aproximacions no arriben mai al mercat. La tesis contribueix principalment en tres grans àrees, totes elles amb el denominador comú següent: Reconeixement biometric a través de les mans. i) La primera d'elles constitueix la base de qualsevol estudi, les dades. Per poder interpretar, i establir un sistema de reconeixement biomètric prou robust amb un clar enfocament a múltiples fonts d'informació, però amb el mínim esforç per part de l'usuari es construeix aquesta Base de Dades de mans multi espectral. Les bases de dades biomètriques constitueixen un recurs molt preuat per a la recerca; sobretot si ofereixen algun element nou com es el cas. Imatges de mans en diferents espectres electromagnètics: en visible (VIS), en infraroig (NIR) i en tèrmic (TIR). Amb un total de 100 usuaris, i 10 mostres per usuari, constitueix un bon punt de partida per estudiar i posar a prova sistemes multi biomètrics enfocats a les mans. ii) El segon bloc s'adreça a les dues aproximacions existents en la literatura per a tractar les dades en brut. Aquestes dues aproximacions, anomenades Holística (tracta la imatge com un tot) i Geomètrica (utilitza càlculs geomètrics) de neixen el focus alhora d'extreure el vector de característiques. Abans de tractar alguna d'aquestes dues aproximacions, però, és necessària l'aplicació de diferents tècniques de preprocessat digital de la imatge per obtenir les regions d'interès desitjades. Diferents problemes presents a les imatges s'han hagut de solucionar de forma original per a cadascuna de les tipologies de les imatges presents: VIS, NIR i TIR. VIS: imatges sobre exposades, anells, mànigues, braçalets. NIR: Ungles pintades, distorsió en forma de soroll en les imatges TIR: Dits freds La segona àrea presenta aspectes innovadors, ja que a part de segmentar la imatge de la ma, es segmenten tots i cadascun dels dits (feature-based approach). Així aconseguim contrastar la seva capacitat de reconeixement envers la ma de forma completa. Addicionalment es presenta un conjunt de procediments geomètrics amb la idea de comparar-los amb els provinents de l'extracció holística. La tercera i última àrea contrasta el procediment de classi cació anomenat Biometric Dispersion Matcher (BDM) amb diferents situacions. La primera relacionada amb l'efectivitat respecte d'altres mètode de reconeixement, com ara l'Anàlisi Lineal Discriminant (LDA) o bé mètodes com KNN o la regressió logística. Les altres situacions que s'analitzen tenen a veure amb múltiples fonts d'informació, quan s'apliquen tècniques de normalització i/o estratègies de combinació (fusió) per millorar els resultats. Els resultats obtinguts no deixen lloc per a la confusió, i són certament prometedors en el sentit que posen a la llum la importància de combinar informació complementària per obtenir rendiments superiors.
Yigit, Ahmet. "Thermal And Visible Band Image Fusion For Abandoned Object Detection". Master's thesis, METU, 2010. http://etd.lib.metu.edu.tr/upload/3/12611720/index.pdf.
Pełny tekst źródłaKarlsson, Jonas. "FPGA-Accelerated Dehazing by Visible and Near-infrared Image Fusion". Thesis, Mälardalens högskola, Akademin för innovation, design och teknik, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:mdh:diva-28322.
Pełny tekst źródłaALMEIDA, MARIA DA GLORIA DE SOUZA. "SEEING BEYOND THE VISIBLE: THE IMAGE OUT OF THE EYES". PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO, 2017. http://www.maxwell.vrac.puc-rio.br/Busca_etds.php?strSecao=resultado&nrSeq=30174@1.
Pełny tekst źródłaCOORDENAÇÃO DE APERFEIÇOAMENTO DO PESSOAL DE ENSINO SUPERIOR
PROGRAMA DE SUPORTE À PÓS-GRADUAÇÃO DE INSTS. DE ENSINO
A proposição da temática desta tese constitui-se no levantamento da discussão que trouxe à tona a possibilidade real de uma pessoa cega construir imagens mentais. Discutiu-se, pois, a viabilidade da construção dessas imagens a partir das próprias condições de que o indivíduo cego é dotado. Procurou-se demostrar como o corpo com seus sentidos e suas ilimitadas valências, converte-se em instrumental capaz de acionar recursos sensoriais que dão informações, passam dados, concretizam sensações e percepções, formulam conceitos. Sobre o tripé – conhecimento, cultura e artes –, fez-se uma pesquisa que, pela complexidade e abrangência do assunto, exigiu o cruzamento de diferentes disciplinas, de diversas linhas de pensamento, ainda que guardando diferenças pudessem estabelecer um diálogo que levasse a compreensão mais clara ao cerne da proposta feita. Recorreu-se a Zubiri, Bachelard e Durand para compor a base da leitura de três poetas cegas e da escritora Marina Colasanti, apontando a força expressiva das imagens em ambos os casos.
The proposition of the theme of this thesis is the discussion collection that highlights the real possibility of a blind person to construct mental images. The possibility of constructing these images was therefore discussed from the very conditions of which the blind individual is endowed. We sought to demonstrate how the body, with its senses and its unlimited valences, becomes an instrument capable of assessing sensory resources which give information, pass data, materialize sensations and perceptions, formulate concepts. On the tripod - knowledge, culture and the arts - a research was made that due to the complexity and comprehensiveness of the subject, required the crossing of different disciplines, of different lines of thought, even if keeping their differences it could establish a dialogue that would lead to understanding clearly the heart of the proposal. Zubiri, Bachelard and Durand were used to compose the basis of the reading of three blind poets and the writer Marina Colasanti, pointing out the expressive force of the images in both cases.
Nielsen, Casper Falkenberg. "A robust framework for medical image segmentation through adaptable class-specific representation". Thesis, Middlesex University, 2002. http://eprints.mdx.ac.uk/13507/.
Pełny tekst źródłaDi, Mercurio Francine. "Les images scéniques de Romeo Castellucci : expérience d'un théâtre plastique". Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM3025.
Pełny tekst źródłaSome theatrical pieces from this 21st century seem to include in their esthetical project a question of the perceptive order by creating new ways of seeing, hearing and being affected. The drama ‒ as an action ‒ finds itself updated in a form addressing to the spectator’s perceptions through visual dramaturgy, even perceptive, based on a factory of scenic images. Our study offers to invest in the theater field a part of the research and thoughts about the image by putting into perspective the esthetical, philosophical, and even political questions that the notion of scenic image raise.The particular piece from the Italian director Romeo Castellucci is representative of the visual artist’s specificity who finds on the stage a new creating support for images, a particular way of involving body, space, shape, matter and where the text, although especially mute, is haunting the stage. This plastic theater questions the foundations of traditional theater (action, character, fiction), creates a properly figural drama and tries to move the spectator’s sight. In an oscillation between visual appearance and disappearance, representation and unspeakable, he offers to the spectator an experiential process in a laboratory where image plays against image, worries the sight and the accepted perceptions of reality.The displacement of the image’s theory in the theatrical field will allow us, through Romeo Castellucci’s singular approach, to make our contribution to the operating procedures analysis of his aesthetic’s efficiency, reception mechanism of the spectator and critical and political skates of the contemporary theater
Whitelegg, Andrew Jeremy. "The visible and the invisible : the production of image in Atlanta". Thesis, King's College London (University of London), 1992. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.265549.
Pełny tekst źródłaRAWAT, URVASHI. "INFRARED AND VISIBLE IMAGE FUSION USING HYBRID LWT AND PCA METHOD". Thesis, DELHI TECHNOLOGICAL UNIVERSITY, 2021. http://dspace.dtu.ac.in:8080/jspui/handle/repository/18907.
Pełny tekst źródłaHu, Lequn. "Development and evaluation of image registration and segmentation algorithms for long wavelength infrared and visible wavelength images". Master's thesis, Mississippi State : Mississippi State University, 2009. http://library.msstate.edu/etd/show.asp?etd=etd-07082009-171221.
Pełny tekst źródłaKsiążki na temat "Image visible"
Jones, Philippe. Image verbale, image visible. Châtelineau, Belgique: Le Taillis pré, 2013.
Znajdź pełny tekst źródłaAhijado, Jorge Quijano. Autour du visible, l'image et la fuite. Paris: Editions L'Harmattan, 2014.
Znajdź pełny tekst źródłaOlins, Wally. Corporate identity: Making business strategy visible through design. Boston, Mass: Harvard Business School Press, 1990.
Znajdź pełny tekst źródłaOlins, Wally. Corporate identity: Making business strategy visible through design. London: Thames and Hudson, 1989.
Znajdź pełny tekst źródłaVauday, Patrick. L'invention du visible: L'image à la lumière des arts. Paris: Hermann éditeurs, 2008.
Znajdź pełny tekst źródłaH, Roosen-Runge Peter, Roosen-Runge Anna P i Canadian Heritage Information Network, red. The virtual display case: Making museum image assets safety visible. Wyd. 3. Ottawa, Ont: Canadian Heritage Information Network, 2003.
Znajdź pełny tekst źródłaAnne, Kerlan-Stephens, i Sakai Cécile, red. Du visible au lisible: Texte et image en Chine et au Japon. Arles: Picquier, 2006.
Znajdź pełny tekst źródłaBernd-Rüdiger, Hüppauf, i Wulf Christoph 1944-, red. Dynamics and performativity of imagination: The image between the visible and the invisible. New York: Routledge, 2009.
Znajdź pełny tekst źródłaFrancis M. Naumann Fine Art. The visible vagina: January 28 - March 20, 2010. New York: Francis M. Naumann Fine Art ; David Nolan Gallery, 2010.
Znajdź pełny tekst źródłaCenter, Langley Research, red. Modes of visual recognition and perceptually relevant sketch-based coding of images. Hampton, Va: National Aeronautics and Space Administration, Langley Research Center, 1991.
Znajdź pełny tekst źródłaCzęści książek na temat "Image visible"
Magnenat-Thalmann, Nadia, i Daniel Thalmann. "Visible surface algorithms". W Image Synthesis, 84–107. Tokyo: Springer Japan, 1987. http://dx.doi.org/10.1007/978-4-431-68060-4_5.
Pełny tekst źródłaDurou, Jean-Denis, Laurent Mascarilla i Didier Piau. "Non-visible deformations". W Image Analysis and Processing, 519–26. Berlin, Heidelberg: Springer Berlin Heidelberg, 1997. http://dx.doi.org/10.1007/3-540-63507-6_240.
Pełny tekst źródłaGorad, Ajinkya, Sakira Hassan i Simo Särkkä. "Vessel Bearing Estimation Using Visible and Thermal Imaging". W Image Analysis, 373–81. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-31438-4_25.
Pełny tekst źródłaKrishnan, Shoba, i Prathibha Sudhakaran. "Visible image and video watermarking". W Thinkquest~2010, 234–38. New Delhi: Springer India, 2011. http://dx.doi.org/10.1007/978-81-8489-989-4_43.
Pełny tekst źródłaSonka, Milan, Daniel R. Thedens, Boudewijn P. F. Lelieveldt, Steven C. Mitchell, Rob J. van der Geest i Johan H. C. Reiber. "Cardiovascular MR Image Analysis". W Computer Vision Beyond the Visible Spectrum, 193–239. London: Springer London, 2005. http://dx.doi.org/10.1007/1-84628-065-6_7.
Pełny tekst źródłaKhuwuthyakorn, Pattaraporn, Antonio Robles-Kelly i Jun Zhou. "Affine Invariant Hyperspectral Image Descriptors Based upon Harmonic Analysis". W Machine Vision Beyond Visible Spectrum, 179–99. Berlin, Heidelberg: Springer Berlin Heidelberg, 2011. http://dx.doi.org/10.1007/978-3-642-11568-4_8.
Pełny tekst źródłaZhang, Tong, Hui Xue, Shiqiang Wang i Dongfang Zhang. "Fire Detection Method Based on Infrared Image and Visible Image". W Proceedings of International Conference on Image, Vision and Intelligent Systems 2022 (ICIVIS 2022), 505–18. Singapore: Springer Nature Singapore, 2023. http://dx.doi.org/10.1007/978-981-99-0923-0_51.
Pełny tekst źródłaSengupta, Madhumita, i J. K. Mandal. "Color Image Authentication through Visible Patterns (CAV)". W ICT and Critical Infrastructure: Proceedings of the 48th Annual Convention of Computer Society of India- Vol II, 617–25. Cham: Springer International Publishing, 2014. http://dx.doi.org/10.1007/978-3-319-03095-1_67.
Pełny tekst źródłaClark, Pamela Elizabeth, i Michael Lee Rilee. "Visible and Circumvisible Regions and Image Interpretation". W Remote Sensing Tools for Exploration, 53–113. New York, NY: Springer New York, 2010. http://dx.doi.org/10.1007/978-1-4419-6830-2_3.
Pełny tekst źródłaDrury, S. A. "Digital processing of images in the visible and near infrared". W Image Interpretation in Geology, 118–48. Dordrecht: Springer Netherlands, 1987. http://dx.doi.org/10.1007/978-94-010-9393-4_5.
Pełny tekst źródłaStreszczenia konferencji na temat "Image visible"
Qian, Shen. "Visible Light Communications with Image Sensors". W 2024 9th Optoelectronics Global Conference (OGC), 69–72. IEEE, 2024. http://dx.doi.org/10.1109/ogc62429.2024.10738741.
Pełny tekst źródłaChen, Qi, i Rui Feng. "Model Pruning for Infrared-Visible Image Fusion". W 2024 2nd International Conference on Machine Vision, Image Processing & Imaging Technology (MVIPIT), 172–76. IEEE, 2024. https://doi.org/10.1109/mvipit65697.2024.00038.
Pełny tekst źródłaGao, Xundong, Chengcheng Zhang, Hui Chen i Yaning Yao. "Dual-Branch Infrared and Visible Image Fusion Framework". W 2024 6th International Conference on Frontier Technologies of Information and Computer (ICFTIC), 742–46. IEEE, 2024. https://doi.org/10.1109/icftic64248.2024.10913193.
Pełny tekst źródłaWu, Zhizhong, Jiajing Chen, Lianghao Tan, Hao Gong, Yuru Zhou i Ge Shi. "A Lightweight GAN-Based Image Fusion Algorithm for Visible and Infrared Images". W 2024 4th International Conference on Computer Science and Blockchain (CCSB), 466–70. IEEE, 2024. http://dx.doi.org/10.1109/ccsb63463.2024.10735676.
Pełny tekst źródłaKibe, Michiya, Takeru Inoue, Junya Morioka i Ryusuke Miyamoto. "Creation of Day-Night Visible-Thermal Paired Image Dataset via Image Registration". W 2024 Eighth IEEE International Conference on Robotic Computing (IRC), 190–93. IEEE, 2024. https://doi.org/10.1109/irc63610.2024.00021.
Pełny tekst źródłaCorda, Dijana Nazor, Jana Ziljak Grsic i Helena Bacinger Skrlec. "CREATING AN ARTISTIC WOOL RUG WITH A DOUBLE IMAGE IN THE VISUAL AND NEAR-INFRARED SPECTRA". W 11th SWS International Scientific Conferences on ART and HUMANITIES - ISCAH 2024, 123–36. SGEM WORLD SCIENCE, 2024. https://doi.org/10.35603/sws.iscah.2024/vs10.19.
Pełny tekst źródłaKim, Gahyeon, An Gia Vien, Duong Hai Nguyen i Chul Lee. "Feature Decomposition Transformers for Infrared and Visible Image Fusion". W 2024 IEEE International Conference on Image Processing (ICIP), 2662–68. IEEE, 2024. http://dx.doi.org/10.1109/icip51287.2024.10647365.
Pełny tekst źródłaLv, Guohua, Xinyue Fu, Chaoqun Sima, Yanlong Xu, Baodong Zhang i Hanju Bao. "Illumination-Enhanced Infrared and Low-Light Visible Image Fusion". W 2024 IEEE International Conference on Image Processing (ICIP), 2634–40. IEEE, 2024. http://dx.doi.org/10.1109/icip51287.2024.10647292.
Pełny tekst źródłaZhao, Zixiang, Shuang Xu, Chunxia Zhang, Junmin Liu, Jiangshe Zhang i Pengfei Li. "DIDFuse: Deep Image Decomposition for Infrared and Visible Image Fusion". W Twenty-Ninth International Joint Conference on Artificial Intelligence and Seventeenth Pacific Rim International Conference on Artificial Intelligence {IJCAI-PRICAI-20}. California: International Joint Conferences on Artificial Intelligence Organization, 2020. http://dx.doi.org/10.24963/ijcai.2020/135.
Pełny tekst źródłaChuang, Shang-Chih, Chun-Hsiang Huang i Ja-Ling Wu. "Unseen Visible Watermarking". W 2007 IEEE International Conference on Image Processing. IEEE, 2007. http://dx.doi.org/10.1109/icip.2007.4379296.
Pełny tekst źródłaRaporty organizacyjne na temat "Image visible"
Boopalan, Santhana. Aerial Wildlife Image Repository. Mississippi State University, 2023. http://dx.doi.org/10.54718/wvgf3020.
Pełny tekst źródłaTopolski, John. The magnitude image from the 50% compressed PPH (R) shows an increased noise floor visible in the shadows. Office of Scientific and Technical Information (OSTI), maj 2015. http://dx.doi.org/10.2172/1182685.
Pełny tekst źródłaHuang, Haohang, Jiayi Luo, Kelin Ding, Erol Tutumluer, John Hart i Issam Qamhia. I-RIPRAP 3D Image Analysis Software: User Manual. Illinois Center for Transportation, czerwiec 2023. http://dx.doi.org/10.36501/0197-9191/23-008.
Pełny tekst źródłaBurks, Thomas F., Victor Alchanatis i Warren Dixon. Enhancement of Sensing Technologies for Selective Tree Fruit Identification and Targeting in Robotic Harvesting Systems. United States Department of Agriculture, październik 2009. http://dx.doi.org/10.32747/2009.7591739.bard.
Pełny tekst źródłaHuang, Haohang, Erol Tutumluer, Jiayi Luo, Kelin Ding, Issam Qamhia i John Hart. 3D Image Analysis Using Deep Learning for Size and Shape Characterization of Stockpile Riprap Aggregates—Phase 2. Illinois Center for Transportation, wrzesień 2022. http://dx.doi.org/10.36501/0197-9191/22-017.
Pełny tekst źródłaAlexander, Serena, Bo Yang, Owen Hussey i Derek Hicks. Examining the Externalities of Highway Capacity Expansions in California: An Analysis of Land Use and Land Cover (LULC) Using Remote Sensing Technology. Mineta Transportation Institute, listopad 2023. http://dx.doi.org/10.31979/mti.2023.2251.
Pełny tekst źródłaKulhandjian, Hovannes. AI-Based Bridge and Road Inspection Framework Using Drones. Mineta Transportation Institute, listopad 2023. http://dx.doi.org/10.31979/mti.2023.2226.
Pełny tekst źródłaPautet, P. D., J. Stegmman, C. M. Wrasse, K. Nielsen, H. Takahashi, M. J. Taylor, K. W. Hoppel i S. D. Eckermann. Analysis of Gravity Waves Structures Visible in Noctilucent Cloud Images. Fort Belvoir, VA: Defense Technical Information Center, styczeń 2010. http://dx.doi.org/10.21236/ada523106.
Pełny tekst źródłaMcDonald, T. E. Jr, D. M. Numkena, J. Payton, G. J. Yates i P. Zagarino. Using optical parametric oscillators (OPO) for wavelength shifting IR images to visible spectrum. Office of Scientific and Technical Information (OSTI), grudzień 1998. http://dx.doi.org/10.2172/334329.
Pełny tekst źródłaHartter, Joel, i Chris Colocousis. Environmental, economic, and social changes in rural America visible in survey data and satellite images. University of New Hampshire Libraries, 2011. http://dx.doi.org/10.34051/p/2020.130.
Pełny tekst źródła