Academic literature on the topic 'Visión artificial'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Visión artificial.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Visión artificial"

1

Mota-Delfin, C., C. Juárez-González, and J. C. Olguín-Rojas. "Clasificación de manzanas utilizando visión artificial y redes neuronales artificiales." Ingeniería y Región 20 (December 28, 2018): 52–57. http://dx.doi.org/10.25054/22161325.1917.

Full text
Abstract:
El valor agregado en un fruto puede incrementarse con un buen manejo postcosecha. La clasificación en diferentes parámetros es de las operaciones más importantes. En las pequeñas empresas se realiza de forma manual obteniendo deficiencias en la calidad del producto. Estos problemas se podrían resolver o disminuir con la implementación de algoritmos inteligentes que en este caso incluyen visión artificial y redes neuronales artificiales. En este proyecto se presenta la clasificación de manzanas mediante un algoritmo inteligente, usando una red neuronal convolucional (CNN), la cual se desarrolla utilizando librerías de código abierto (OpenCV, Tensorflow y Keras) en Python con una estructura de diferentes capas convolucionales y MaxPooling, para un conjunto de 2,800 imágenes de 128x128 pixeles, de las cuales el 80% se utilizaron para entrenamiento y el 20% para hacer una prueba de la red, obteniendo una precisión del 98.3% y del 95.36%, respectivamente. Después del entrenamiento, se realizó una clasificación con un video en tiempo real, obteniendo una precisión del 92.25%. Asimismo, se explora la posibilidad de la utilización en la industria con la clasificación por otras características visuales del fruto como tamaño, color, forma, etc.
APA, Harvard, Vancouver, ISO, and other styles
2

Rojas Hernández, Rogelio, Ramón Silva Ortigoza, and María Aurora Molina Vilchis. "La Visión Artificial en la Robótica." Polibits 35 (January 31, 2007): 22–28. http://dx.doi.org/10.17562/pb-35-5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Garrote, Estibaliz, José A. Gutiérrez, Juan J. Andueza, and Javier García-Tejedor. "Visión artificial: Nuevas vías para el reciclaje." Informador Técnico 66 (November 21, 2003): 6. http://dx.doi.org/10.23850/22565035.851.

Full text
Abstract:
Se describe un método orientado a la separación de residuos por visión artificial "Sistema de separación de partículas por métodos ópticos”, el cual aborda las optimizaciones necesarias para obtener un mayor beneficio de los procesos de reciclaje.
APA, Harvard, Vancouver, ISO, and other styles
4

Nadal, J. "Visión artificial: una alternativa terapéutica de futuro." Archivos de la Sociedad Española de Oftalmología 93, no. 6 (June 2018): 261–62. http://dx.doi.org/10.1016/j.oftal.2018.03.002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

CRUZ, MAYO de COM HENRY. "LA VISIÓN POR COMPUTADORA Y LAS FUTURAS APLICACIONES TECNOLÓGICAS EN DIVERSOS ESCENARIOS." Revista de la Academia del Guerra del Ejército Ecuatoriano 12, no. 1 (July 14, 2021): 5. http://dx.doi.org/10.24133/age.n12.2019.13.

Full text
Abstract:
La supervivencia de la humanidad está ligada al desarrollo de la tecnología, la misma que le ha permitido solventar necesidades fisiológicas, de seguridad, sociales, entre otras. Según el Hiperciclo de Gartner1, las principales tecnologías que se encuentran en el pico de la innovación y la expectación, están asociadas a la inteligencia artificial2, el aprendizaje automático3 y las plataformas del internet de las cosas (IoT) 4 (Panetta, 2018). Justamente, a partir de estas tecnologías se espera que para los próximos años se desarrollen un sin número de aplicaciones relacionadas a la toma de decisiones en; el transporte (vehículos autónomos), asistentes personales y gru- pales (robots autónomos inteligentes, asistentes vir- tuales), hogares digitales conectados, interfaces cere- bro - computadora, biochips, etc. Aunque pareciera que estas tecnologías proceden de la ciencia ficción, no es así, pues en este momento grupos y redes de investigación alrededor del mundo están trabajando en perfeccionar las mismas, de tal forma de disponer de insumos tecnológicos innova- dores. Muchas de las aplicaciones en desarrollo, de- penden de sensores que proporcionen información del entorno y que permiten al organismo artificial5 entrenar una serie de datos, para la posterior toma de decisiones. Precisamente la visión por computadora o también llamada visión artificial es una rama de la inteligencia artificial, que facilita a este organismo interpretar el entorno que le rodea a través del procesa- miento digital de las imágenes y/o señales.
APA, Harvard, Vancouver, ISO, and other styles
6

Santa María Pinedo, John Clark, Carlos Armando Ríos López, Carlos Rodríguez Grández, and Cristian Werner García Estrella. "Reconocimiento de patrones de imágenes a través de un sistema de visión artificial en MATLAB." Revista Científica de Sistemas e Informática 1, no. 2 (July 18, 2021): 15–26. http://dx.doi.org/10.51252/rcsi.v1i2.131.

Full text
Abstract:
La visión artificial es una disciplina de la inteligencia artificial que aplica el procesamiento de imágenes para el reconocimiento de patrones, con el uso algoritmos en ambientes controlados con una cantidad de iteraciones en el procesamiento de imágenes. La proliferación de dispositivos de capturas de imágenes ha generado imágenes digitales en todo el mundo, estas imágenes contienen información que deberían ser utilizadas por las organizaciones públicas y privadas para la toma de decisiones. Los objetivos fueron mejorar el reconocimiento de patrones mediante un sistema de visión artificial, medir el proceso de reconocimiento de patrones, implementar un sistema de visión artificial y medir la relación que existe entre reconocimiento de patrones y el un sistema de visión artificial. Esta fue una investigación aplicada, de tipo cuasi experimental, con corte transversal, la población y muestra de estudio fueron 8 patrones de imágenes, la técnica fue la verificación con lista de chequeo, aplicada a 2 grupos, un grupo control y un grupo experimental. Se concluyó que el tiempo de procesamiento para el reconocimiento de 8 patrones de imágenes del grupo experimental fue de 10,75 segundos y de 67,75 segundos para el grupo control y con un grado de relación entre el reconocimiento de patrones y el sistema de visión artificial de 72 %.
APA, Harvard, Vancouver, ISO, and other styles
7

Cerezo-Sánchez, Jorge, Griselda Saldaña-González, Mario M. Bustillo-Díaz, and Apolonio Ata-Pérez. "Sistema de planificación de trayectorias utilizando visión artificial." Research in Computing Science 128, no. 1 (December 31, 2016): 141–48. http://dx.doi.org/10.13053/rcs-128-1-13.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Rosado Rodrigo, Pilar, Eva Figueras Ferrer, and Ferran Reverter Comes. "Intersecciones Semánticas entre Visión Artificial y Mirada Artística." Barcelona Investigación Arte Creación 2, no. 1 (January 30, 2014): 1. http://dx.doi.org/10.17583/brac.2014.v2i1.a891.1-54.

Full text
Abstract:
<p>En el presente artículo se ha desarrollado un sistema capaz de categorizar de forma automática la base de datos de imágenes que sirven de punto de partida para la ideación y diseño en la producción artística del escultor M. Planas. La metodología utilizada está basada en características locales. Para la construcción de un vocabulario visual se sigue un procedimiento análogo al que se utiliza en el análisis automático de textos (modelo "Bag-of-Words"-BOW) y en el ámbito de las imágenes nos referiremos a representaciones "Bag-of-Visual Terms" (BOV). En este enfoque se analizan las imágenes como un conjunto de regiones, describiendo solamente su apariencia e ignorando su estructura espacial. Para superar los inconvenientes de polisemia y sinonimia que lleva asociados esta metodología, se utiliza el análisis probabilístico de aspectos latentes (PLSA) que detecta aspectos subyacentes en las imágenes, patrones formales. Los resultados obtenidos son prometedores y, además de la utilidad intrínseca de la categorización automática de imágenes, este método puede proporcionar al artista un punto de vista auxiliar muy interesante.</p>
APA, Harvard, Vancouver, ISO, and other styles
9

Figueredo Avila, Gustavo Andrés. "Clasificación de la manzana royal gala usando visión artificial y redes neuronales artificiales." Research in Computing Science 114, no. 1 (December 31, 2016): 23–32. http://dx.doi.org/10.13053/rcs-114-1-2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

MARTINEZ ROMO, JULIO CESAR, FRANCISCO LUNA ROSAS, RICARDO MENDOZA GONZALEZ, VALENTIN LOPEZ RIVAS, and MARIO ALBERTO RODRIGUEZ DIAZ. "VEHÍCULO AUTOMÁTICAMENTE GUIADO (AGV) POR ODOMETRÍA Y VISIÓN ARTIFICIAL." DYNA INGENIERIA E INDUSTRIA 92, no. 1 (2017): 490. http://dx.doi.org/10.6036/8420.

Full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Visión artificial"

1

Gómez, Bruballa Raúl Álamo. "Exploiting the Interplay between Visual and Textual Data for Scene Interpretation." Doctoral thesis, Universitat Autònoma de Barcelona, 2020. http://hdl.handle.net/10803/670533.

Full text
Abstract:
L'experimentació en aprenentatge automàtic en escenaris controlats i amb bases de dades estàndards és necessària per a comparar el rendiment entre algoritmes avaluant-los sota les mateixes condicions. Però també és necessària l'experimentació en com es comporten aquests algoritmes quan són entrenats amb dades menys controlades i aplicats a problemes reals per indagar en com els avanços en recerca poden contribuir a la nostra societat. En aquesta tesi, experimentem amb els algoritmes més recents de visió per ordinador i processament del llengua natural aplicant-los a la interpretació d'escenes multimodals. En particular, investiguem en com la interpretació automàtica d'imatges i text es pot explotar conjuntament per resoldre problemes reals, enfocant-nos en aprendre de dades de xarxes socials. Encarem diverses tasques que impliquen informació visual i textual, discutim les seves particularitats i reptes i exposem les nostres conclusions experimentals. Primer treballem en la detecció de text en imatges. A continuació, treballem amb publicacions de xarxes socials, fent servir els subtítols textuals associats a imatges com a supervisió per apendre característiques visuals, que apliquem a la cerca d'imatges semàntica amb consultes multimodals. Després, treballem amb imatges de xarxes socials geolocalitzades amb etiquetes textuals associades, experimentant en com fer servir les etiquetes com a supervisió, en cerca d'imatges sensible a la localització, i en explotar la localització per l'etiquetatge d'imatges. Finalment, encarem un problema de classificació específic de publicacions de xarxes socials formades per una imatge i un text: Classificació de discurs de l'odi multimodal.
La experimentación en aprendizaje automático en escenarios controlados y con bases de datos estándares es necesaria para comparar el desempeño entre algoritmos evaluándolos en las mismas condiciones. Sin embargo, también en necesaria experimentación en cómo se comportan estos algoritmos cuando son entrenados con datos menos controlados y aplicados a problemas reales para indagar en cómo los avances en investigación pueden contribuir a nuestra sociedad. En esta tesis experimentamos con los algoritmos más recientes de visión por ordenador y procesado del lenguaje natural aplicándolos a la interpretación de escenas multimodales. En particular, investigamos en cómo la interpretación automática de imagen y texto se puede explotar conjuntamente para resolver problemas reales, enfocándonos en aprender de datos de redes sociales. Encaramos diversas tareas que implican información visual y textual, discutimos sus características y retos y exponemos nuestras conclusiones experimentales. Primeramente trabajamos en la detección de texto en imágenes. A continuación, trabajamos con publicaciones de redes sociales, usando las leyendas textuales de imágenes como supervisión para aprender características visuales, que aplicamos a la búsqueda de imágenes semántica con consultas multimodales. Después, trabajamos con imágenes de redes sociales geolocalizadas con etiquetas textuales asociadas, experimentando en cómo usar las etiquetas como supervisión, en búsqueda de imágenes sensible a localización, y en explotar la localización para el etiquetado de imágenes. Finalmente, encaramos un problema de clasificación específico de publicaciones de redes sociales formadas por una imagen y un texto: Clasificación de discurso del odio multimodal.
Machine learning experimentation under controlled scenarios and standard datasets is necessary to compare algorithms performance by evaluating all of them in the same setup. However, experimentation on how those algorithms perform on unconstrained data and applied tasks to solve real world problems is also a must to ascertain how that research can contribute to our society. In this dissertation we experiment with the latest computer vision and natural language processing algorithms applying them to multimodal scene interpretation. Particularly, we research on how image and text understanding can be jointly exploited to address real world problems, focusing on learning from Social Media data. We address several tasks that involve image and textual information, discuss their characteristics and offer our experimentation conclusions. First, we work on detection of scene text in images. Then, we work with Social Media posts, exploiting the captions associated to images as supervision to learn visual features, which we apply to multimodal semantic image retrieval. Subsequently, we work with geolocated Social Media images with associated tags, experimenting on how to use the tags as supervision, on location sensitive image retrieval and on exploiting location information for image tagging. Finally, we work on a specific classification problem of Social Media publications consisting on an image and a text: Multimodal hate speech classification.
APA, Harvard, Vancouver, ISO, and other styles
2

Salvi, Joaquim. "An approach to coded structured light to obtain three dimensional information." Doctoral thesis, Universitat de Girona, 1998. http://hdl.handle.net/10803/7714.

Full text
Abstract:
The human visual ability to perceive depth looks like a puzzle. We perceive three-dimensional spatial information quickly and efficiently by using the binocular stereopsis of our eyes and, what is mote important the learning of the most common objects which we achieved through living. Nowadays, modelling the behaviour of our brain is a fiction, that is why the huge problem of 3D perception and further, interpretation is split into a sequence of easier problems. A lot of research is involved in robot vision in order to obtain 3D information of the surrounded scene. Most of this research is based on modelling the stereopsis of humans by using two cameras as if they were two eyes. This method is known as stereo vision and has been widely studied in the past and is being studied at present, and a lot of work will be surely done in the future. This fact allows us to affirm that this topic is one of the most interesting ones in computer vision.

The stereo vision principle is based on obtaining the three dimensional position of an object point from the position of its projective points in both camera image planes. However, before inferring 3D information, the mathematical models of both cameras have to be known. This step is known as camera calibration and is broadly describes in the thesis. Perhaps the most important problem in stereo vision is the determination of the pair of homologue points in the two images, known as the correspondence problem, and it is also one of the most difficult problems to be solved which is currently investigated by a lot of researchers. The epipolar geometry allows us to reduce the correspondence problem. An approach to the epipolar geometry is describes in the thesis. Nevertheless, it does not solve it at all as a lot of considerations have to be taken into account. As an example we have to consider points without correspondence due to a surface occlusion or simply due to a projection out of the camera scope.
The interest of the thesis is focused on structured light which has been considered as one of the most frequently used techniques in order to reduce the problems related lo stereo vision. Structured light is based on the relationship between a projected light pattern its projection and an image sensor. The deformations between the pattern projected into the scene and the one captured by the camera, permits to obtain three dimensional information of the illuminated scene. This technique has been widely used in such applications as: 3D object reconstruction, robot navigation, quality control, and so on. Although the projection of regular patterns solve the problem of points without match, it does not solve the problem of multiple matching, which leads us to use hard computing algorithms in order to search the correct matches.
In recent years, another structured light technique has increased in importance. This technique is based on the codification of the light projected on the scene in order to be used as a tool to obtain an unique match. Each token of light is imaged by the camera, we have to read the label (decode the pattern) in order to solve the correspondence problem. The advantages and disadvantages of stereo vision against structured light and a survey on coded structured light are related and discussed. The work carried out in the frame of this thesis has permitted to present a new coded structured light pattern which solves the correspondence problem uniquely and robust. Unique, as each token of light is coded by a different word which removes the problem of multiple matching. Robust, since the pattern has been coded using the position of each token of light with respect to both co-ordinate axis. Algorithms and experimental results are included in the thesis. The reader can see examples 3D measurement of static objects, and the more complicated measurement of moving objects. The technique can be used in both cases as the pattern is coded by a single projection shot. Then it can be used in several applications of robot vision.
Our interest is focused on the mathematical study of the camera and pattern projector models. We are also interested in how these models can be obtained by calibration, and how they can be used to obtained three dimensional information from two correspondence points. Furthermore, we have studied structured light and coded structured light, and we have presented a new coded structured light pattern. However, in this thesis we started from the assumption that the correspondence points could be well-segmented from the captured image. Computer vision constitutes a huge problem and a lot of work is being done at all levels of human vision modelling, starting from a)image acquisition; b) further image enhancement, filtering and processing, c) image segmentation which involves thresholding, thinning, contour detection, texture and colour analysis, and so on. The interest of this thesis starts in the next step, usually known as depth perception or 3D measurement.
APA, Harvard, Vancouver, ISO, and other styles
3

Carbonell, Nuñez Manuel. "Neural Information Extraction from Semi-structured Documents." Doctoral thesis, Universitat Autònoma de Barcelona, 2020. http://hdl.handle.net/10803/671583.

Full text
Abstract:
Sectors com la informació i tecnologia d'assegurances, finances i legal, processen un continu de factures, justificants, reclamacions o similar diàriament. L'èxit en l'automatització d'aquestes transaccions es basa en l'habilitat de digitalitzar correctament el contingut textual així com incorporar la comprensió semàntica. Aquest procés, conegut com Extracció d'Informació (EI) consisteix en diversos passos que són, el reconeixement de el text, la identificació d'entitats nomenades i en ocasions en reconèixer relacions entre aquestes entitats. En el nostre treball vam explorar models neurals multi-tasca a nivell d'imatge i de graf per solucionar els passos d'aquest procés de forma unificada. En el camí, vam estudiar els beneficis i inconvenients d'aquests enfocaments en comparació amb mètodes que resolen les tasques seqüencialment per separat.
Sectores como la información y tecnología de seguros, finanzas y legal, procesan un continuo de facturas, justificantes, reclamaciones o similar diariamente. El éxito en la automatización de estas transacciones se basa en la habilidad de digitalizar correctamente el contenido textual asi como incorporar la comprensión semántica. Este proceso, conococido como Extracción de Información (EI) consiste en varios pasos que son, el reconocimiento del texto, la identificación de entidades nombradas y en ocasiones en reconocer relaciones entre estas entidades. En nuestro trabajo exploramos modelos neurales multi-tarea a nivel de imagen y de grafo para solucionar los pasos de este proceso de forma unificada. En el camino, estudiamos los beneficios e inconvenientes de estos enfoques en comparación con métodos que resuelven las tareas secuencialmente por separado.
Sectors as fintech, legaltech or insurance process an inflow of million of forms, invoices, id documents, claims or similar every day. The success in the automation of these transactions depends on the ability to correctly digitize the textual content as well as to incorporate semantic understanding. This procedure, known as information extraction (IE) comprises the steps of localizing and recognizing text, identifying named entities contained in it and optionally finding relationships among its elements. In this work we explore multi-task neural models at image and graph level to solve all steps in a unified way. While doing so we find benefits and limitations of these end-to-end approaches in comparison with sequential separate methods.
APA, Harvard, Vancouver, ISO, and other styles
4

Murrugarra, Ortiz Lhester. "Sistema mecatrónico para determinar automáticamente las dimensiones de anchovetas usando visión artificial." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2021. http://hdl.handle.net/20.500.12404/19706.

Full text
Abstract:
Este trabajo plantea el desarrollo de un sistema mecatrónico sumergible que trabaje junto a un computador en una embarcación. El proyecto tiene como propósito indicarle al operario si el cardumen se puede pescar según las reglas impuestas por el Instituto del Mar Peruano (IMARPE) y por el Ministerio de Producción (PRODUCE). Dichas instituciones indican que solo se puede pescar un cardumen donde la cantidad de juveniles, especies con menos de 12cm, sea menor al 10% del cardumen (MINISTERIO DE PRODUCCIÓN, 2015). Para ello, el vehículo sumergible (ROV) del sistema cuenta con cámaras estereoscópicas, las cuales son capaces de medir la longitud en centímetros de las imágenes tomadas. En el presente proyecto, se grabará un video del cardumen y este será enviado a la estación en tierra, donde el computador será el encargado de realizar el procesamiento y dar los resultados al usuario. El documento inicia una recopilación de información referente a la temática del sistema propuesto, presentando el estado del arte, el marco teórico y posibles interesados. Luego, se realiza un estudio de los requerimientos del proyecto, los procesos internos que este debe realizar, se proponen soluciones y se mejora la solución ganadora. Finalmente, se realizaron las modificaciones necesarias al ROV (a nivel mecánico y electrónico) y se desarrolló el algoritmo de procesamiento de imágenes. Este trabajo ha sido elaborado con la finalidad de sentar las bases para desarrollar proyectos que mejoren el uso de los recursos marinos sin dañarlos. Dado que el proyecto es bastante amplio y el procesamiento de las imágenes puede volverse muy complejo, se considera que el presente trabajo puede ser complementado y mejorado por especialistas en procesamiento de imágenes y en temas de diseño de vehículos sumergibles.
Trabajo de investigación
APA, Harvard, Vancouver, ISO, and other styles
5

Rivera, Mujica Elvira del Carmen. "Supervisión y control de un proceso industrial autónomo de pintado aplicando lógica difusa y visión artificial." Bachelor's thesis, Universidad Ricardo Palma, 2014. http://cybertesis.urp.edu.pe/handle/urp/1175.

Full text
Abstract:
En el presente trabajo de tesis se desarrolló un prototipo de supervisión y control autónomo de pintado haciendo uso de un algoritmo de inteligencia artificial lógica difusa, con dos entradas y una salida. Para lo cual, se preparó el prototipo haciendo uso de cámaras Webcam para la captura de imágenes en tiempo real. Además, se utilizó una PC con el Controlador Difuso diseñado en LabVIEW. Es así, que la imagen capturada en el modelo RGB fue convertida al modelo de color CYMK, y para lo cual el algoritmo de Lógica Difusa determinó la cantidad de color requerida salvo en el caso que hubiera ocurrido un error, sea por falta de color o el exceso de este, se hacía uso de la segunda variable de entrada del controlador. Los resultados obtenidos en este trabajo fueron en que la captura de imagen, siempre intervino el problema de la iluminación, así como también de las características de las tintas, los cuales hacían que varíen los resultados finales. Además, si bien el algoritmo de Lógica Difusa se convirtió en una herramienta muy versátil, y fácil de modificarla en caso de que se hubiera requerido cambiar su uso o aplicación, aun así, los resultados no son muy precisos. La etapa final se realizó controlando aisladamente unas válvulas solenoides, en un tiempo de apertura y cierre en daba paso a la liberación de cada pintura correspondiente a los colores Negro, Cian, Magenta, Amarillo y Blanco o Luminancia. Este último fue considerado como adicional por el brillo que existe en la imagen capturada.
APA, Harvard, Vancouver, ISO, and other styles
6

Valdivia, Arias César Javier. "Diseño de un sistema de visión artificial para la clasificación de chirimoyas basado en medidas." Master's thesis, Pontificia Universidad Católica del Perú, 2016. http://tesis.pucp.edu.pe/repositorio/handle/123456789/7849.

Full text
Abstract:
El desarrollo de este trabajo, presenta el diseño de un sistema de visión artificial, capaz de medir Annona Cherimola Mill (Chirimoya) del ecotipo Aurora, las cuales provienen de la comunidad de Callahuanca, para posteriormente clasificar aquellas que cumplan con una dimensión de 10 x 12 cm empleando para la etapa de procesamiento: Ajuste de contraste y para la etapa de segmentación, Cierre, Apertura y Código Cadena; los métodos seleccionados cumplen con los tiempos de computo de diseño. Fue posible clasificar exitosamente 91 de 91 Chirimoyas de Categorías Extra y Primera estudiadas con un 100% de efectividad, una precisión de medida de 0,35mm y un error permisible de 2,18mm. Las pruebas se efectuaron en un prototipo diseñado para tal motivo y no en el equipo final; el error obtenido durante las pruebas es menor al establecido en los requerimientos en cuanto a la selección del fruto. En la memoria descriptiva, se presentan los cálculos referentes a la selección del dispositivo de captura, lentes y requerimientos de la iluminación empleando la metodología de diseño VDI-2221. El control del banco de pruebas, empleado para validar los algoritmos realizados, se realizó con un PLC y para realizar el procesamiento de imágenes, se optó por un computador de escritorio con procesador Intel R Core i5 CPU 2.53GHz junto con una cámara con comunicación USB 3.0. El diseño mecánico-eléctrico no es motivo de estudio en la presente investigación.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
7

BUENDIA, RIOS ANGHELLO ARTURO 711753, and RIOS ANGHELLO ARTURO BUENDIA. "Navegación Autónoma de un vehículo Pequeño en Interiores Empleando Visión Artificial y Diferentes Sensores." Tesis de maestría, Universidad Autónoma del Estado de México, 2017. http://hdl.handle.net/20.500.11799/68536.

Full text
Abstract:
En este trabajo se presenta una propuesta para la navegación en interiores de un robot pequeño, con arquitectura de vehículo con ruedas. Para la navegación autónoma se implementa un algoritmo de planeación de trayectorias en donde se toma información del entorno para reconocimiento de objetos mediante técnicas de visión artificial y sensores de proximidad para medición y cálculo de la distancia entre el robot y los posibles obstáculos encontrados, de esta forma se recalcula la trayectoria necesaria para evitar choques. Por otra parte, se trabaja la optimización del tiempo y seguridad de navegación, ajustando la velocidad en función de la rugosidad del suelo, a saber: 1) avance rápido en superficies de alta rugosidad, 2) avance lento en superficies de baja rugosidad, posibilitando la disminución del deslizamiento de las ruedas y mejorando el cálculo, por odometría, de la posición del robot dentro de su entorno. Se presentan las técnicas de extracción de características y las arquitecturas y tipos de redes neuronales artificiales empleados tanto para el reconocimiento de objetos como de los tipos de texturas. Se muestran los resultados obtenidos al realizar pruebas de navegación en diferentes entornos en interiores en donde se presentan tanto los tiempos de recorrido como la distancia entre la posición deseada y la posición final del robot. Las pruebas se realizan en la plataforma robótica LEGO Mindstorm EV3.
Beca para estudios de posgrado CONACyT No. de cuenta: 1530015
APA, Harvard, Vancouver, ISO, and other styles
8

NIETO, GONZALEZ JOSE LUIS 786642, and GONZALEZ JOSE LUIS NIETO. "Detección de incendios mediante identificación de humo con visión artificial en condiciones de iluminación variable." Tesis de maestría, Universidad Autónoma del Estado de México, 2018. http://hdl.handle.net/20.500.11799/95189.

Full text
Abstract:
La detección de humo en áreas abiertas representa una gran dificultad para los medios convencionales para detección de incendios. Mientras que la mayoría de los dispositivos utilizados para monitorear la presencia de fuego, están diseñados para trabajar en contacto con alguno producto de la combustión, como la temperatura o la concentración de humo en el aire, las herramientas basadas en Visión Artificial aprovechan las características ópticas del fuego o del humo, permitiendo realizar el monitoreo y la detección de incendios a mayor distancia. Sin embargo, las condiciones de captura de las imágenes complica el proceso. Diferentes niveles de iluminación, condiciones climáticas, así como la presencia de otros objetos móviles reducen el nivel de exactitud de los algoritmos existentes para la detección de humo. El presente proyecto se enfoca en presentar una propuesta de algoritmo para detección de humo mediante Visión Artificial que afronta el problema de la variación en las detecciones debida a los cambios de iluminación ambiental. Con este propósito, se diseñó un algoritmo compuesto por distintas etapas que analizan las imágenes en busca de características estáticas o dinámicas del humo. El algoritmo propuesto es descrito en el quinto capítulo de este trabajo escrito. Inicialmente, parte de una etapa de pre-procesamiento que permite ajustar la resolución de las imágenes extraídas desde un video de entrada, balancear la iluminación de las imágenes y etiquetarlas para evaluar la herramienta. Posteriormente, se emplea una etapa que realiza la detección de movimiento, una de análisis de la dirección del movimiento, otra más para el análisis de la información obtenida en espacio de Wavelets y un par de etapas complementarias que analizan el color en espacio RGB y YCbCr. Finalmente, los resultados son evaluados por una etapa clasificadora basada en la herramienta AdaBoost, para realizar la toma de decisiones y notificar sobre una detección de incendio. El algoritmo propuesto es evaluado a partir de los criterios de exactitud Sensibilidad (el porcentaje de detecciones correctas realizadas) y Especificidad (el porcentaje de no- detecciones correctamente realizadas). Los resultados de exactitud descritos en el sexto capítulo del presente trabajo escrito, se contrastan con los obtenidos por otros algoritmos replicados a partir del estado del arte. A partir de los casos de prueba planteados para cada escenario de iluminación evaluado, se identificó una reducción en la variación de los resultados, es decir, el cambio en los porcentajes de sensibilidad y especificidad en diferentes condiciones de iluminación, es menor al obtenido por los algoritmos replicados.
APA, Harvard, Vancouver, ISO, and other styles
9

Sobrado, Malpartida Eddie Ángel. "Sistema de visión artificial para el reconocimiento y manipulación de objetos utilizando un brazo robot." Master's thesis, Pontificia Universidad Católica del Perú, 2003. http://tesis.pucp.edu.pe/repositorio/handle/123456789/68.

Full text
Abstract:
En este proyecto, un brazo robot permitirá seleccionar objetos (tornillos, tuercas, llaveros, etc) que se encuentran en una mesa, independiente de la posición y orientación. El problema se aborda mediante un esquema de Visión Artificial consistente en 6 etapas: obtención de la imagen, preprocesamiento, segmentación, extracción de características, clasificación y manipulación con el brazo robot.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
10

Wang, Yaxing. "Transferring and learning representations for image generation and translation." Doctoral thesis, Universitat Autònoma de Barcelona, 2020. http://hdl.handle.net/10803/669579.

Full text
Abstract:
La generació d'imatges és una de les tasques més atractives, fascinants i complexes de la visió per computador. Dels diferents mètodes per la generació d'imatges, les xarxes generatives adversaries (o també anomenades ""GANs"") juguen un paper crucial. Els mètodes generatius més comuns basats en GANs es poden dividir en dos apartats. El primer, simplement anomenat generatiu, utilitza soroll aleatori i sintetitza una imatge per tal de seguir la mateixa distribució que les imatges d'entrenament. En el segon apartat trobem la traducció d'imatge a imatge, on el seu objectiu consiteix en transferir la imatge d'un domini origen a un que és indistingible d'un domini objectiu. Els mètodes d'aquesta categoria de traducció d'imatge a imatge es poden subdividir en emparellats o no emparellats, depenent de si requereixen que les dades siguin emparellades o no. En aquesta tesi, l'objectiu consisteix en resoldre alguns dels reptes tant en la generació d'imatges com en la traducció d'imatge a imatge. Les GANs depenen en gran part de l'accés a una gran quantitat de dades, i fallen al generar imatges realistes a partir del soroll aleatori quan s'apliquen a dominis amb poques imatges. Per solucionar aquest problema, la solució proposada consisteix en transferir el coneixement d'un model entrenat a partir d'un conjunt de dades amb moltes imatges (domini origen) a un entrenat amb dades limitades (domini objectiu). Hem trobat que tant les GANs com les GANs condicionals poden beneficiar-se dels models entrenats amb grans conjunts de dades. Els nostres experiments mostren que transferir el discriminador és més important que fer-ho per el cas del generador. Utilitzar tant el generador com el discriminador resulta en un millor rendiment. No obstant, aquest mètode sufreix d'overfitting, donat que actualitzem tots els paràmetres per adaptar el mètode a les dades de l'objectiu. Proposem una arquitectura nova, feta a mesura per tal de resoldre la transferència de coneixement per el cas de dominis objectius amb molt poques imatges. El nostre mètode explora eficientment quina part de l'espai latent està més relacionat amb el domini objectiu. Adicionalment, el mètode proposat és capaç de transferir el coneixement a partir de múltiples GANs pre-entrenades. Tot i que la traducció de imatge a imatge ha conseguit rendiments extraordinaris, ha d'enfrentarse a diferents problemes. Primer, per el cas de la traducció entre dominis complexes (on les traduccions són entre diferents modalitats) s'ha vist que els mètodes de traducció de imatge a imatge requereixen dades emparellades. Demostrem que únicament quan algunes de les traduccions disposen de la informació (i.e. durant l'entrenament), podem inferir les traduccions restants (on les parelles no estan disponibles). Proposem un mètode nou en el cual alineem diferents codificadors y decodificadors d'imatge d'una manera que ens permet obtenir la traducció simplement encadenant el codificador d'origen amb el decodificador objectiu, encara que aquests no hagin interactuat durant la fase d'entrenament (i.e. sense disposar d'aquesta informació). Segon, existeix el esbiaixament en la traducció de imatge a imatge. Els datasets esbiaixats inevitablement contenen canvis no desitjats, això es deu a que el dataset objectiu té una distribució visual subjacent. Proposem l'ús de restriccions semàntiques curosament dissenyades per reduir els efectes de l'esbiaixament. L'ús de la restricció semàntica implica la preservació de les propietats de les imatges desitjades. Finalment, els mètodes actuals fallen en generar resultats diversos o en realitzar transferència de coneixement escalable a un únic model. Per aliviar aquest problema, proposem una manera escalable i diversa per a la traducció de imatge a imatge. Utilitzem el soroll aleatori per el control de la diversitat. La escalabilitat és determinada a partir del condicionament de la etiqueta del domini.
La generación de imágenes es una de las tareas más atractivas, fascinantes y complejas en la visión por computador. De los diferentes métodos para la generación de imágenes, las redes generativas adversarias (o también llamadas ""GANs"") juegan un papel crucial. Los modelos generativos más comunes basados en GANs se pueden dividir en dos apartados. El primero, simplemente llamado generativo, utiliza como entrada ruido aleatorio y sintetiza una imagen que sigue la misma distribución que las imágenes de entrenamiento. En el segundo apartado encontramos la traducción de imagen a imagen, cuyo objetivo consiste en transferir la imagen de un dominio origen a uno que es indistinguible del dominio objetivo. Los métodos de esta categoria de traducción de imagen a imagen se pueden subdividir en emparejados o no emparejados, dependiendo de si se requiere que los datos sean emparejados o no. En esta tesis, el objetivo consiste en resolver algunos de los retos tanto en la generación de imágenes como en la traducción de imagen a imagen. Las GANs dependen en gran parte del acceso a gran cantidad de datos, y fallan al generar imágenes realistas a partir de ruido aleatorio cuando se aplican a dominios con pocas imágenes. Para solucionar este problema, proponemos transferir el conocimiento de un modelo entrenado a partir de un conjunto de datos con muchas imágenes (dominio origen) a uno entrenado con datos limitados (dominio objetivo). Encontramos que tanto las GANs como las GANs condicionales pueden beneficiarse de los modelos entrenados con grandes conjuntos de datos. Nuestros experimentos muestran que transferir el discriminador es más importante que hacerlo para el generador. Usar tanto el generador como el discriminador resulta en un mayor rendimiento. Sin embargo, este método sufre de overfitting, dado que actualizamos todos los parámetros para adaptar el modelo a los datos del objetivo. Para ello proponemos una arquitectura nueva, hecha a medida para resolver la transferencia de conocimiento en el caso de dominios objetivo con muy pocas imágenes. Nuestro método explora eficientemente qué parte del espacio latente está más relacionado con el dominio objetivo. Adicionalmente, el método propuesto es capaz de transferir el conocimiento a partir de múltiples GANs pre-entrenadas. Aunque la traducción de imagen a imagen ha conseguido rendimientos extraordinarios, tiene que enfrentarse a diferentes problemas. Primero, para el caso de la traducción entre dominios complejos (cuyas traducciones son entre diferentes modalidades) se ha observado que los métodos de traducción de imagen a imagen requieren datos emparejados. Demostramos que únicamente cuando algunas de las traducciones disponen de esta información, podemos inferir las traducciones restantes. Proponemos un método nuevo en el cual alineamos diferentes codificadores y decodificadores de imagen de una manera que nos permite obtener la traducción simplemente encadenando el codificador de origen con el decodificador objetivo, aún cuando estos no han interactuado durante la fase de entrenamiento (i.e. sin disponer de dicha información). Segundo, existe el problema del sesgo en la traducción de imagen a imagen. Los conjuntos de datos sesgados inevitablemente contienen cambios no deseados, eso se debe a que el dataset objetivo tiene una distribución visual subyacente. Proponemos el uso de restricciones semánticas cuidadosamente diseñadas para reducir los efectos del sesgo. El uso de la restricción semántica implica la preservación de las propiedades de imagen deseada. Finalmente, los métodos actuales fallan en generar resultados diversos o en realizar transferencia de conocimiento escalables a un único modelo. Para aliviar este problema, proponemos una manera escalable y diversa para la traducción de imagen a imagen. Para ello utilizamos ruido aleatorio para el control de la diversidad. La escalabilidad es determinada a partir del condicionamiento de la etiqueta del dominio.
Image generation is arguably one of the most attractive, compelling, and challenging tasks in computer vision. Among the methods which perform image generation, generative adversarial networks (GANs) play a key role. The most common image generation models based on GANs can be divided into two main approaches. The first one, called simply image generation takes random noise as an input and synthesizes an image which follows the same distribution as the images in the training set. The second class, which is called image-to-image translation, aims to map an image from a source domain to one that is indistinguishable from those in the target domain. Image-to-image translation methods can further be divided into paired and unpaired image-to-image translation based on whether they require paired data or not. In this thesis, we aim to address some challenges of both image generation and image-to-image generation. GANs highly rely upon having access to vast quantities of data, and fail to generate realistic images from random noise when applied to domains with few images. To address this problem, we aim to transfer knowledge from a model trained on a large dataset (source domain) to the one learned on limited data (target domain). We find that both GANs and conditional GANs can benefit from models trained on large datasets. Our experiments show that transferring the discriminator is more important than the generator. Using both the generator and discriminator results in the best performance. We found, however, that this method suffers from overfitting, since we update all parameters to adapt to the target data. We propose a novel architecture, which is tailored to address knowledge transfer to very small target domains. Our approach effectively explores which part of the latent space is more related to the target domain. Additionally, the proposed method is able to transfer knowledge from multiple pretrained GANs. Although image-to-image translation has achieved outstanding performance, it still faces several problems. First, for translation between complex domains (such as translations between different modalities) image-to-image translation methods require paired data. We show that when only some of the pairwise translations have been seen (i.e. during training), we can infer the remaining unseen translations (where training pairs are not available). We propose a new approach where we align multiple encoders and decoders in such a way that the desired translation can be obtained by simply cascading the source encoder and the target decoder, even when they have not interacted during the training stage (i.e. unseen). Second, we address the issue of bias in image-to-image translation. Biased datasets unavoidably contain undesired changes, which are due to the fact that the target dataset has a particular underlying visual distribution. We use carefully designed semantic constraints to reduce the effects of the bias. The semantic constraint aims to enforce the preservation of desired image properties. Finally, current approaches fail to generate diverse outputs or perform scalable image transfer in a single model. To alleviate this problem, we propose a scalable and diverse image-to-image translation. We employ random noise to control the diversity. The scalabitlity is determined by conditioning the domain label.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Visión artificial"

1

Gabel, Veit Peter, ed. Artificial Vision. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-41876-6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Orban, Guy A., and Hans-Hellmut Nagel, eds. Artificial and Biological Vision Systems. Berlin, Heidelberg: Springer Berlin Heidelberg, 1992. http://dx.doi.org/10.1007/978-3-642-77840-7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Lu, Huimin, and Yujie Li, eds. Artificial Intelligence and Computer Vision. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-46245-5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

De Gregorio, Massimo, Vito Di Maio, Maria Frucci, and Carlo Musio, eds. Brain, Vision, and Artificial Intelligence. Berlin, Heidelberg: Springer Berlin Heidelberg, 2005. http://dx.doi.org/10.1007/11565123.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Boyer, Kim L. Perceptual Organization for Artificial Vision Systems. Boston, MA: Springer US, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Zhou, Yi-Tong, and Rama Chellappa. Artificial Neural Networks for Computer Vision. New York, NY: Springer New York, 1992. http://dx.doi.org/10.1007/978-1-4612-2834-9.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Boyer, Kim L., and Sudeep Sarkar, eds. Perceptual Organization for Artificial Vision Systems. Boston, MA: Springer US, 2000. http://dx.doi.org/10.1007/978-1-4615-4413-5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Rama, Chellappa, ed. Artificial neural networks for computer vision. New York: Springer-Verlag, 1992.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

J, Nilsson Nils. Artificial Intelligence: A New Synthesis. Burlington: Elsevier Science, 1998.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Ayache, Nicholas. Artificial vision for mobile robots: Stereo vision and multisensory perception. Cambridge, Mass: MIT Press, 1991.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Book chapters on the topic "Visión artificial"

1

Aliano, Antonio, Giancarlo Cicero, Hossein Nili, Nicolas G. Green, Pablo García-Sánchez, Antonio Ramos, Andreas Lenshof, et al. "Artificial Vision." In Encyclopedia of Nanotechnology, 141. Dordrecht: Springer Netherlands, 2012. http://dx.doi.org/10.1007/978-90-481-9751-4_100034.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Rathore, Sneh, Sahil Sharma, and Lisha Singh. "Drishti—Artificial Vision." In Lecture Notes in Electrical Engineering, 581–90. Singapore: Springer Singapore, 2019. http://dx.doi.org/10.1007/978-981-13-6772-4_50.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Fujikado, Takashi. "Retinal Prosthesis by Suprachoroidal-Transretinal Stimulation (STS), Japanese Approach." In Artificial Vision, 139–50. Cham: Springer International Publishing, 2016. http://dx.doi.org/10.1007/978-3-319-41876-6_11.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Ayton, Lauren N., and Joseph Rizzo. "Assessing Patient Suitability and Outcome Measures in Vision Restoration Trials." In Artificial Vision, 3–8. Cham: Springer International Publishing, 2016. http://dx.doi.org/10.1007/978-3-319-41876-6_1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Ayton, Lauren N., Gregg J. Suaning, Nigel H. Lovell, Matthew A. Petoe, David A. X. Nayagam, Tamara-Leigh E. Brawn, and Anthony N. Burkitt. "Suprachoroidal Retinal Prostheses." In Artificial Vision, 125–38. Cham: Springer International Publishing, 2016. http://dx.doi.org/10.1007/978-3-319-41876-6_10.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Walter, Peter. "A Fully Intraocular Approach for a Bi-Directional Retinal Prosthesis." In Artificial Vision, 151–61. Cham: Springer International Publishing, 2016. http://dx.doi.org/10.1007/978-3-319-41876-6_12.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Li, Menghui, Yan Yan, Kaijie Wu, Yiliang Lu, Jingjing Sun, Yao Chen, Xinyu Chai, et al. "Penetrative Optic Nerve-Based Visual Prosthesis Research." In Artificial Vision, 165–76. Cham: Springer International Publishing, 2016. http://dx.doi.org/10.1007/978-3-319-41876-6_13.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Kyada, Margee J., Nathaniel J. Killian, and John S. Pezaris. "Thalamic Visual Prosthesis Project." In Artificial Vision, 177–89. Cham: Springer International Publishing, 2016. http://dx.doi.org/10.1007/978-3-319-41876-6_14.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Fernández, Eduardo, and Richard A. Normann. "CORTIVIS Approach for an Intracortical Visual Prostheses." In Artificial Vision, 191–201. Cham: Springer International Publishing, 2016. http://dx.doi.org/10.1007/978-3-319-41876-6_15.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Troyk, Philip R. "The Intracortical Visual Prosthesis Project." In Artificial Vision, 203–14. Cham: Springer International Publishing, 2016. http://dx.doi.org/10.1007/978-3-319-41876-6_16.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Visión artificial"

1

Reyes Duke, Alicia María, David A. López, and Adrián M. Mora. "Conteo, Monitoreo y Clasificación de Accesos Utilizando Visión Artificial." In The 18th LACCEI International Multi-Conference for Engineering, Education, and Technology: Engineering, Integration, And Alliances for A Sustainable Development” “Hemispheric Cooperation for Competitiveness and Prosperity on A Knowledge-Based Economy”. Latin American and Caribbean Consortium of Engineering Institutions, 2020. http://dx.doi.org/10.18687/laccei2020.1.1.468.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Parra, Pablo, Teddy Negrete, and Nino Vega. "Determinación del Grado de Fermentación del Cacao mediante diferentes técnicas de visión artificial." In The 16th LACCEI International Multi-Conference for Engineering, Education, and Technology: “Innovation in Education and Inclusion”. Latin American and Caribbean Consortium of Engineering Institutions, 2018. http://dx.doi.org/10.18687/laccei2018.1.1.163.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Borja Borja, Mario G. "Sistema de posicionamiento con visión artificial para un brazo robótico articulado de seis grados mediante redes neruonales artificiales." In The 16th LACCEI International Multi-Conference for Engineering, Education, and Technology: “Innovation in Education and Inclusion”. Latin American and Caribbean Consortium of Engineering Institutions, 2018. http://dx.doi.org/10.18687/laccei2018.1.1.498.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

García-Haro, Juan Miguel, Santiago Martínez, and Carlos Balaguer. "Detección de la orientación mediante visión artificial para el control de equilibrio en robots humanoides." In XXXIX Jornadas de Automática. Universidade da Coruña. Servizo de Publicacións, 2020. http://dx.doi.org/10.17979/spudc.9788497497565.0951.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Arroyo, Sebastian I., Felix Safar, and Damian Oliva. "Probabilidad de infracción de velocidad de vehículos utilizando visión artificial en cámaras de campo amplio." In 2016 IEEE Biennial Congress of Argentina (ARGENCON). IEEE, 2016. http://dx.doi.org/10.1109/argencon.2016.7585314.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Munera, Sandra, Francisca Hernandez, Nuria Aleixos, Sergio Cubero, and Jose Blasco. "Estudio de la evolución de la calidad de granada ‘Mollar de Elche’ durante su maduración usando sistemas de visión artificial." In X Congreso Ibérico de Agroingeniería = X Congresso Ibérico de Agroengenharia. Zaragoza: Servicio de Publicaciones Universidad, 2019. http://dx.doi.org/10.26754/c_agroing.2019.com.3419.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

de Jódar Lázaro, Manuel, Antonio Madueño Luna, Alberto Lucas Pascual, Antonio Ruíz Canales, Jose Miguel Molina Martínez, Meritxell Justicia Segovia, and Montserrat Baena Sánchez. "Análisis en tiempo real del funcionamiento de la cadena de alimentación de las máquinas deshuesadoras de aceitunas mediante diagnosis por visión artificial y redes neuronales." In X Congreso Ibérico de Agroingeniería = X Congresso Ibérico de Agroengenharia. Zaragoza: Servicio de Publicaciones Universidad, 2019. http://dx.doi.org/10.26754/c_agroing.2019.com.3423.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Goudou, J. F., S. Maggio, and M. Fagno. "Artificial human vision camera." In SPIE Security + Defence, edited by Mark T. Gruneisen, Miloslav Dusek, John G. Rarity, Keith L. Lewis, Richard C. Hollins, Thomas J. Merlet, and Alexander Toet. SPIE, 2014. http://dx.doi.org/10.1117/12.2074129.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Chin, Kevin, and Derek Abbott. "Artificial color insect vision." In Photonics East '99, edited by Douglas W. Gage and Howie M. Choset. SPIE, 1999. http://dx.doi.org/10.1117/12.369254.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Shang, Junyuan, Tengfei Ma, Cao Xiao, and Jimeng Sun. "Pre-training of Graph Augmented Transformers for Medication Recommendation." In Twenty-Eighth International Joint Conference on Artificial Intelligence {IJCAI-19}. California: International Joint Conferences on Artificial Intelligence Organization, 2019. http://dx.doi.org/10.24963/ijcai.2019/825.

Full text
Abstract:
Medication recommendation is an important healthcare application. It is commonly formulated as a temporal prediction task. Hence, most existing works only utilize longitudinal electronic health records (EHRs) from a small number of patients with multiple visits ignoring a large number of patients with a single visit (selection bias). Moreover, important hierarchical knowledge such as diagnosis hierarchy is not leveraged in the representation learning process. Despite the success of deep learning techniques in computational phenotyping, most previous approaches have two limitations: task-oriented representation and ignoring hierarchies of medical codes. To address these challenges, we propose G-BERT, a new model to combine the power of Graph Neural Networks (GNNs) and BERT (Bidirectional Encoder Representations from Transformers) for medical code representation and medication recommendation. We use GNNs to represent the internal hierarchical structures of medical codes. Then we integrate the GNN representation into a transformer-based visit encoder and pre-train it on EHR data from patients only with a single visit. The pre-trained visit encoder and representation are then fine-tuned for downstream predictive tasks on longitudinal EHRs from patients with multiple visits. G-BERT is the first to bring the language model pre-training schema into the healthcare domain and it achieved state-of-the-art performance on the medication recommendation task.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Visión artificial"

1

Brown, Christopher M., and Randal C. Nelson. Northeast Artificial Intelligence Consortium Annual Report - 1988 Parallel Vision. Volume 9. Fort Belvoir, VA: Defense Technical Information Center, October 1989. http://dx.doi.org/10.21236/ada276098.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Waxman, A. M., and R. K. Cunningham. Parametric Study of Diffusion-Enhancement Networks for Spatiotemporal Grouping in Real-Time Artificial Vision. Fort Belvoir, VA: Defense Technical Information Center, June 1991. http://dx.doi.org/10.21236/ada238782.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Cunningham, Robert K., and Allen M. Waxman. Parametric Study of Diffusion-Enhancement Networks for Spatiotemporal Grouping in Real-Time Artificial Vision. Fort Belvoir, VA: Defense Technical Information Center, April 1993. http://dx.doi.org/10.21236/ada265065.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Rodriguez, Simon, Autumn Toney, and Melissa Flagg. Patent Landscape for Computer Vision: United States and China. Center for Security and Emerging Technology, September 2020. http://dx.doi.org/10.51593/20200054.

Full text
Abstract:
China’s surge in artificial intelligence development has been fueled, in large part, by advances in computer vision, the AI subdomain that makes powerful facial recognition technologies possible. This data brief compares U.S. and Chinese computer vision patent data to illustrate the different approaches each country takes to AI development.
APA, Harvard, Vancouver, ISO, and other styles
5

Hofer, Martin, Tomas Sako, Arturo Martinez Jr., Mildred Addawe, Joseph Bulan, Ron Lester Durante, and Marymell Martillan. Applying Artificial Intelligence on Satellite Imagery to Compile Granular Poverty Statistics. Asian Development Bank, December 2020. http://dx.doi.org/10.22617/wps200432-2.

Full text
Abstract:
This study outlines a computational framework to enhance the spatial granularity of government-published poverty estimates, citing data from the Philippines and Thailand. Computer vision techniques were applied on publicly available medium resolution satellite imagery, household surveys, and census data from the two countries. The results suggest that even using publicly accessible satellite imagery, predictions generally aligned with the distributional structure of government-published poverty estimates after calibration. The study further examines the robustness of the resulting estimates to user-specified algorithmic parameters and model specifications.
APA, Harvard, Vancouver, ISO, and other styles
6

Keyvan, Shahla. Diagnostics and Control of Natural Gas-Fired furnaces via Flame Image Analysis using Machine Vision & Artificial Intelligence Techniques. Office of Scientific and Technical Information (OSTI), December 2005. http://dx.doi.org/10.2172/862201.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Murdick, Dewey, Daniel Chou, Ryan Fedasiuk, and Emily Weinstein. The Public AI Research Portfolio of China’s Security Forces. Center for Security and Emerging Technology, March 2021. http://dx.doi.org/10.51593/20200057.

Full text
Abstract:
New analytic tools are used in this data brief to explore the public artificial intelligence (AI) research portfolio of China’s security forces. The methods contextualize Chinese-language scholarly papers that claim a direct working affiliation with components of the Ministry of Public Security, People's Armed Police Force, and People’s Liberation Army. The authors review potential uses of computer vision, robotics, natural language processing and general AI research.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography