To see the other types of publications on this topic, follow the link: Reconocimiento de imagen.

Dissertations / Theses on the topic 'Reconocimiento de imagen'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 38 dissertations / theses for your research on the topic 'Reconocimiento de imagen.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Hermosilla, Vigneau Gabriel Enrique. "Reconocimiento robusto de rostros usando imágenes térmicas." Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/111129.

Full text
Abstract:
Doctor en Ingeniería Eléctrica
El principal objetivo de este trabajo de tesis es el estudio del reconocimiento de rostros en el espectro térmico (8-12 µm). Como parte de este estudio se analizan y comparan el desempeño de métodos y algoritmos de reconocimiento de rostros en el espectro térmico. También, se propone una metodología para desarrollar robustamente el reconocimiento de rostros térmicos, y se analiza cómo el reconocimiento de rostros térmicos se ve afectado por los cambios que sufren las imágenes térmicas cuando son capturadas en diferentes periodos de tiempo debido a cambios en el metabolismo y condiciones ambientales. Los métodos de reconocimiento de rostros fueron seleccionados por el desempeño obtenido en otros estudios comparativos, trabajar en tiempo real, requerir sólo una imagen por sujeto y operar en línea. El estudio analiza 3 métodos basados en calces locales: Histogramas LBP, Histogramas WLD y Descriptores Jets de Gabor, y 2 métodos basados en calces globales: el método SIFT y SURF. Los métodos son comparados utilizando la base de datos creada UCHThermalFace, que permite evaluar los métodos en condiciones reales ya que incluyen variaciones naturales de iluminación, imágenes capturas en interior y exterior, expresiones faciales, pose, accesorios y oclusión. Se analiza el uso de las características vasculares del rostro, que pueden ser obtenidas utilizando una cámara térmica. Se propone una metodología basada en el uso combinado de características fisiológicas de la red vascular del rostro humano y la intensidad de los pixeles del rostro térmico, metodología llamada VascularThermalFace. Además, se aborda un estudio de reconocimiento de rostros cuando existe diferencia temporal en la adquisición de las imágenes térmicas. Se crearon y analizaron 2 bases de datos llamadas UCHThermalTemporalFace y UCHThermalFaceIndoorOutdoor, donde se visualizan variaciones en el metabolismo de los sujetos durante diferentes días. Las principales conclusiones de este estudio muestran que: (i) el mejor resultado entre velocidad de procesamiento y altas tasas de reconocimiento es alcanzado por el método de Histogramas WLD, (ii) se valida el uso de la metodología VascularThermalFace, debido al buen desempeño obtenido por todos los métodos de reconocimiento y sus altas tasas de reconocimiento, (iii) experimentos con imágenes adquiridas en diferentes periodos de tiempo, muestran que el desempeño de los métodos es alto y solamente dependen de una buena configuración de la cámara térmica, (iv) experimentos con imágenes adquiridas en sesiones de interior-exterior y viceversa, muestran que el desempeño es bueno para métodos basados en calces locales y bajo para métodos basados en calces globales. De estos resultados, es posible diseñar un sistema de reconocimiento de rostros térmico que sea eficiente y robusto.
APA, Harvard, Vancouver, ISO, and other styles
2

Correa, Pérez Mauricio Alfredo. "Reconocimiento robusto de rostros en ambientes dinámicos." Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/111967.

Full text
Abstract:
Doctor en Ingeniería Eléctrica
En la actualidad un problema fundamental para los sistemas robóticos que basan su sistema sensorial en la utilización de cámaras de video y sistemas de visión computacional es detectar y reconocer objetos de interés en ambientes no controlados. Por otro lado, el análisis del rostro juega un papel muy importante en la construcción de un sistema de Interacción Humano-Robot (HRI) que permita a los humanos interactuar con sistemas robóticos de un modo natural. En este trabajo de tesis se diseña e implementa un sistema de visión que opera en ambientes no controlados, y que es capaz de detectar y reconocer rostros humanos en forma robusta, utilizando métodos de visión activa e integrando diferentes tipos de contexto. Se plantea una metodología para la construcción del sistema de visión propuesto en forma general y se define cuales son los módulos principales que lo componen. Entre los cuales están los módulos de detección y reconocimiento de rostros, en particular el uso de contexto y un módulo de visión activa. Estos módulos permiten descartar falsas detecciones y realizar modificaciones a las observaciones para así mejorar el rendimiento del sistema de reconocimiento de rostros. Se desarrolla un simulador que se utiliza para validar el sistema general y en particular evaluar el funcionamiento de los diferentes módulos planteados. Este simulador es una poderosa herramienta que permite realiza evaluaciones de métodos de detección y reconocimiento de rostros ya que genera las observaciones de un agente dentro de un mapa virtual con personas. De los experimentos en el simulador y en otros ambientes se puede concluir que los módulos de contexto realizan un aporte significativo en el rendimiento del sistema de visión, mejorando las tasas de reconocimiento y reduciendo las tasas de falsos positivos en las detecciones de rostros. La tasa de reconocimiento aumenta de 78.41% a 86.77% con el uso de filtros de contexto. El uso de visión activa permite que la tasa de reconocimiento mejore de 86.77% a 92.92%, ya que permite que se construya una mejor galería (en caso que la galería se construye online), y mejorar la pose del robot con respecto a la persona en la etapa de reconocimiento. Se desarrolla un sistema robusto para la detección y la identificación de seres humanos en entornos domésticos el cual es evaluado en un robot de servicio. La principal función es evaluar el funcionamiento del sistema de visión propuesto en una aplicación real. Se agrega un nuevo sensor (cámara térmica) y se agregan nuevos módulos al sistema (Detección de Piel Visible y Térmica, Detección y reconocimiento de Rostros Térmico, Detección de Personas). Los resultados de la evaluación del sistema en una aplicación real (prueba enmarcada en la competencia de robótica RoboCup, que se llama Who is Who ) confirman que el uso de contexto mejora el rendimiento del sistema, permitiendo aumentar la tasa de reconocimiento de 54% a 74% y reduciendo el numero de falsos positivos a 0. Nuevamente la visión activa fue un factor importante para mejorar el desempeño del sistema en general, en todos los experimentos influyó de forma positiva en el funcionamiento del sistema.
APA, Harvard, Vancouver, ISO, and other styles
3

Krauss, Benavente Felipe Antonio. "Reingeniería de un Software para Reconocimiento de Imágenes." Tesis, Universidad de Chile, 2010. http://repositorio.uchile.cl/handle/2250/104000.

Full text
Abstract:
El presente trabajo plantea la revisión de un software para el “Reconocimiento de bordes en imágenes aplicado a anillos de árboles”. Dicho producto logra satisfacer sus metas funcionales pero adolece de problemas en su diseño, lo cual provoca que la extensión del mismo se vuelva laboriosa e incluso inviable. Entre sus funcionalidades están la de aplicar distintos filtros a las imágenes, generar una malla inicial, aplicar un algoritmo de mejora en conjunto con los criterios de refinamiento y selección de un punto, y seleccionar puntos y segmentos que pueden formar parte de los anillos de los árboles. El objetivo de esta memoria es realizar un rediseño y posterior reimplementación de este software de reconocimiento de anillos de árboles, para lograr una extensión de sus funcionalidades actuales en lo que respecta al uso de polígonos como geometría inicial, la posibilidad de incorporar nuevos criterios para la mejora y selección del punto, la posibilidad de incorporar nuevos algoritmos de mejoramiento como también para la creación de la malla inicial o para la malla final. Para lo anterior se propone un proceso de desarrollo soportado en análisis y diseño por contrato. El resultado más relevante del presente trabajo es la obtención de un producto que permite la generación automática de mallas geométricas tanto para imágenes como para geometrías poligonales convexas, que además es fácilmente extensible en los aspectos mencionados.
APA, Harvard, Vancouver, ISO, and other styles
4

Zúñiga, Paredes Felipe Andrés. "Reconocimiento frontal de rostros en base a imágenes de alta resolución." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/134095.

Full text
Abstract:
Ingeniero Civil Eléctrico
Un sistema de identificación facial consiste en un método que toma una imagen del rosto de un individuo desconocido y un banco de imágenes de personas conocidas, con el objetivo de identificar a este individuo y decidir si está presente o no en el banco de imágenes conocidas. Este Trabajo de Titulo se propone como objetivo estudiar el uso de escalas de alta resolución y combinaciones de las mismas en el problema de reconocimiento frontal de rostros. Para esto se utiliza la base de datos XM2VTS que contiene imágenes de rostros de individuos a una resolución de 720x576 píxeles. Se propone generar imágenes a escalas del 50 % y 25% de escala de resolución mediante el método de Pirámides de Gauss, obteniendo tres distintas resoluciones. Luego son procesadas mediante LBP y Filtros Gabor para realizar combinaciones de la información extraída por estos métodos en distintas escalas de resolución. Finalmente se utiliza este vector de información en un clasificador K-NN y se logra el reconocimiento de cada individuo. Se realizan pruebas de reconocimiento para realizar el ajuste de parámetros de los métodos de extracción de características en distintas escalas de resolución y pruebas para detectar las combinaciones de información de estas últimas que entreguen los mejores resultados. Por separado los métodos LBP y Filtros Gabor obtuvieron como máximos desempeños un 97,96% y un 94,12% de reconocimiento exitoso respectivamente. Sin embargo, al fusionar la información obtenida a través de estas técnicas de extracción de características, se obtiene un método de reconocimiento frontal de rostros que logra un 98,9% de reconocimiento exitoso, con un tiempo de procesamiento total de 21 minutos y 1,26 segundos por cada individuo como resultado final. Comparando con trabajos similares realizados con las mismas muestras se posiciona a la par de estos, demostrando ser un método competente y eficiente, además de entregar pautas para seguir el estudio del problema del reconocimiento facial.
APA, Harvard, Vancouver, ISO, and other styles
5

Valdés, González Felipe Manuel. "Reconocimiento de huellas dactilares usando la cámara de un dispositivo móvil." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/137108.

Full text
Abstract:
Ingeniero Civil Electricista
La seguridad es un aspecto siempre presente en la vida cotidiana, ya sea como parte del ámbito laboral o de los propios hogares, en cualquier situación donde exista un flujo de información personal. Dentro de la amplia gama de sistemas basados en la determinación o confirmación de la identidad de una persona, se encuentran los que hacen uso del reconocimiento biométrico, es decir, emplean características fisiológicas, siendo una de las más utilizadas la biometría dactilar. Por otro lado, los avances de la tecnología de los dispositivos móviles, permiten que cada persona pueda disponer de una poderosa herramienta que podría ser usada para ser parte de un sistema de reconocimiento o verificación de identidad. En este contexto, el objetivo general de este trabajo de título corresponde a estudiar, diseñar e implementar un sistema capaz de usar la cámara de un dispositivo móvil como sensor biométrico, adquiriendo imágenes de dedos y analizándolas para reconocer su huella dactilar y extraer las características necesarias para la identificación o verificación de la identidad de una persona. Se implementa, en un Smarth Phone marca Huawei, modelo G-Play Mini, con Sistema Operativo Android, el cual cuenta con una cámara de 13 M.P. y una capacidad de enfoque adecuada, las etapas de: adquisición de imágenes; reconocimiento de la presencia del dedo; segmentación del objeto de interés; corrección de su pose; determinación de área factible de extraer una huella dactilar; y verificación de la calidad de la captura. En el entorno Matlab se desarrollan las etapas posteriores del sistema, correspondientes a la obtención de la huella dactilar a partir de la imagen capturada y verificada previamente, y la extracción de puntos característicos o minucias. Adicionalmente, se lleva a cabo una comparación de huellas dactilares en base a la transformada SIFT. Los resultados son presentados en base a la realización de pruebas ad hoc a cada etapa y a la construcción de una colección de huellas obtenidas mediante el algoritmo implementado. El estudio resulta positivo, pudiéndose extraer huellas dactilares y sus características a partir de imágenes de dedos. Se concluye que el análisis de color de la imagen aplicando un filtro de piel resulta efectivo para la detección del área de interés; que la valoración de la calidad de la imagen es un paso fundamental para la extracción de una huella; que la aplicación del algoritmo filtro de coherencia permite obtener la huella dactilar; y que es posible extraer características que permitan el reconocimiento o verificación de identidad. Además, se sientan las bases para un trabajo futuro con miras al desafío de mejorar cada etapa logrando un proceso más robusto ajustándose a distintas condiciones y su desarrollo por completo en un dispositivo móvil.
APA, Harvard, Vancouver, ISO, and other styles
6

Soto, Barra Claudia Naiomi. "Reconocimiento rápido de objetos usando objects proposals y deep learning." Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/150337.

Full text
Abstract:
Ingeniera Civil Eléctrica
El reconocimiento (o detección) de objetos es un área activa y en continua mejora de la visión computacional. Recientemente se han introducido distintas estrategias para mejorar el desempeño y disminuir los costos y el tiempo de detección. Entre estas, se encuentran la generación de Object Proposals (regiones en la imágen donde hay alta probabilidad de encontrar un objeto) para acelerar la etapa de localización, como respuesta al paradigma de ventana deslizante; el cada vez más popular uso de redes Deep Learning y, en particular, para la clasi cación y detección de imágenes, las redes convolucionales (CNN). Si bien existen diversos trabajos que utilizan ambas técnicas, todos ellos se centran en tener una buena performance en conocidas bases de datos y competencias en lugar de estudiar su comportamiento en problemas reales y el efecto que tiene la modi cación de arquitecturas de redes convencionales y la elección adecuada de un sistema de generación de proposals. En este trabajo de título, entonces, se tiene como objetivo principal el caracterizar métodos de generación de proposals para su uso en el reconocimiento de objetos con redes CNN, comparando el desempeño tanto de los proposals generados como del sistema completo en bases de datos fabricadas manualmente. Para estudiar el sistema completo, se comparan dos estructuras conocidas, llamadas R-CNN y Fast R-CNN, que utilizan de distintas formas ambas técnicas (generación de proposals y detección) y donde se considera en el estado del arte mejor Fast R-CNN. Se propone en este trabajo que esta hipótesis no es del todo cierta en el caso de que se trabaje con un número su cientemente bajo de proposals (donde las bases de datos acá construidas se enfocan en precisamente asegurar una cantidad baja de objetos de tamaños similares presentes en cada una: objetos sobre super cies y objetos de una sala de estar) y se acelere el proceso de clasi cación alterando el tamaño de entrada de la red convolucional utilizada. Se eligieron tres métodos de generación de Proposals de la literatura a partir de su desempe ño reportado, y fueron comparados en distintos escenarios sus tiempos de procesamiento, calidad de proposals generados (mediante análisis visual y numérico) en función del número generados de estos. El método llamado BING presenta una ventaja sustancial en términos del tiempo de procesamiento y tiene un desempeño competitivo medido con el recall (fracción de los objetos del ground truth correctamente detectados) para las aplicaciones escogidas. Para implementar R-CNN se entrenan dos redes del tipo SqueezeNet pero con entradas reducidas y seleccionando los 50 mejores proposals generados por BING se encuentra que para una red de entrada 64x64 se alcanza casi el mismo recall (~ 40%) que se obtiene con el Fast R-CNN original y con una mejor precisión, aunque es 5 veces más lento (0.75s versus 0.14s). El sistema R-CNN implementado en este trabajo, entonces, no sólo acelera entre 10 y 20 veces la etapa de generación de proposals en comparación a su implementación original, si no que el efecto de reducir la entrada de la red utilizada logra disminuir el tiempo de detección a uno que es sólo 5 veces más lento que Fast R-CNN cuando antes era hasta 100 veces más lento y con un desempeño equivalente.
APA, Harvard, Vancouver, ISO, and other styles
7

Villalon, de la Vega Dario Eduardo. "Diseño e implementación de una plataforma de software para reconocimiento facial en video." Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/112271.

Full text
Abstract:
Ingeniniero Civil Electricista
Este trabajo aborda el reconocimiento facial en video, cuya problemática se ha convertido en los últimos años en un tema altamente recurrente en diversos ámbitos tales como sistemas de seguridad, plataformas de redes sociales, aplicaciones de marketing, etc. A modo de contextualización se presenta una revisión del estado del arte en el ámbito de las metodologías de reconocimiento facial y sus principales áreas de aplicación hoy en día. También se abordan los avances actuales en reconocimiento de rostro en video, detallando iniciativas privadas y de comunidades abiertas. El objetivo general planteado corresponde al diseño, implementación y validación de una plataforma de software para el reconocimiento facial en un archivo de video, utilizando métodos ya establecidos y validados en el campo de la biometría, como lo son el algoritmo Haar para detección de rostros y el algoritmo PCA Eigenface para el reconocimiento facial. La problemática de fondo tiene que ver con la utilización de estos algoritmos en un escenario como el de un video, en el cual no necesariamente existe una actitud colaborativa de parte de las personas, aportando gestos, poses y luminosidad muy cambiantes, lo cual dificulta la comparación entre los rostros detectados y el rostro objetivo que se desea identificar. El sistema desarrollado se compone principalmente de 4 módulos funcionales: módulo de ingreso de imágenes del rostro objetivo para el entrenamiento del sistema; módulo de ingreso del video a procesar; módulo del proceso de reconocimiento y módulo de entrega de resultados. Adicionalmente se desarrolló un módulo con una herramienta que facilita la generación de la referencia de verdad o Ground Truth para el rostro objetivo en el video de interés, con el fin de evaluar de la efectividad del sistema. Para la ejecución de pruebas, se seleccionaron tres rostros objetivo a partir de los cuales se construyó una base de imágenes con 100 fotografías por cada rostro las que fueron recolectadas desde Internet. También se seleccionó desde Internet un video de alta resolución para cada rostro. Los resultados de las pruebas son presentados mediante el análisis de curvas ROC y cálculo del índice AUC para cada curva. Las conclusiones obtenidas apuntan a una alta dependencia de la calidad de la información de entrenamiento del sistema para lograr una aceptable capacidad de reconocimiento, que en este caso alcanzo a un 73% en el caso más favorable. Las líneas de trabajo futuras propuestas apuntan a la utilización de algoritmos alternativos para reconocimiento facial, y a la inclusión de funciones adicionales de pre-proceso de imágenes, con el fin de mejorar la estandarización de los rostros a procesar.
APA, Harvard, Vancouver, ISO, and other styles
8

Tapia, Farías Juan Eduardo. "Clasificación de Género en Imágenes Faciales Usando Información Mutua." Tesis, Universidad de Chile, 2012. http://repositorio.uchile.cl/handle/2250/102779.

Full text
Abstract:
Durante la década de los 90, uno de los principales problemas abordados en el área de visión computacional fue el detectar rostros en imágenes, para lo cual se desarrollaron innumerables métodos y aplicaciones que pudieran realizar dicha tarea. En la actualidad, ese problema se encuentra prácticamente solucionado con detectores con tasas de detección muy altas, por lo cual, el problema ha evolucionado a poder obtener información adicional de estos rostros detectados, ya sea identi cando su raza, edad, emociones, género, entre otros. Es en este contexto, que se enmarca esta investigación. La clasi cación de género se considera una tarea difícil y complementaria al reconocimiento de patrones, a causa de la alta variabilidad de la apariencia del rostro. Los rostros son objetos no rígidos y dinámicos con una diversidad grande en la forma, el color y la textura, debido a múltiples factores como la pose de la cabeza, iluminación, expresiones faciales y otras características faciales. La alta variabilidad en la apariencia de los rostros afectan directamente su detección y clasi cación. En este trabajo de tesis se implementaron los métodos de extracción de características basados en intensidad y textura, se midió su desempeño con 4 tipos de clasi cadores distintos. Las características extraídas fueron fusionadas al nivel de las características. Por otra parte, se extendió el efecto de seleccionar características utilizando 3 métodos basados en Información Mutua, Mínima redundancia y Máxima relevancia(mRMR), Información Mutua Normalizada (NMIFS), Información Mutua Condicional (CMIFS). Se compararon nuestros resultados con los mejores datos publicados, utilizando las bases de datos internacionales de rostros FERET y WEB, usando diferentes tamaños de imágenes y particiones de datos. Se obtuvieron mejoras signi cativas en la clasi cación de género, que van desde 1.2 % al 12.7 % sobre la base de datos FERET y desde 4.1 % al 8.9 % sobre la base de datos WEB. Además, se redujo el número de características utilizadas como entradas en el clasi cador. Dependiendo del tamaño de la imagen, el número total de características seleccionadas es reducida a menos del 74 % en la base de datos FERET y en un 76.04 % en la base de datos WEB. Por lo tanto, el tiempo computacional se reduce signi cativamente para aplicaciones en tiempo real.
APA, Harvard, Vancouver, ISO, and other styles
9

Delgado, Rodríguez Ángel. "Control y reconocimiento táctil aplicado en tareas de manipulación de objetos deformables." Doctoral thesis, Universidad de Alicante, 2017. http://hdl.handle.net/10045/72613.

Full text
Abstract:
En esta Tesis se presenta una arquitectura innovadora para el control de tareas de manipulación de objetos deformables, usando sistemas robóticos compuestos por brazos articulados y manos humanoides. Esta arquitectura se basa principalmente en información sensorial obtenida desde sensores táctiles con los que se ha equipado a las manos robóticas. El principal objetivo del desarrollo de las técnicas que se describirán en esta memoria es obtener un sistema fiable, aplicable, y adaptable. Para que el sistema sea fiable, éste ha de ofrecer una respuesta correcta en ejecución continua durante su aplicación. La aplicabilidad del sistema se plantea también como un objetivo principal, ya que se desea que los algoritmos desarrollados puedan ser utilizados en usos reales de aplicación de manipulación robótica de objetos deformables. Por último, se plantea como objetivo principal del sistema la adaptabilidad, es decir, que el sistema desarrollado pueda aplicarse tanto con distintos tipos de elementos (robots, manos robóticas y sensores táctiles), como con distintos tipos de objetos deformables. La manipulación de objetos deformables es aún un reto abierto en el campo de la manipulación robótica. En la manipulación robótica de objetos rígidos, el modelado y cálculo de fuerzas y velocidades de interacción entre objeto y elemento prensor normalmente resultan viables. Sin embargo, cuando se trata de objetos deformables con múltiples grados de deformación, la complejidad de los modelados y cálculos aumenta considerablemente. Muchos han sido los trabajos presentados en los que se estudia el control de la manipulación de objetos deformables usando técnicas de control basadas en el modelado de los objetos y el cálculo de las fuerzas de interacción. Dichos trabajos usan versiones adaptadas de las leyes dinámicas que rigen la interacción entre dos objetos rígidos, incluyendo conceptos como el rango limitado de fuerzas aplicadas. Estas técnicas son muy precisas cuando se utilizan en entornos estructurados, pero no resultan viables cuando se intentan aplicar en entornos no estructurados o con múltiples tipos de objetos a tratar, para los que no se dispone de un modelo físico. Como respuesta al principal problema que ofrecen los sistemas de manipulación basados en utilización de modelos dinámicos, su falta de adaptabilidad, en esta Tesis se ofrece una visión alternativa para afrontar el reto de manipular objetos deformables, en la que el sistema no depende de tener previamente un modelo del objeto que va a usar. De esta manera se consigue un sistema ágil y adaptable que puede operar con una gran diversidad de objetos aun cuando el modelado no existe o es inapropiado. Esto se consigue controlando el sistema usando únicamente información interna de posicionamiento articular de los dedos y el brazo, e información de sensores táctiles colocados en las manos robóticas. El sistema se ha basado en el comportamiento humano para manipular objetos. El ser humano utiliza principalmente información táctil combinada con el propio conocimiento del posicionamiento y movimientos de los dedos de las manos para conocer cómo se deforma un objeto y si este se agarra con estabilidad o se producen deslizamientos entre mano y objeto. La arquitectura propuesta se ha organizado en tres niveles: agarre y exploración táctil, control táctil y planificación de tareas. El primer nivel se corresponde a la primera interacción entre mano y objeto, donde se establecen los puntos de contacto idóneos para realizar el agarre en función de la forma del objeto, y se incorpora además un procedimiento de exploración del objeto para analizar su rigidez combinando información táctil con información de desplazamiento de los dedos. De esta manera, se obtiene en la propia tarea de manipulación una descripción simplificada del objeto, sin tener que recurrir a un estudio dinámico previo del mismo. El segundo nivel se corresponde con el control de los dedos en función de la información táctil obtenida durante toda la tarea de manipulación, que permite tanto evitar deslizamientos y pérdida de contacto con el objeto, como producir deformaciones locales en él. En este nivel se presenta el concepto innovador de control táctil aplicado a los dedos de manos humanoides. Se describe también el concepto de imágenes táctiles, usadas para encapsular información táctil proveniente de distintos tipos de sensores en una misma representación escalada. Esta representación permite identificar el estado de las configuraciones de contacto, y por lo tanto utilizar el control táctil en función de las variaciones que se vayan produciendo en ellas. Por último, al nivel más alto, se presenta el método de planificación de tareas propuesto. Este método se basa en los niveles anteriores, que dan información descriptiva del objeto usado y de la configuración de contactos. Se divide en dos partes, un planificador global que establece movimientos de brazo y mano para realizar las trayectorias deseadas para llevar a cabo una tarea, y un planificador local que se encarga de controlar la interacción entre cada uno de los dedos y el objeto, previniendo la pérdida de contacto y aplicando deformaciones locales cuando la tarea lo requiere. La Tesis se ha organizado acordemente a la estructura descrita anteriormente. El primer Capítulo incluye una introducción de los objetivos, ámbito y motivación de la Tesis. En el segundo Capítulo se describe el mecanismo de agarre y exploración propuesto. Se hace además en este Capítulo un repaso sobre el estado del arte en técnicas de agarre y modelado, y una descripción de los principales conceptos relacionados con el agarre (matriz de agarre, modelado y medidas de calidad). En el tercer Capítulo se describe el sistema de control táctil propuesto y el uso de imágenes táctiles. Se añade además un repaso histórico sobre técnicas de control en la manipulación de objetos y tecnologías relacionadas con los sensores táctiles. El Capítulo cuarto describe el planificador propuesto, tanto a nivel local como a nivel global. En este Capítulo se presenta también un repaso histórico sobre técnicas de planificación en la manipulación de objetos, tanto usando un sistema uni-manual como un sistema bi-manual. Se incluye además un análisis sobre el comportamiento dinámico de objetos deformables, que se usa como base en la planificación de las tareas para provocar deformación. Los tres Capítulos que forman el núcleo de la Tesis, contienen una sección de pruebas en las que se justifica la utilización de los métodos propuestos en casos reales de aplicación y se demuestra la viabilidad del sistema. La Tesis se completa con un Capítulo final de conclusiones, resumen y enumeración de las publicaciones relacionadas con las aportaciones comentadas anteriormente.
APA, Harvard, Vancouver, ISO, and other styles
10

Guillen, Palacios Felipe Ignacio. "Identificación de daños en placas compuestas mediante procesamiento automático de imágenes." Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/165718.

Full text
Abstract:
Ingeniero Civil Mecánico
Hoy en día el análisis de fallas o desgastes en estructuras es un punto de investigación que ha mantenido a varios científicos a la vanguardia con respecto a estos temas. Siempre se ha buscado optimizar el análisis de fallas, de tal forma de realizarlo en el menor tiempo y de la forma más precisa posible. En este contexto y basado en el problema de la detección de anomalías de pacientes en mamografías, las cuales se detectan en gran parte en base a la experiencia de los doctores, ha dado pie a la investigación de metodologías de procesamiento de imágenes para evaluar el daño en estructuras compuestas. La memoria comprende un estudio específico de imágenes tomadas a estructuras compuestas, por ejemplo, en paneles tipo sándwich, en donde se diseñarán métodos de procesamiento automático de imágenes para la detección de zonas delaminadas o dañadas. Se desarrolla una metodología para estudiar los distintos tipos de métodos de reconocimiento de imágenes que se usan hoy en día en detección de masas en mamogramas y analizar cuáles son factibles a aplicar en reconocimiento de daños en estructuras compuestas. Luego se busca aplicar estos métodos en imágenes simuladas al azar para obtener algoritmos lo más eficientes posibles. Finalmente se aplican estos algoritmos en imágenes experimentales y se concluyen la eficacia de estos. Se trabaja con 7 métodos de análisis de imágenes hasta el momento, Promedio Factor de Correlación el cual busca encontrar una cota la cual limita las intensidades de colores. Para ello se trabaja con una matriz de confusión para poder obtener la proporción de falsos positivos y negativos, la cual se aplica en todos los métodos de tal forma de obtener la certeza de cada uno. Junto con este método se implementa una mejora en donde se eliminan objetos o anomalías de menores tamaño ya que no se consideran como daños. También se trabaja identificando los outliers considerando una distribución T-Student. Se trabaja con la caracterización del perímetro y del área de las anomalías obtenidas ya sea modelándolas por default al momento de ser procesadas o a través de una elipse con similar segundo momento normalizado. Por último tambien se trabaja con un método el cual compra la variación de gradiente entre una imagen procesado y una imagen con índices de daños y define las anomalías en base a la magnitud del gradiente. Como principales resultados se obtuvo una Proporción de Falsos Negativos (FNR) de 0,046 con el método de Ponderación con Factor Correlación con Filtro, pero aplicando el método de área y perímetro en base a elipses se obtiene un valor mayor de FNR de 0,052 pero con menos variabilidad, con lo que lo hace un algoritmo más confiable pero menos certero.
Este trabajo ha sido parcialmente financiado por Proyecto Fondecyt 1170535
APA, Harvard, Vancouver, ISO, and other styles
11

Escalona, Neira Ismael Fernando. "Interfaz humano máquina controlada por gestos." Tesis, Universidad de Chile, 2014. http://www.repositorio.uchile.cl/handle/2250/116663.

Full text
Abstract:
Ingeniero Civil Eléctrico
El lenguaje corporal es importante para comunicarse fluidamente con las personas. En el ámbito de la interacción con máquinas, existen sistemas para reconocer automáticamente gestos, pero confunden cuerpos de color similar y sus capacidades son muy inferiores a las de los seres humanos. Para contribuir a la solución de este problema, se presenta una plataforma que sigue una esquina e identifica pulsaciones utilizando una webcam, independientemente del tono del objeto y del fondo, lo que se efectúa analizando variaciones luminosas. El sistema registra imágenes con una cámara y las preprocesa para disminuir el ruido. Posteriormente, obtiene las zonas con cambios luminosos y reconstruye los objetos móviles. Luego, identifica las esquinas de los cuerpos, sigue la trayectoria de una de ellas y verifica si hay oscilaciones. La plataforma es complementada con módulos para configurar su funcionamiento, dibujar trayectorias y controlar un cursor. La programación se realiza en C++ y utiliza las librerías OpenCV para procesar imágenes y Qt para mostrar la interfaz de usuario. El desempeño se evalúa con videos en que un dedo recorre trayectorias predefinidas. En las pruebas se utilizan varios tipos de iluminación, fondos, distancias a la cámara, posturas y velocidades de movimiento. Los resultados muestran que el algoritmo ubica el dedo con error promedio de 10 píxeles y detecta pulsaciones en el 82% de los intentos. Se producen fallas cuando hay fuentes de luz frente a la cámara, oscuridad o movimiento detrás de la mano. El programa se ejecuta a 30fps y utiliza el 16% de un procesador Intel Core i5-3337u. La plataforma es capaz de distinguir objetos de tono similar, pero es poco tolerante a movimientos en el fondo. Una combinación de los métodos basados en variaciones luminosas y color puede corregir sus deficiencias mutuamente y habilitar aplicaciones que utilicen señales hechas con las manos para ordenadores personales y robots.
APA, Harvard, Vancouver, ISO, and other styles
12

León, Nájera Mariano. "DISEÑO DEL ALGORITMO DEL PERFIL DEL ESTUDIANTE CON INTELIGENCIA ARTIFICIAL, INTEGRANDO EL RECONOCIMIENTO FACIAL." Tesis de maestría, Universidad Autónoma del Estado de México, 2021. http://hdl.handle.net/20.500.11799/112765.

Full text
Abstract:
Tesis de la Maestría en Ciencias de la Computación
De la gran variedad de plataformas de aprendizaje que existen hoy en día, y con las nuevas tecnologías están en caminando a todas ellas a brindar un servicio más personalizado, servicio que solo pueden brindar las plataformas de aprendizaje adaptativas. La estructura de estas plataformas se basa en estudiar primeramente al alumno, desde su comportamiento, resultados de los temas que visita, las lecciones, los materiales de apoyo con los cuales interactúa y definitivamente sus evaluaciones y logros, así es como se estructura un elemento muy importante, al cual se le conoce como perfil del estudiante. La presente investigación busca incorporar más elementos que complementen este perfil del estudiante al integrar reconocimiento facial, de tal manera que la plataforma de aprendizaje adaptativa pueda responder con ayuda complementaria a expresiones que la inteligencia artificial identifique que el alumno no esté comprendiendo adecuadamente el tema, de tal manera que el alumno se encuentre motivado a continuar con sus estudios, brindando una mejor experiencia de aprendizaje al brindarle un espacio mayormente personalizado y evitar de esa manera la deserción de alumnos en estas plataformas.
APA, Harvard, Vancouver, ISO, and other styles
13

Castillo, Faune Luis Ernesto. "Improvements in illumination compensation for face recognition under noncontrolled illumination conditions." Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/145204.

Full text
Abstract:
Doctor en Ingeniería Eléctrica
Face recognition depends strongly on illumination conditions, especially in non-controlled scenarios where face illumination is not homogeneous. For this reason, illumination compensation is crucial in this task. Several methods for illumination compensation have been developed and tested on the face recognition task using international available face databases. Among the methods with best results are the Discrete Cosine Transform (DCT), Local Normalization (LN) and Self-Quotient Image (SQI). Most of these methods have been applied with great success in face recognition using a principal component classifier (PCA). In the last decade, Local Matching Gabor (LMG) classifiers have shown great success in face classification relative to other classifiers. In all cases, the illumination compensation methods improve the face recognition rates in unevenly illuminated images, but affect negatively in some well illuminated images. The aim of this thesis is to propose improvements to the current illumination compensation methods to obtain improved face recognition rates under different illumination conditions. Using genetic algorithms (GAs), parameters of the SQI method were selected to improve face recognition. The parameters optimized by the GA were: the fraction of the mean value within the region for the SQI, selection of Arctangent, Sigmoid, Hyperbolic Tangent or Minimum functions to eliminate noise, and the weight values of each filter are selected within a range between 0 and 1. The results obtained after using the proposed method were compared to those with no illumination compensation and to those previously published for SQI method. Four internationally available face databases were used: Yale B, CMU PIE, AR, Color FERET (grayscaled), where the first three contain face images with significant changes in illumination conditions, and the fourth one contains face images with small changes in illumination conditions. The proposed method performed better than SQI in images with non-homogeneous illumination. In the same way, GAs were used to optimize parameters of the modified LN and SQI methods in cascade for illumination compensation to improve face recognition. The main novelty of this proposed method is that it applies to non-homogeneous as well as homogeneous illumination conditions. The results were compared to those of the best illumination compensation methods published in the literature, obtaining 100% recognition on faces with non-homogeneous illumination and significantly better results than other methods with homogeneous illumination. Also, the DCT, LN, and SQI illumination compensation methods were optimized using GAs to be used with the LMG face classifier. Results were tested on the FERET international face database. Results show that face recognition can be significantly improved by modified versions of the current illumination compensation methods. The best results are obtained with the optimized LN method which yields a 31% reduction in the total number of errors in the FERET database. Finally, an extension of the LN method using Kolmogorov-Nagumo-based statistics was proposed to improve face recognition. The proposed method is a more general framework for illumination normalization and it was showed that LN is a particular case of this framework. The proposed method was assessed using two different classifiers, PCA and LMG, on the standard face databases Extended Yale B, AR and Gray FERET. The proposed method reached significantly better results than those previously published for other versions of LN on the same databases.
APA, Harvard, Vancouver, ISO, and other styles
14

Ramírez, Díaz José Fernando. "Formación de imagen completa de una página con texto impreso mediante procesamiento de imágenes obtenidas de un video." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2020. http://hdl.handle.net/20.500.12404/17644.

Full text
Abstract:
En la presente tesis se aborda el diseño e implementación de un algoritmo que permite formar la imagen completa de un documento con texto impreso partiendo de un video que contiene fragmentos de la página en cuestión. Dicho algoritmo recibe como entrada un video registrado empleando la cámara de un teléfono móvil y como resultado retornará la imagen del documento con texto completo; esta imagen puede ser empleada posteriormente en un algoritmo de reconocimiento óptico de caracteres (u OCR por sus siglas en inglés) para recuperar el texto en forma digital. El enfoque del desarrollo de esta propuesta es el de brindar una solución alternativa, en cuanto a adquisición de imágenes, para las existentes aplicaciones móviles de OCR enfocadas en apoyar a personas con ceguera parcial o total. Para abarcar el planteamiento y cumplimiento de los objetivos de este proyecto, se ha estructurado el mismo en 4 capítulos. En el capítulo 1 se aborda la actual situación de personas con distintos grados de discapacidad visual en nuestro país y diversos sistemas que buscan apoyarlos en recuperar su autonomía informativa y educativa. Además, se trata detalles sobre el estado del arte en adquisición de imágenes para las aplicaciones OCR existentes en la actualidad y sus falencias. En el capítulo 2 se presenta el marco teórico que avala el desarrollo del algoritmo propuesto, desde la teoría necesaria en procesamiento de imágenes y, también, sobre el registro de vídeos. En el capítulo 3 se trata el diseño e implementación del algoritmo en dos plataformas: inicialmente en Python 3.6 para la etapa de calibración de parámetros en una computadora de escritorio, y en C++ para las pruebas finales en un teléfono con SO Android. En dicho capítulo también se hace presente consideraciones planteadas para la creación del conjunto de videos de pruebas en Python. Finalmente, en el capítulo 4 se exponen las pruebas y resultados obtenidos de la aplicación del algoritmo, en Python, sobre la base de muestras creadas, y los resultados finales del uso de la aplicación en Android. Para estimar el grado de conformidad de la imagen resultante se hará uso de la métrica de Levenshtein o distancia de edición, la cual señala cuántos caracteres detectados en la imagen compuesta son diferentes a los caracteres del texto original.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
15

Salvador, Balaguer Eva. "Tecnologías emergentes para la captura y visualización de imagen 3D." Doctoral thesis, Universitat Jaume I, 2017. http://hdl.handle.net/10803/404533.

Full text
Abstract:
En el mundo en el que vivimos se reconocen tres dimensiones espaciales. Sin embargo, los sensores más extendidos son bidimensionales y la tecnología 3D presenta numerosas limitaciones que impiden un uso más extendido. En la presente tesis se hace un recorrido por parte de la tecnología 3D disponible estudiando ventajas, limitaciones y aplicaciones. De las diferentes alternativas de imagen 3D, se exploran los dispositivos autoestereoscópicos multivista, la imagen integral, la imagen con información de rango y la fotometría estéreo. Además, se utiliza una técnica similar a la luz estructurada para obtener imágenes bidimensionales o incluso imágenes tridimensionales con detectores sin resolución espacial. Los estudios realizados nos permiten decantarnos por una u otra tecnología dependiendo de la aplicación. El objetivo no es pues proponer una única alternativa de tecnología para imagen tridimensional, sino ofrecer una visión general de las distintas técnicas disponibles y plantear soluciones a algunas de las limitaciones principales.
There are three spatial dimensions recognized in our world. However, most widespread sensors are two-dimensional and current 3D technology has numerous limitations that block a wider use. In this thesis we study the advantages, limitations and applications of part of the 3D technology available nowadays. From the different alternatives of 3D imaging, we explore the autostereoscopic 3D devices, integral image technique, range imaging and stereo photometry. In addition, we use a technique similar to structured light to obtain two-dimensional images or even three-dimensional images with bucket detectors. The studies done allow us to choose the proper technology depending on the application. The mail goal of the thesis is not to propose a single technology for three-dimensional imaging, but to offer an overview of the different techniques available and to propose solutions to some of the main limitations.
APA, Harvard, Vancouver, ISO, and other styles
16

Silva, Leal Juan Sebastián. "Optimización de proceso de detección de partículas a partir de imágenes de video mediante paralelización." Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/111362.

Full text
Abstract:
Ingeniero Civil en Computación
La detección de objetos a partir de imágenes se ha convertido en una herramienta muy poderosa para diferentes disciplinas. El Laboratorio de Materia Fuera del Equilibrio del Departamento de Física de la Facultad cuenta con una implementación en C del Método χ^2 usando bibliotecas ad-hoc compatibles con Mac OSX para detectar partículas en sistemas granulares cuasi-bidimensionales compuestos por miles de partículas de acero de 1 mm de diámetro, pudiendo detectar partículas en una imagen de 1 MegaPixel en alrededor de 10 segundos. Sin embargo, estas imágenes provienen de videos que se desean analizar y en una sesión de trabajo se puede requerir analizar alrededor de unas 100.000 imágenes en total, por lo cual el procesamiento y posterior análisis de estas imágenes de video tiene una duración de varios días. Es por esto que fue necesario agilizar de alguna manera este procesamiento de imágenes y generar una solución robusta. El objetivo principal de la memoria consistió en reducir los tiempos de detección de partículas generando un nuevo software basado en el anterior, facilitando extensiones futuras, y utilizando el máximo poder de cómputo disponible en el laboratorio. El alumno ideó como solución un sistema distribuido haciendo uso de todos los computadores disponibles para el procesamiento de imágenes, reimplementando el código del software, en ese entonces utilizado, de C a C++ utilizando patrones de diseño para facilitar futuras extensiones del software y threads con el fin de aumentar el rendimiento de este. También se agregó tecnología CUDA para el procesamiento de datos reduciendo de forma considerable los tiempos de ejecución. Como resultado final de la memoria, se logró obtener un speedup de alrededor de 5x haciendo uso de distribución de carga computacional, uso de procesos en paralelo, hilos de ejecución y tecnología CUDA, además se logró una solución más robusta y extensible para futuros cambios o generación de nuevos algoritmos de procesamiento. Todo el proceso de investigación, desde la obtención de datos hasta la validación de la hipótesis, lleva mucho tiempo, en donde la detección de partículas es solo una parte de todo el calculo computacional que se debe realizar, por lo que se aconseja implementar en lenguajes no interpretados y más rápidos, como por ejemplo C++, otras etapas de cálculo de datos y además, en lo posible, distribuir el computo y usar CUDA.
APA, Harvard, Vancouver, ISO, and other styles
17

Yonekura, Baeza Sebastián. "Evaluación y mejora de un sistema de reconocimiento de iris a distancia utilizando cámara de alta resolución." Tesis, Universidad de Chile, 2014. http://repositorio.uchile.cl/handle/2250/132304.

Full text
Abstract:
Ingeniero Civil Eléctrico
Los sistemas biométricos corresponden a sistemas que realizan el reconocomiento automático de individuos a través de atributos únicos. Para que un patrón biométrico sea utilizable, debe cumplir ciertas propiedades, entre ellas las más importantes son: universalidad; invarianza en el tiempo; fácil recolección y almacenamiento. Se considera que el iris cumple con todas estas características y ha sido utilizado en sistemas de reconocimiento por más de una década. A medida que ha transcurrido el tiempo, los sistemas basados en reconocimiento de iris han mejorado considerablemente con respecto a su exactitud, sin embargo, aún se utilizan sistemas altamente cooperativos y en particular en condiciones de iluminación dañinas para la salud, por lo que la comunidad de investigadores se ha volcado en torno a relajar las restricciones en las que operan estos sistemas, con el fin de mejorar la experiencia de uso y la calidad de vida de los usufructuarios. En este trabajo se evalúa un sistema de reconocimiento de iris a distancia, en donde se utilizan las características de color y textura del mismo para llevar a cabo la clasificación. El trabajo abarca el estudio de distintos algoritmos de preprocesamiento de imágenes, esquemas de codificación y comparación propuestos durante los últimos años, los cuales se evalúan cada uno por separado y finalmente se utilizan en conjunto, además de describir el método propuesto para computar la desición final del sistema. El algoritmo se evalúa en una base de datos que consta de 1505 imágenes correspondientes a 54 sujetos, tomadas a una distancia aproximada de 1.5 [m] de distancia de la cámara utilizando iluminación de espectro visible. A partir de esta base de datos se seleccionan las mejores imágenes de iris utilizando distintos sistemas de evaluación de enfoque, luego se particiona en una base de datos de entrenamiento de parámetros y otra de validación, y finalmente se muestran los resultados con respecto a la base de datos de validación. Se utilizaron kernels para evaluar el enfoque de las imágenes capturadas, en particular los propuestos por Daugman, Kang y Wei y se observó que el kernel de Daugman resulta ser más efectivo. Se utilizaron distintos métodos de corrección de enfoque, reducción de ruido y ecualización de imágenes combinados para mejorar la tasa de reconocimiento del sistema, y se concluyó que el filtro de Wiener para reducir el ruido otorga los mejores resultados. Se implementó un sistema de codificación generalizada para aumentar arbitrariamente la cantidad de bits que se obtienen por cada pixel de la imagen, concluyendo que el mejor tamaño de codificación fue de 4 bits por pixel luego de reducir el ruido en las imágenes utilizando el filtro de Wiener. Se implementó un mapa de pesos por cada usuario registrado en la base de datos, la cual se encarga de otorgarle mayor peso a los bits que a priori son menos variables entre muestras, lo que aumentó la exactitud promedio desde 17.72% a 26.6% utilizando sólo esta mejora, con 5 imágenes por usuario enrolado. Se evaluaron dos métodos para clasificar el iris de acuerdo a su coloración, diferencia promedio y distancia de difusión, en donde se concluyó que la diferencia promedio otorga mejores resultados, sin embargo esta característica no es lo suficientemente discriminadora como para ser utilizada por sí sola. El resultado final del índice de reconocimiento del sistema al utilizar todas las mejoras antes mencionadas y fusionando las características de textura iridal y color de iris de ambos ojos es del 90.77%, con una tasa de aceptación de impostores del 0% en promedio.
APA, Harvard, Vancouver, ISO, and other styles
18

Arenas, Sepúlveda Matías Esteban. "Detección y Seguimiento de Robots Articulados Mediante Análisis Computacional de Imágenes." Tesis, Universidad de Chile, 2009. http://repositorio.uchile.cl/handle/2250/102172.

Full text
Abstract:
El objetivo de esta tesis es diseñar e implementar un sistema de detección y seguimiento de robots articulados mediante el análisis computacional de imágenes. El principal aporte es extender el uso de técnicas de detección de objetos rígidos a robots articulados y lograr un seguimiento en tiempo real de la posición de éstos en imágenes y secuencias de video. El trabajo realizado está enfocado principalmente a condiciones de fútbol robótico pero es fácilmente extendible a otras aplicaciones. El reconocimiento de robots articulados requiere la detección de éstos en cualquier estado y posición. Para lograrlo, se probaron distintos tipos de clasificadores de manera de obtener una mayor tasa de detección, independiente del estado del robot (acostado, parado, caminando, etc…). Los robots utilizados para probar los algoritmos fueron el robot Aibo y los robots de tipo Humanoide (basado en el modelo Hajime). El sistema antes mencionado necesitó la creación e implementación de distintas herramientas computacionales. Para la detección de robots en imágenes se utilizó un sistema basado en Adaboost, y para el posterior seguimiento se ocupó el algoritmo “mean-shift”. Para la detección mediante Adaboost se generaron una serie de bases de datos para el entrenamiento del algoritmo. Posteriormente se construyeron diversos clasificadores (frontal, lateral, trasero, global, etc…), y se probaron distintas estrategias de detección. El detector con mejores resultados para Aibos fue el Lateral, con una tasa de detección de hasta 94.7% con 98 falsos positivos en la base de datos AIBODetUChileEval. Luego siguen el detector Trasero, con 89.9% y 166 falsos positivos y, por último, el detector Frontal con 89.4% y 254 falsos positivos. Finalmente se probó la detección de los Aibos en todas las posiciones con un detector múltiple, el cual obtuvo una tasa de detección de 94.8% con 392 falsos positivos. Aplicando solo el detector frontal sobre todas las imágenes con Aibos obtuvo solo un 90% de detecciones con 392 falsos positivos, pero es más rápido que el detector múltiple. Para los Humanoides se desarrolló un solo detector que logró un 92.2% de detecciones con 123 falsos positivos sobre la base de datos HDetUChileEval. Se concluyó finalmente que los clasificadores Adaboost elegidos en este trabajo para hacer las clasificaciones reportan excelentes resultados, y no se duda que puedan también hacerlo en otros tipos de aplicaciones de similares características. Además se logró hacer la detección y el seguimiento de robots en tiempos muy cercanos al tiempo real, lo cual permite ocuparlo en aplicaciones con altas restricciones de procesamiento.
APA, Harvard, Vancouver, ISO, and other styles
19

Smith, Albornoz Felipe Eduardo. "Evaluación de estrategias de fusión para un sistema de identificación de personas multimodal utilizando imágenes de rostro y zona periocular." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/136244.

Full text
Abstract:
Ingeniero Civil Eléctrico
La biometría corresponde al estudio de medidas en base a diferentes características humanas, tales como huellas digitales, iris, rostro y voz, entre otros. Un gran campo de aplicación de esta corresponde al reconocimiento de rostro para seguridad y control de identidad. Recientemente, se han realizado estudios que indican que la zona peri-ocular, segmento que rodea al ojo, puede ser usado en un sistema de reconocimiento con buenos resultados. Este trabajo de título propone como objetivo estudiar la fusión de información entre dos sistemas de reconocimiento, basado en imágenes de rostro e imágenes de zona peri-ocular, a nivel de características, puntaje y decisión. Para ello se usan las bases de datos AT&T de rostro y una base propia de imágenes de zona peri-ocular pertenecientes al laboratorio de procesamiento de imágenes del Departamento de Ingeniería Eléctrica de la Universidad de Chile. Se implementan sistemas de reconocimiento basándose en 3 métodos de extracción de características diferentes, PCA, LDA y LBP, en C++ utilizando la librería FaceRecognizer de OpenCV. Se implementa además un sistema de fusión para cada nivel de información: característica, puntaje y decisión. Se realizan pruebas de desempeño a los sistemas de reconocimiento de forma individual, fusionados por nivel e integrados totalmente y se comparan mediante el área bajo la curva ROC y la curva de Precision-Recall. Se crea además un sistema fusionado por puntaje válido y moda de decisión llegando a un 98.57% de clasificación correcta. Finalmente se concluye que el mejor tipo de fusión es en el nivel de decisión, considerando el costo computacional de los algoritmos, y se entregan detalles sobre las direcciones a seguir en una posible investigación futura.
APA, Harvard, Vancouver, ISO, and other styles
20

Contreras, Schneider Daniel Alfonso. "Segmentación de iris en imágenes digitales en condiciones reales con oclusiones de pestañas y parpados." Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/112303.

Full text
Abstract:
Ingeniero Civil Electricista
El reconocimiento de personas ha sido un área de estudio importante en el último siglo y se ha intentado utilizar todos los rasgos característicos humanos posibles para este propósito, dando paso a la ciencia de la biometría. En el último tiempo se han desarrollado varios trabajos que utilizan el iris como medida biométrica, lo que se ha visto posibilitado gracias al avance de la tecnología relacionada a la fotografía digital. Un sistema de reconocimiento de iris se compone de tres procesos esenciales: adquisición de imagen, segmentación del iris y clasificación del sujeto. La gran mayoría del estudio del iris se ha realizado utilizando imágenes adquiridas bajo condiciones muy ideales de iluminación y cooperación del usuario. Sin embargo en los últimos años esto se ha ampliado a considerar condiciones más reales de trabajo. Este trabajo tiene como objetivo el diseño de un método de segmentación de iris, que considere condiciones menos cooperativas. El método desarrollado se divide en seis procesos que se enfocan en segmentar diferentes secciones del ojo dentro de la imagen. Primero se eliminan todos los reflejos especulares que puedan haber y se busca la ubicación del centro del iris en la imagen. Luego se segmentan el límite límbico y la pupila, aprovechando su forma normalmente circular, finalizando con la segmentación del párpado y las pestañas. El resultado es una máscara binaria que muestra la posición del iris dentro de la imagen de entrada. Se utiliza la base de datos UBIRIS v.2 para el diseño y prueba de este método. Calculando la cantidad de pixeles mal detectados (FP+FN) sobre la cantidad total de pixeles de la imagen, se obtiene un error promedio de 1,68%. Mientras que a partir del promedio de los valores de FPR y FNR de cada imagen, el error se establece en 10%. Estos resultados son comparables con las mejores publicaciones enviadas al concurso NICE.I relativo al mismo tema. Un promedio de 2[s] requiere el algoritmo en procesar cada imagen, lo que permite creer que podrá ser utilizado en situaciones de tiempo real como parte de un sistema de reconocimiento automático de iris.
APA, Harvard, Vancouver, ISO, and other styles
21

Romero, Gómez Verónica. "Multimodal Interactive Transcription of Handwritten Text Images." Doctoral thesis, Universitat Politècnica de València, 2010. http://hdl.handle.net/10251/8541.

Full text
Abstract:
En esta tesis se presenta un nuevo marco interactivo y multimodal para la transcripción de Documentos manuscritos. Esta aproximación, lejos de proporcionar la transcripción completa pretende asistir al experto en la dura tarea de transcribir. Hasta la fecha, los sistemas de reconocimiento de texto manuscrito disponibles no proporcionan transcripciones aceptables por los usuarios y, generalmente, se requiere la intervención del humano para corregir las transcripciones obtenidas. Estos sistemas han demostrado ser realmente útiles en aplicaciones restringidas y con vocabularios limitados (como es el caso del reconocimiento de direcciones postales o de cantidades numéricas en cheques bancarios), consiguiendo en este tipo de tareas resultados aceptables. Sin embargo, cuando se trabaja con documentos manuscritos sin ningún tipo de restricción (como documentos manuscritos antiguos o texto espontáneo), la tecnología actual solo consigue resultados inaceptables. El escenario interactivo estudiado en esta tesis permite una solución más efectiva. En este escenario, el sistema de reconocimiento y el usuario cooperan para generar la transcripción final de la imagen de texto. El sistema utiliza la imagen de texto y una parte de la transcripción previamente validada (prefijo) para proponer una posible continuación. Despues, el usuario encuentra y corrige el siguente error producido por el sistema, generando así un nuevo prefijo mas largo. Este nuevo prefijo, es utilizado por el sistema para sugerir una nueva hipótesis. La tecnología utilizada se basa en modelos ocultos de Markov y n-gramas. Estos modelos son utilizados aquí de la misma manera que en el reconocimiento automático del habla. Algunas modificaciones en la definición convencional de los n-gramas han sido necesarias para tener en cuenta la retroalimentación del usuario en este sistema.
Romero Gómez, V. (2010). Multimodal Interactive Transcription of Handwritten Text Images [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8541
Palancia
APA, Harvard, Vancouver, ISO, and other styles
22

Moreno, Moreno Flavio David. "Reconocimiento de gestos corporales, utilizando procesamiento digital de imágenes para activar sistema de alarma." Bachelor's thesis, Universidad Ricardo Palma, 2015. http://cybertesis.urp.edu.pe/handle/urp/1283.

Full text
Abstract:
La investigación realizada a los sistemas de seguridad electrónica de edificios, plantea como objetivo principal el reconocimiento de tres gestos de un lenguaje corporal del personal de vigilancia, y la consecuente activación de alarma en forma automática. Inicialmente se realizó una encuesta dirigida a las administraciones y personal de edificios, para saber cuales eran las ocurrencias que vulneraban la seguridad de un edificio multifamiliar, luego se observaron y analizaron las imágenes capturadas por una cámara de vigilancia ubicada en la recepción, identificando las ocurrencias más vulnerables y gestos asociados a dichos eventos; se seleccionaron tres gestos que en forma inconsciente realizaba el personal de vigilancia ante dichas situaciones. A determinados cuadros que comprenden estas imágenes se le aplicaron técnicas de procesamiento espacial, con ayuda de una iluminación artificial que era más intensa en la parte posterior del sujeto de análisis, consiguiéndose la definición de una silueta binarizada en el entorno Matlab, técnicas como selección del plano rojo, plano de bits más significativo, invertir imagen y transformaciones morfológicas tipo cerradura, definieron una silueta que ayudó a desarrollar un algoritmo matemático para generar una señal eléctrica en el puerto serial USB del ordenador, donde se conectó físicamente una plataforma de hardware Arduino que activa la alarma. La elección de esta plataforma se debió a que Matlab cuenta con un grupo de instrucciones para Arduino, con el objetivo de lograr una comunicación sincronizada entre ordenador e interface. Las técnicas utilizadas reconocieron 62,5% de los eventos descritos en las encuestas realizadas y que no son mencionadas en temas de investigación similar. Para lograr el objetivo fue necesario analizar un cuadro por segundo. The research poses as their main objective the three gestures recognition of a body language of surveillance personnel and the consequent activation of alarm automatically. It was initially carried out a survey of the administration and the offices of the buildings to know which were the occurrences that violate the security of a multi-family building, then were observed and analyzed images captured by a surveillance camera located in the reception, identifying the most vulnerable occurrences and gestures associated with these events; were selected three gestures that unconsciously performs surveillance personnel before such situations; to certain pictures that comprise these images were applied spatial processing techniques, with the help of an artificial lighting that was more intense in the back of the subject of analysis, getting the definition of a silhouette binarized in the Matlab environment, techniques such as plane selection red, more significant bit plane, to invest an image and convolution close type, defined a silhouette that allowed to develop a mathematical algorithm that generated an electrical signal in USB serial port of the computer, where it is physically connected a hardware platform Arduino that active the alarm.This platform choice is due to the fact that Matlab has a group of instructions for Arduino, achieving an orderly communication between computer and interface. The techniques used recognized 62.5 % of the events described in the surveys carried out and which aren’t mentioned in similar research topics. To achieve the objective was necessary to analyze a picture per second.
APA, Harvard, Vancouver, ISO, and other styles
23

Guerra, Romero Kevin Antonio. "Sistema de censado del estado anímico: enfocado a personas de la tercera edad." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/137408.

Full text
Abstract:
Ingeniero Civil en Computación
La vida moderna y la evolución de la sociedad hacen que las personas dispongan cada vez de menos tiempo para el ocio y fomentar las relaciones sociales con sus pares. Esta falta de tiempo también nos hace perder lazos, incluso con nuestros seres más queridos, llegando al punto de no tener el tiempo ni siquiera para visitarlos. Esto es particularmente crítico para los adultos mayores, que son los que más resienten este empobrecimiento del vínculo social, especialmente entre ellos y sus familiares (hijos, nietos, etc.). Esta situación produce aislamiento, y afecta negativamente el estado anímico de esas personas. Producto de la edad, es muy probable que los adultos mayores deban sobrellevar tratamientos médicos de diversa índole. Lamentablemente, los estados anímicos negativos (por ejemplo, depresión) reducen el impacto de fármacos y tratamientos en estas personas. El simple hecho de tener poco tiempo para visitarlos y darles el empujón anímico, afecta las emociones de estas personas. Por lo tanto, es importante que los familiares del adulto mayor sepan cuándo éste pasa por un cuadro de emociones depresivas, para así intentar de corregir o paliar dicha situación de la manera más rápida posible. En este trabajo de memoria se diseñó e implementó un sistema que permite monitoreo del estado anímico de adultos mayores, cuando estos se encuentran al interior de sus hogares. El sistema permite a un usuario monitor, realizar un seguimiento de la persona monitoreada. Además, el sistema informa al monitor, mediante mensajes de texto (emails), cuando el usuario monitoreado está pasando por un cuadro de emociones negativas. El sistema de monitoreo utiliza una tablet PC para tomar registros de audio e imágenes al interior del hogar de estas personas, y en base a esa información, determinar el estado anímico de las personas monitoreadas. Los procesos de reconocimiento de emociones usando audio e imágenes trabajan juntos, de manera de obtener los mejores resultados posibles. En el marco de esta memoria también se desarrolló el sistema de envío automático de alertas, el cual es capaz de notificar a los usuarios de la aplicación, cuando alguno de sus familiares monitoreados necesita apoyo anímico. Si bien es cierto que es bastante complicado el trabajar con las características inherentes a la biometría de una persona para detectar sus emociones, pudimos completar el desarrollo de la aplicación propuesta. Sin embargo, no nos fue posible realizar pruebas en vivo con usuarios reales, por restricciones de tiempo. Por lo tanto, y aunque la aplicación esta funcional, aun se debe medir su impacto real en el escenario de aplicación previsto.
APA, Harvard, Vancouver, ISO, and other styles
24

Arenas, Cavalli José Tomas Alejandro. "Diseño y desarrollo de un sistema para la detección automática de retinopatía diabética en imágenes digitales." Tesis, Universidad de Chile, 2012. http://repositorio.uchile.cl/handle/2250/104406.

Full text
Abstract:
Memoria para optar al título de Ingeniero Civil Electricista
Memoria para optar al título de Ingeniero Civil Industrial
La detección automática de la patología oftalmológica denominada retinopatía diabética tiene el potencial de prevenir casos de pérdida de visión y ceguera, en caso de impulsar la exanimación masiva de pacientes con diabetes. Este trabajo apunta a diseñar y desarrollar un clasificador a nivel de prototipo que permita discriminar entre pacientes con y sin presencia de la enfermedad, por medio del procesamiento automático de imágenes de fondo de ojo digitales. Los procedimientos se basan en la adaptación e integración de algoritmos publicados. Las etapas desarrolladas en el procesamiento digital de las imágenes de retina para este objetivo fueron: localización de vasos sanguíneos, localización de disco óptico (DO), detección de lesiones claras y detección de lesiones rojas. Las técnicas utilizadas para cada una de las etapas fueron, respectivamente: Gabor wavelets y clasificadores bayesianos; características de los vasos y predicción de posición mediante regresores kNN; segmentación mediante fuzzy c-means y clasificación usando una red neuronal multicapas; y, operadores morfológicos ajustados óptimamente. La base de datos de imágenes para el entrenamiento y prueba de los métodos desarrollados cuenta con 285 imágenes de un centro médico local, incluyendo 214 normales y 71 con la enfermedad. Los resultados específicos fueron: 100% de precisión en la ubicación del DO en las 142 imágenes de prueba; identificación del 91,4% de las imágenes con lesiones claras, i.e., la sensibilidad, mientras se reconocieron 53,3% de las imágenes sin lesiones claras, i.e., la especificidad (84,1% de sensibilidad y 84,7% de especificidad a nivel de pixel) en las mismas 142 muestras; y, 97% de sensibilidad y 92% de especificidad en la detección de lesiones rojas en 155 imágenes. El desempeño en la ubicación de la red vascular es medido por el resultado del resto de los pasos. El rendimiento general del sistema es de un 88,7% y 49,1% en cuanto a sensibilidad y especificidad, respectivamente. Algunas medidas fundamentales son necesarias para la implementación a futuro. En primer lugar, acrecentar la base de datos de imágenes para entrenamiento y prueba. Además, es posible pulir cada una de las etapas intermedias de las cuatro grandes fases. Con todo, una ronda de implementación a nivel usuario de un prototipo general permitirá evaluación y mejora de los métodos diseñados y desarrollados.
APA, Harvard, Vancouver, ISO, and other styles
25

Burgos, Herrera Diego A. "Towards an image-term co-occurence model for multilingual terminology alignment and cross-language image indexing." Doctoral thesis, Universitat Pompeu Fabra, 2014. http://hdl.handle.net/10803/145644.

Full text
Abstract:
This thesis addresses the potential that the relation between terms and images in multilingual specialized documentation has for glossary compilation, terminology alignment, and image indexing. It takes advantage of the recurrent use of these two modes of communication (i.e., text and images) in digital documents to build a bimodal co-occurrence model which aims at dynamically compiling glossaries of a wider coverage. The model relies on the developments of content-based image retrieval (CBIR) and text processing techniques. CBIR is used to make two images from different origin match, and text processing supports term recognition, artifact noun classification, and image-term association. The model aligns one image with its denominating term from collateral text, and then aligns this image with another image of the same artifact from a different document, which also enables the alignment of the two equivalent denominating terms. The ultimate goal of the model is to tackle the limitations and drawbacks of current static terminological repositories by generating bimodal, bilingual glossaries that reflect real usage, even when terms and images may originate from noisy corpora.
Esta tesis enfoca la relación entre términos e imágenes en documentación especializada y su potencial para compilación de glosarios, alineación de terminología e indexación de imágenes. Asimismo, esta investigación se vale del frecuente uso de estos dos modos de comunicación (i.e., texto e imágenes) en documentos digitales para construir un modelo de concurrencia bimodal que guíe la compilación de glosarios de más cobertura. El modelo se basa en los desarrollos de técnicas de recuperación de imágenes por contenido (CBIR) y de procesamiento de texto. Las técnicas de CBIR se usan aquí para conectar dos imágenes de distinto origen, mientras que el procesamiento de texto sustenta las tareas de reconocimiento de términos, clasificación de nombres de artefacto y asociación término-imagen. El modelo asocia una imagen con el término del texto circundante que la denomina y luego alinea esta imagen con otra imagen del mismo artefacto pero que se origina en otro documento, lo cual permite también la alineación de los dos términos equivalentes que denominan los artefactos de las imágenes. El objetivo principal del modelo es contribuir a compensar el estatismo, las limitaciones y las desventajas de los repositorios terminológicos actuales mediante la generación de glosarios bimodales bilingües que reflejen el uso real de los términos, incluso cuando éstos y sus imágenes se originen en corpus problemáticos.
APA, Harvard, Vancouver, ISO, and other styles
26

Saavedra, Rondo José Manuel. "Image Descriptions for Sketch Based Image Retrieval." Tesis, Universidad de Chile, 2013. http://www.repositorio.uchile.cl/handle/2250/112670.

Full text
Abstract:
Doctor en Ciencias, Mención Computación
Debido al uso masivo de Internet y a la proliferación de dispositivos capaces de generar información multimedia, la búsqueda y recuperación de imágenes basada en contenido se han convertido en áreas de investigación activas en ciencias de la computación. Sin embargo, la aplicación de búsqueda por contenido requiere una imagen de ejemplo como consulta, lo cual muchas veces puede ser un problema serio, que imposibilite la usabilidad de la aplicación. En efecto, los usuarios comúnmente hacen uso de un buscador de imágenes porque no cuentan con la imagen deseada. En este sentido, un modo alternativo de expresar lo que el usuario intenta buscar es mediante un dibujo a mano compuesto, simplemente, de trazos, sketch, lo que onduce a la búsqueda por imágenes basada en sketches. Hacer este tipo de consultas es soportado, además, por el hecho de haberse incrementado la accesibilidad a dispositivos táctiles, facilitando realizar consultas de este tipo. En este trabajo, se proponen dos métodos aplicados a la recuperación de imágenes basada en sketches. El primero es un método global que calcula un histograma de orientaciones usando gradientes cuadrados. Esta propuesta exhibe un comportamiento sobresaliente con respecto a otros métodos globales. En la actualidad, no existen métodos que aprovechen la principal característica de los sketches, la información estructural. Los sketches carecen de color y textura y representan principalmente la estructura de los objetos que se quiere buscar. En este sentido, se propone un segundo método basado en la representación estructural de las imágenes mediante un conjunto de formas primitivas que se denominan keyshapes. Los resultados de nuestra propuesta han sido comparados con resultados de métodos actuales, mostrando un incremento significativo en la efectividad de la recuperación. Además, puesto que nuestra propuesta basada en keyshapes explota una característica novedosa, es posible combinarla con otras técnicas para incrementar la efectividad de los resultados. Así, en este trabajo se ha evaluado la combinación del método propuesto con el método propuesto por Eitz et al., basado en Bag of Words, logrando un aumento de la efectividad de casi 22%. Finalmente, con el objetivo de mostrar el potencial de nuestra propuesta, se muestran dos aplicaciones. La primera está orientada al contexto de recuperación de modelos 3D usando un dibujo a mano como consulta. En esta caso, nuestros resultados muestran competitividad con el estado del arte. La segunda aplicación explota la idea de buscar objetos basada en la estructura para mejorar el proceso de segmentación. En particular, mostramos una aplicación de segmentación de manos en ambientes semi-controlados.
APA, Harvard, Vancouver, ISO, and other styles
27

Rojas, Gómez Renán Alfredo. "Automatic regularization parameter selection for the total variation mixed noise image restoration framework." Master's thesis, Pontificia Universidad Católica del Perú, 2012. http://tesis.pucp.edu.pe/repositorio/handle/123456789/4461.

Full text
Abstract:
Image restoration consists in recovering a high quality image estimate based only on observations. This is considered an ill-posed inverse problem, which implies non-unique unstable solutions. Regularization methods allow the introduction of constraints in such problems and assure a stable and unique solution. One of these methods is Total Variation, which has been broadly applied in signal processing tasks such as image denoising, image deconvolution, and image inpainting for multiple noise scenarios. Total Variation features a regularization parameter which defines the solution regularization impact, a crucial step towards its high quality level. Therefore, an optimal selection of the regularization parameter is required. Furthermore, while the classic Total Variation applies its constraint to the entire image, there are multiple scenarios in which this approach is not the most adequate. Defining different regularization levels to different image elements benefits such cases. In this work, an optimal regularization parameter selection framework for Total Variation image restoration is proposed. It covers two noise scenarios: Impulse noise and Impulse over Gaussian Additive noise. A broad study of the state of the art, which covers noise estimation algorithms, risk estimation methods, and Total Variation numerical solutions, is included. In order to approach the optimal parameter estimation problem, several adaptations are proposed in order to create a local-fashioned regularization which requires no a-priori information about the noise level. Quality and performance results, which include the work covered in two recently published articles, show the effectivity of the proposed regularization parameter selection and a great improvement over the global regularization framework, which attains a high quality reconstruction comparable with the state of the art algorithms.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
28

Riba, Fiérrez Pau. "Distilling Structure from Imagery: Graph-based Models for the Interpretation of Document Images." Doctoral thesis, Universitat Autònoma de Barcelona, 2020. http://hdl.handle.net/10803/670774.

Full text
Abstract:
Des del seu inici, la comunitat investigadora sobre reconeixement de patrons i visió per computador ha reconegut la importància d’aprofitar la informació estructural de les imatges. Els grafs s’han seleccionat com el marc adequat per representar aquest tipus d’informació a causa de la seva flexibilitat i poder de representació capaç de codificar, tant els components, objectes i entitats com les seves relacions. Tot i que els grafs s’han aplicat amb èxit a una gran varietat de tasques -com a resultat de la seva naturalesa simbòlica i relacional- sempre han patit d’algunes limitacions comparats amb mètodes estadístics. Això es deu al fet que algunes operacions matemàtiques trivials no tenen una equivalència en el domini dels grafs. Per exemple, en la base de moltes aplicacions de reconeixement de patrons hi ha la necessitat de comparar objectes. No obstant això, aquesta operació trivial no està degudament definida per grafs quan considerem vectors de característiques. Al llarg d’aquesta recerca, el principal domini d’aplicació està basat en el tema de l’Anàlisi i Reconeixement d’Imatges de Documents. Aquest és un subcamp de la Visió per Computador que té com a objectiu compendre imatges de documents. En aquest context, l’estructura -particularment la representació en forma de graf- proporciona una dimensió complementària al contingut de la imatge. En Visió per Computador la primera dificultat que ens trobem recau en construir una representació significativa de grafs capaç de codificar les característiques rellevants d’una imatge donada. Això es deu al fet que és un procés que ha de trobar un equilibri entre la simplicitat de la representació i la flexibilitat, per tal de representar les diferents deformacions que apareixen en cada domini d’aplicació. Hem estudiat aquest tema en l’aplicació de la recerca de paraules, dividint els diferents traços en grafemes –les unitats més petites d’un alfabet manuscrit&-. També, hem investigat diferents metodologies per accelerar el procés de comparació entre grafs perquè la recerca de paraules o, inclús, de forma més general, l’aplicació en la recerca de grafs, pugui incloure grans col·leccions de documents. Aquestes metodologies han estat principalment dues: (a) un sistema d’indexació de grafs combinat amb un sistema de votació en l’àmbit de nodes capaç d’eliminar resultats improbables i (b) usant representacions jeràrquiques de grafs que duen a terme la majoria de les comparacions en una versió reduïda del graf original, mitjançant comparatives entre els nivells més abstractes i els més detallats. A més a més, la representació jeràrquica també ha demostrat obtenir una representació més robusta que el graf original, lidiant amb el soroll i les deformacions de manera elegant. Per tant, proposem explotar aquesta informació en forma de codificació jeràrquica del graf que permeti utilitzar tècniques estadístiques clàssiques. Els nous avenços en aprenentatge profund geomètric han aparegut com una generalització de les metodologies d’aprenentatge profund aplicades a dominis no Euclidians –com grafs i varietats–, i han promogut un gran interès en la comunitat científica per aquests esquemes de representació. Així doncs, proposem una distància de grafs capaç d’obtenir resultats comparables a l’estat de l’art en diferents tasques aprofitant aquests nous desenvolupaments, però considerant les metodologies tradicionals com a base. També hem realitzat una col·laboració industrial amb la finalitat d’extreure informació automàtica de les factures de l’empresa (amb dades anònimes). El resultat ha estat el desenvolupament d’un sistema de detecció de taules en documents administratius. D’aquesta manera les xarxes neuronals basades en grafs han demostrat ser aptes per detectar patrons repetitius, els quals, després d’un procés d’agregació, constitueixen una taula.
La comunidad que investiga el reconocimiento de patrones y la visión por computador ha reconocido la importancia de aprovechar la información estructural de las imágenes. Los grafos se han seleccionado como el marco adecuado para representar este tipo de información a causa de su flexibilidad y poder de representación capaz de codificar los componentes, los objetos, las entidades y sus relaciones. Aunque los grafos se han aplicado con éxito a una gran variedad de tareas –como resultado de su naturaleza simbólica y relacional–, siempre han sufrido algunas limitaciones comparados con los métodos estadísticos. Esto se debe al hecho que algunas operaciones matemáticas triviales no tienen una equivalencia en el dominio de los grafos. Por ejemplo, en la base de la mayoría de aplicaciones de reconocimiento de patrones hay la necesidad de comparar objetos. No obstante, esta operación trivial no está debidamente definida por grafos cuando consideramos vectores de características. Durante la investigación, el principal dominio de aplicación se basa en el Análisis y Reconocimiento de Imágenes de Documentos. Este es un subcampo de la Visión por Computador que tiene como objetivo comprender imágenes de documentos. En este contexto la estructura -particularmente la representación en forma de grafo- proporciona una dimensión complementaria al contenido de la imágen. En Visión por Computador la primera dificultad que nos encontramos se basa en construir una representación significativa de grafos que sea capaz de codificar las características relevantes de una imagen. Esto se debe a que es un proceso que tiene que encontrar un equilibrio entre la simplicidad de la representación y la flexibilidad, para representar las diferentes deformaciones que aparecen en cada dominio de la aplicación. Hemos estudiado este tema en la aplicación de la búsqueda de palabras, dividiendo los diferentes trazos en grafemas –las unidades más pequeñas de un alfabeto manuscrito–. Tambien, hemos investigado diferentes metodologías para acelerar el proceso de comparación entre grafos para que la búsqueda de palabras o, incluso, de forma más general, la aplicación de búsqueda de grafos, pueda incluir grandes colecciones de documentos. Estas metodologías han estado principalmente dos: (a) un sistema de indexación de grafos combinado con un sistema de votación en el ámbito de los nodos capaces de eliminar resultados improbables y (b) usando representaciones jerárquicas de grafos que llevan a término la mayoría de las comparaciones en una versión reducida del grafo original mediante comparativas entre los niveles más abstractos y los más detallados. Asimismo, la representación jerárquica también ha demostrado obtener una representación más robusta que el grafo original, además de lidiar con el ruido y las deformaciones de manera elegante. Así pues, proponemos explotar esta información en forma de codificación jerárquica del grafo que permita utilizar técnicas estadísticas clásicas. Los nuevos avances en el aprendizaje profundo geométrico han aparecido como una generalización de las metodologías de aprendizaje profundo aplicadas a dominios no Euclidianos –como grafos y variedades– y han promovido un gran interés en la comunidad científica por estos esquemas de representación. Proponemos una distancia de grafos capaz de obtener resultados comparables al estado del arte en diferentes tareas aprovechando estos nuevos desarrollos, pero considerando las metodologías tradicionales como base. También hemos realizado una colaboración industrial con la finalidad de extraer información automática de las facturas de la empresa (con datos anónimos). El resultado ha sido el desarrollo de un sistema de detección de tablas en documentos administrativos. Así pues, las redes neuronales basadas en grafos han demostrado ser aptas para detectar patrones repetitivos, los cuales, después de un proceso de agregación, constituyen una tabla.
From its early stages, the community of Pattern Recognition and Computer Vision has considered the importance on leveraging the structural information when understanding images. Usually, graphs have been selected as the adequate framework to represent this kind of information due to their flexibility and representational power able to codify both, the components, objects or entities and their pairwise relationship. Even though graphs have been successfully applied to a huge variety of tasks, as a result of their symbolic and relational nature, graphs have always suffered from some limitations compared to statistical approaches. Indeed, some trivial mathematical operations do not have an equivalence in the graph domain. For instance, in the core of many pattern recognition application, there is the need to compare two objects. This operation, which is trivial when considering feature vectors, is not properly defined for graphs. Along this dissertation the main application domain has been on the topic of Document Image Analysis and Recognition. It is a subfield of Computer Vision aiming at understanding images of documents. In this context, the structure and in particular graph representations, provides a complementary dimension to the raw image contents. In computer vision, the first challenge we face is how to build a meaningful graph representation that is able to encode the relevant characteristics of a given image. This representation should find a trade off between the simplicity of the representation and its flexibility to represent the deformations appearing on each application domain. We applied our proposal to the word spotting application where strokes are divided into graphemes which are the smaller units of a handwritten alphabet. We have investigated different approaches to speed-up the graph comparison in order that word spotting, or more generally, a retrieval application is able to handle large collections of documents. On the one hand, a graph indexing framework combined with a votation scheme at node level is able to quickly prune unlikely results. On the other hand, making use of graph hierarchical representations, we are able to perform a coarse-to-fine matching scheme which performs most of the comparisons in a reduced graph representation. Besides, the hierarchical graph representation demonstrated to be drivers of a more robust scheme than the original graph. This new information is able to deal with noise and deformations in an elegant fashion. Therefore, we propose to exploit this information in a hierarchical graph embedding which allows the use of classical statistical techniques. Recently, the new advances on geometric deep learning, which has emerged as a generalization of deep learning methods to non-Euclidean domains such as graphs and manifolds, has raised again the attention to these representation schemes. Taking advantage of these new developments but considering traditional methodologies as a guideline, we proposed a graph metric learning framework able to obtain state-of-the-art results on different tasks. Finally, the contributions of this thesis have been validated in real industrial use case scenarios. For instance, an industrial collaboration has resulted in the development of a table detection framework in annonymized administrative documents containing sensitive data. In particular, the interest of the company is the automatic information extraction from invoices. In this scenario, graph neural networks have proved to be able to detect repetitive patterns which, after an aggregation process, constitute a table.
APA, Harvard, Vancouver, ISO, and other styles
29

Gonzalez, Villarreal Jessenia Margareth Marina. "Application on semantic segmentation with few labels in the detection of water bodies from PERUSAT-1 satellite's images." Master's thesis, Pontificia Universidad Católica del Perú, 2020. http://hdl.handle.net/20.500.12404/16610.

Full text
Abstract:
Remote sensing is widely used to monitor earth surfaces with the main objective of extracting information from it. Such is the case of water surface, which is one of the most affected extensions when flood events occur, and its monitoring helps in the analysis of detecting such affected areas, considering that adequately defining water surfaces is one of the biggest problems that Peruvian authorities are concerned with. In this regard, semi automatic mapping methods improve this monitoring, but this process remains a time-consuming task and into the subjectivity of the experts. In this work, we present a new approach for segmenting water surfaces from satellite images based on the application of convolutional neural networks. First, we explore the application of a U-Net model and then a transfer knowledge-based model. Our results show that both approaches are comparable when trained using an 680-labelled satellite image dataset; however, as the number of training samples is reduced, the performance of the transfer knowledge-based model, which combines high and very high image resolution characteristics, is improved
Trabajo de investigación
APA, Harvard, Vancouver, ISO, and other styles
30

Cruz, Sanchez Gustavo Adolfo. "Reconocimiento y detección de fuego en imagenes digitales por medio de tecnicas de visión por computadora." Tesis de Licenciatura, Universidad Autonoma del Estado de México, 2017. http://hdl.handle.net/20.500.11799/68676.

Full text
Abstract:
Esta investigación presenta el diseño y desarrollo de un algoritmo programado en MATLAB®, cuyo objetivo es realizar la detección de fuego en imágenes digitales (obtenidas con cámaras de video convencionales), estableciendo características únicas y propias del fuego, tales como: luminosidad, color y forma, que facilitan el proceso de su detección por medio de técnicas de visión artificial, además de informar al usuario de una detección positiva, con un mensaje de alerta. El algoritmo está constituido por cuatro atapas principales para realizar la detección del fuego:
APA, Harvard, Vancouver, ISO, and other styles
31

Berru, Novoa Bryan Jos. "Reconocimiento de gestos estáticos del abecedario de la lengua de señas peruana utilizando cámaras de baja resolución." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2019. http://hdl.handle.net/10757/628221.

Full text
Abstract:
El reconocimiento de gestos del lenguaje de señas a través del procesamiento de imágenes y el aprendizaje automático han sido ampliamente estudiados en años recientes. En esta tesis se presenta un conjunto de datos que consta de 2400 imágenes de los gestos estáticos del lenguaje de señas peruano alfabeto, además de aplicarlo a un sistema de reconocimiento de gestos con cámaras de baja resolución. Para el reconocimiento de gestos, se utilizó el descriptor de características de Histograma de Gradientes Orientados, junto con 4 algoritmos de clasificación. Los resultados mostraron que utilizando el Histograma de Gradientes Orientados junto con el algoritmo de clasificación de Support Vector Machine, se obtuvo el mejor resultado con un accuracy de 89.46% y el sistema pudo reconocer los gestos con variaciones de traslación, rotación y escala.
The recognition of sign language gesture through image processing and Machine Learning has been widely studied in recent years. This article presents a dataset consisting of 2400 images of the static gestures of the Peruvian sign language alphabet, in addition to applying it to a recognition system of gestures using low resolution cameras. For the gesture recognition, the Histogram Oriented Gradient feature descriptor was used, along with 4 classification algorithms. The results showed that Histogram Oriented Gradient, along with Support Vector Machine, got the best result with an 89.46% accuracy and the system was able to recognize the gestures with variations of translation, rotation and scale.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
32

Ghosh, Suman Kumar. "Word spotting and recognition in images from heterogeneous sources." Doctoral thesis, Universitat Autònoma de Barcelona, 2018. http://hdl.handle.net/10803/665691.

Full text
Abstract:
El text es la manera més habitual d’intercanviar informació des de les edats. Amb el desenvolupament recent d’imatges de bases de dades de manuscrits manuscrits històrics, la demanda d’algorismes per fer accessibles aquestes bases de dades per a la navegació i la indexació estan augmentant. L’augment exponencial de les bases de dades d’imatges disponibles públicament i les col·leccions personals d’imatges, aquest interès també inclou l’enteniment del text sobre imatges naturals. Activar la cerca o comprendre una gran collecció de manuscrits o bases de dades d’imatges requereix un mètode ràpid i robust. Els investigadors han trobat diferents maneres de representar paraules retallades per a la comprensió i la concordança, cosa que funciona bé quan les paraules ja estan segmentades. No obstant això, no hi ha cap manera trivial d’estendre’ls per a documents no segmentats. En aquesta tesi, explorem diferents mètodes per a la recuperació i el reconeixement de text a partir d’imatges sense escena de documents i escenes. Hi ha dues formes de representació diferents a la literatura, s’utilitza una representació de longitud fixa a partir de paraules retallades i una altra amb una seqüència de característiques de longitud variable. Al llarg d’aquesta tesi, hem estudiat aquestes dues representacions per la seva idoneïtat en la lliure comprensió del text. A la primera part, ens hem centrat en la segmentació de paraules lliures amb una representació de longitud fixa. Vam ampliar l’ús d’una representació exitosa per a la recuperació gratuïta de segmentacions. En la segona part de la tesi, explorem funcions basades en seqüències i, finalment, proposem una solució unificada on el mateix marc pot generar ambdós tipus de representacions.
El texto es la forma más común de compartir información desde edades. Con el reciente desarrollo de bases de datos de imágenes de manuscritos históricos manuscritos, la demanda de algoritmos para hacer accesibles estas bases de datos para la navegación y la indexación están en aumento. El aumento exponencial de las bases de datos de imágenes disponibles al público y las colecciones personales de imágenes, este interés ahora también abarca la comprensión de texto en imágenes naturales. La habilitación de la búsqueda o la comprensión de una gran colección de manuscritos o bases de datos de imágenes necesita un método rápido y sólido. Los investigadores han encontrado diferentes maneras de representar la palabra recortada para la comprensi ón y la coincidencia, que funciona bien cuando las palabras ya están segmentadas. Sin embargo, no hay una forma trivial de ampliar estos para documentos no segmentados. En esta tesis, exploramos diferentes métodos para la recuperación y el reconocimiento de texto a partir de documentos no segmentados e imégenes de escena. Existen dos formas diferentes de representación en la literatura, una usa una representaci ón de longitud fija aprendida de palabras recortadas y otra una secuencia de características de longitud variable. A lo largo de esta tesis, hemos estudiado estas dos representaciones por su idoneidad en la segmentación, la comprensión libre del texto. En la primera parte, nos centramos en la detección de palabras sin segmentación utilizando una representación de longitud fija. Extendimos el uso de una representación exitosa para la recuperación libre de segmentación. En la segunda parte de la tesis, exploramos las características basadas en secuencia y finalmente proponemos una soluci´on unificada donde el mismo marco puede generar ambos tipos de representaciones.
Text is the most common way of information sharing from ages. With recent development of images databases of handwritten historic manuscripts the demand for algorithms to make these databases accessible for browsing and indexing are in rise. Exponential increase of publicly available image databases and personal collections of pictures, this interest now also embraces text understanding on natural images. Enabling search or understanding large collection of manuscripts or image databases need fast and robust method. Researchers have found different ways to represent cropped word for understanding and matching, which works well in when words are already segmented. However there is no trivial way to extend these for non-segmented documents. In this thesis we explore different methods for text retrieval and recognition from unsegmented document and scene images. Two different ways of representation exists in literature, one uses a fixed length representation learned from cropped words and another a sequence of features of variable length. Throughout this thesis, we have studied both these representation for their suitability in segmentation free understanding of text. In the first part we are focused on segmentation free word spotting using a fixed length representation. We extended the use of one successful representation for segmentation free retrieval. In the second part of the thesis, we explore sequence based features and finally propose a unified solution where same framework can generate both kind of representations.
APA, Harvard, Vancouver, ISO, and other styles
33

Campos, Poma Jonathan Miguel, and La Cruz Dominguez Emily Yanira De. "Modelo tecnológico para el soporte al diagnóstico de lesiones cutáneas del tipo melanoma usando reconocimiento de imágenes." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2021. http://hdl.handle.net/10757/656672.

Full text
Abstract:
El cáncer de piel es el tipo de cáncer más común en todo el mundo. Más de 65.000 personas mueren cada año, por culpa de este cáncer de piel y cada año se diagnostican más de 13 millones de casos de cáncer de piel. En Perú es el cuarto tipo de cáncer con mayor incidencia en el país y anualmente 1200 peruanos son detectados con cáncer de la piel. Las regiones con mayores casos de cáncer de la piel son: Lima 45.9%, La Libertad 13.2%, Lambayeque 7.5%, Cajamarca 4.9%, Junín con 3.1% y otras regiones 25.4% (Sausa, 2017). Además, el 85% de los 130 especialistas oncológicos están concentrados en la capital y en algunas regiones no hay ninguno. En este proyecto se propone un modelo tecnológico para la detección temprana de cáncer de piel. Se busca reducir el tiempo de espera en la obtención de un diagnóstico, además, se ha digitalizado la función del dermatoscopio mediante el uso de Smartphone y lentes de aumento como accesorio del dispositivo móvil. El modelo propuesto está conformado por cinco fases: 1. Entrada. 2. Captura. 3. Canal. 4. Análisis y procesamiento. 5. Visualización. 6. Salida 7. Soporte. Este modelo fue validado en un grupo de 60 pacientes, donde 12 sufren de cáncer piel en etapa tardía, 28 en etapa temprana y 20 son pacientes sanos, en una red de clínicas de Lima, Perú. El resultado obtenido fue 97% de asertividad sobre las lesiones cutáneas analizadas y 90 % en los pacientes sanos (Campos Poma, De La Cruz, Armas-Aguirre, & Gutiérrez González, 2020).
Skin cancer is the most common type of cancer in the world. More than 65,000 people die each year because of this skin cancer and more than 13 million cases of skin cancer are diagnosed each year. In Peru is the fourth cancer with the highest incidence in the country and in the country 1200 Peruvians are detected with skin cancer. major: cases of skin cancer: Lima 45.9%, La Libertad 13.2%, Lambayeque 7.5%, Cajamarca 4.9%, Junin with 3.1% and other regions 25.4% (Sausa, 2017). In addition, 85% of the 130 specialists Oncologists are concentrated in the capital and in some regions, there are none. In this project, we proposed a technological model for the early detection of skin cancer. The purpose is reduce the waiting time to obtaining a diagnosis, in addition, the function of the dermatoscope has been digitized by using a Smartphone and magnifying lenses as an accessory the mobile device. The proposed model has five phases: 1) Input. 2) Screenshot. 3) Channel. 4) Analysis and processing. 5) Display. 6) Ouput. 7) Support. This model was validated in a group of 60 patients, where 12 suffer from skin cancer int the late stage, 28 un the early stage and 20 are healthy patients, in a network of clinics in Lima, Peru. The obtained result was 97% of assertiveness on the analyzed skin lesions and 90% in healthy patients (Campos Poma, De La Cruz, Armas-Aguirre, & Gutiérrez González, 2020).
Tesis
APA, Harvard, Vancouver, ISO, and other styles
34

Sánchez, Martínez Sergio. "Multi-feature machine learning analysis for an improved characterization of the cardiac mechanics." Doctoral thesis, Universitat Pompeu Fabra, 2018. http://hdl.handle.net/10803/663748.

Full text
Abstract:
This thesis focuses on the development of machine learning tools to better characterize the cardiac anatomy and function in the context of heart failure, and in particular their extension to consider multiple parameters that help identifying the pathophysiological aspects underlying disease. This advanced and personalized characterization may eventually allow assigning patients to clinically-meaningful phenogroups with a uniform treatment response and/or disease prognosis. Specifically, the thesis copes with the technical difficulties that multivariate analyses imply, paying special attention to properly combine different descriptors that might be of different nature (e.g., patterns, continuous, or categorical variables) and to reduce the complexity of large amounts of data up to a meaningful representation. To this end, we implemented an unsupervised dimensionality reduction technique (Multiple Kernel Learning), which highlights the main characteristics of complex, high-dimensional data into fewer dimensions. For our computational analysis to be useful for the clinical community, it should remain fully interpretable. We made special emphasis in allowing the user to be aware of how the input to the learning process models the obtained output, through the use of multi-scale kernel regression techniques among others.
Esta tesis se centra en el desarrollo de herramientas de aprendizaje automático para mejorar la caracterización de la anatomía y la función cardíaca en el contexto de insuficiencia cardíaca, y, en particular, su extensión para considerar múltiples parámetros que ayuden a identificar los aspectos pato-fisiológicos subyacentes a la enfermedad. Esta caracterización avanzada y personalizada podría en última instancia permitir asignar pacientes a fenogrupos clínicamente relevantes, que demuestren una respuesta uniforme a un determinado tratamiento, o un mismo pronóstico. Específicamente, esta tesis lidia con las dificultades técnicas que implican los análisis multi-variable, prestando especial atención a combinar de forma apropiada diferentes descriptores que pueden ser de diferente naturaleza (por ejemplo, patrones, o variables continuas o categóricas), y reducir la complejidad de grandes cantidades de datos mediante una representación significativa. Con este fin, implementamos una técnica no supervisada de reducción de dimensionalidad (Multiple Kernel Learning), que destaca las principales características de datos complejos y de alta dimensión utilizando un número reducido de dimensiones. Para que nuestro análisis computacional sea útil para la comunidad clínica debería ser enteramente interpretable. Por eso, hemos hecho especial hincapié en permitir que el usuario sea consciente de cómo los datos entrantes al algoritmo de aprendizaje modelan el resultado obtenido mediante el uso de técnicas de regresión kernel multi-escala, entre otras.
APA, Harvard, Vancouver, ISO, and other styles
35

Alberti, Marina. "Detection and Alignment of Vascular Structures in Intravascular Ultrasound using Pattern Recognition Techniques." Doctoral thesis, Universitat de Barcelona, 2013. http://hdl.handle.net/10803/108182.

Full text
Abstract:
In this thesis, several methods for the automatic analysis of Intravascular Ultrasound (IVUS) sequences are presented, aimed at assisting physicians in the diagnosis, the assessment of the intervention and the monitoring of the patients with coronary disease. The basis for the developed frameworks are machine learning, pattern recognition and image processing techniques. First, a novel approach for the automatic detection of vascular bifurcations in IVUS is presented. The task is addressed as a binary classification problem (identifying bifurcation and non-bifurcation angular sectors in the sequence images). The multiscale stacked sequential learning algorithm is applied, to take into account the spatial and temporal context in IVUS sequences, and the results are refined using a-priori information about branching dimensions and geometry. The achieved performance is comparable to intra- and inter-observer variability. Then, we propose a novel method for the automatic non-rigid alignment of IVUS sequences of the same patient, acquired at different moments (before and after percutaneous coronary intervention, or at baseline and follow-up examinations). The method is based on the description of the morphological content of the vessel, obtained by extracting temporal morphological profiles from the IVUS acquisitions, by means of methods for segmentation, characterization and detection in IVUS. A technique for non-rigid sequence alignment - the Dynamic Time Warping algorithm - is applied to the profiles and adapted to the specific clinical problem. Two different robust strategies are proposed to address the partial overlapping between frames of corresponding sequences, and a regularization term is introduced to compensate for possible errors in the profile extraction. The benefits of the proposed strategy are demonstrated by extensive validation on synthetic and in-vivo data. The results show the interest of the proposed non-linear alignment and the clinical value of the method. Finally, a novel automatic approach for the extraction of the luminal border in IVUS images is presented. The method applies the multiscale stacked sequential learning algorithm and extends it to 2-D+T, in a first classification phase (the identification of lumen and non-lumen regions of the images), while an active contour model is used in a second phase, to identify the lumen contour. The method is extended to the longitudinal dimension of the sequences and it is validated on a challenging data-set.
En esta tesis, se presentan métodos para el análisis automático de secuencias de Ultrasonido Intravascular (IVUS), destinados a ayudar a los médicos en el diagnóstico, la evaluación de la intervención y el seguimiento de los pacientes con enfermedad coronaria. La base para los métodos desarrollados son técnicas de aprendizaje automático, reconocimiento de patrones y procesamiento de imagen. En primer lugar, se presenta un nuevo método para la detección automática de bifurcaciones vasculares en IVUS. La tarea se aborda como un problema de clasificación binaria (identificando los sectores angulares de bifurcación y de no-bifurcación en las imágenes de la secuencia). Se aplica el algoritmo de multiscale stacked sequential learning, para tener en cuenta el contexto espacial y temporal de las secuencias, y los resultados se refinan utilizando información a-priori acerca de las dimensiones de las ramificaciones y su geometría. El rendimiento obtenido es comparable a la variabilidad intra- e inter-observador. A continuación, se propone un nuevo método para la alineación automática no rígida de secuencias de ecografía intravascular del mismo paciente, adquiridas en diferentes momentos (antes y después de la intervención, o al inicio del estudio y en exámenes de seguimiento). El método se basa en la descripción del contenido morfológico del vaso, que se obtiene mediante la extracción de perfiles temporales morfológicos de las adquisiciones de IVUS. Una técnica para la alineación no rígida de secuencias - Dynamic Time Warping - se aplica a los perfiles y se adapta al problema clínico. Se proponen dos diferentes estrategias para hacer frente a la superposición parcial entre los frame de las secuencias correspondientes. Los beneficios de la estrategia propuesta se demuestran por una amplia validación en datos sintéticos e in vivo. Finalmente, se presenta un enfoque novedoso para la extracción automática de la frontera luminal en imágenes de IVUS. El método aplica el algoritmo de aprendizaje multiscale stacked sequential learning y lo extiende en 2-D+T, en una primera fase de clasificación (la identificación de regiones de lumen y no-lumen de las imágenes), mientras que un modelo de contorno activo se utiliza en una segunda fase, para identificar el contorno luminal.
APA, Harvard, Vancouver, ISO, and other styles
36

Plaza, Pasini Daniela. "Artistas en formación: Reflexión y reconocimiento del Discurso del cuerpo." Bachelor's thesis, 2020. http://hdl.handle.net/20.500.12404/16473.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Cucchetti, Fabiana, and María Victoria Laborde. "Reconocimiento óptico de música impresa en un entorno visual." Tesis, 2002. http://hdl.handle.net/10915/3888.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Illbelle, Maximiliano. "Detección de patrones publicitarios." Bachelor's thesis, 2014. http://hdl.handle.net/11086/2767.

Full text
Abstract:
Tesis (Lic. en Cs. de la Computación)--Universidad Nacional de Córdoba, Facultad de Matemática, Astronomía y Física, 2014.
El objetivo principal de este trabajo es estudiar distintos algoritmos de reconocimiento de patrones en imágenes para la detección de logos publicitarios. A lo largo del trabajo se describen dos implementaciones en este ámbito; la primera permite detectar automáticamente los delimitadores de los canales de televisión espacios publicitarios mediante template matching y la segunda permite detectar logos en eventos deportivos mediante Speeded Up Robust Features (S.U.R.F.). Ambas implementaciones fueron en python y utilizan especialmente las librerías: OpenCV, numpy y mock.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography