Siga este enlace para ver otros tipos de publicaciones sobre el tema: Reconstrucción de imágenes TAC.

Tesis sobre el tema "Reconstrucción de imágenes TAC"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 22 mejores tesis para su investigación sobre el tema "Reconstrucción de imágenes TAC".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Flores, Liubov Alexandrovna. "Algoritmos Paralelos de Reconstrucción de Imágenes TAC sobre Arquitecturas Heterogéneas". Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/59424.

Texto completo
Resumen
[EN] In medicine, the diagnosis based on computed tomography (CT) imaging is fundamental for the detection of abnormal tissues by different attenuation values on X-ray energy, which frequently are not clearly distinguished for the radiologist. Different methods have been developed to reconstruct images. In this work we analyse and compare analytical and iterative methods to resolve the reconstruction problem. Today, in practice, the reconstruction process is based on analytical methods and one of the most widely used algorithms is known as Filtered back projections (FBP) algorithm. This algorithm implements the inverse Radon Transform, which is a mathematical tool used in Biomedical Engineering for the reconstruction of CT images. From the very beginning of the development of scanners, it was important to reduce the scanning time, to improve the quality of images and to reduce the reconstruction time of images. Today's technology provides powerful systems, multiprocessor and multicore processor systems, that provide the possibility to reduce the reconstruction time. In this work, we analyze the FBP based on the inverse Radon Transform and its relation to the Fourier Transform, with the aim to achieve better performance while using resources of a system in an optimal way. This algorithm uses parallel projections, is simple, robust, and the results could be extended for a variety of situations. In many applications, the set of projection data needed for the reconstruction, is incomplete due to the physical reasons. Consequently, it is possible to achieve only approximated reconstruction. In this conditions, the images reconstructed with analytical methods have a lot of artefacts in two and three dimensions. Iterative methods are more suitable for the reconstruction from a limited number of projections in noisy conditions. Their usage may be important for the functionality of portable scanners in emergency situations. However, in practice, these methods are less used due to their high computational cost. In this work, the reduction of the execution time is achieved by performing the parallel implementation on multi-core and many-core systems of such iterative algorithms as SART, MLEM and LSQR. The iterative methods have become a hot topic of interest because of their capacity to resolve the reconstruction problem from a limited number of projections. This allows the possibility to reduce the radiation dose during the data acquisition process. At the same time, in the reconstructed images appear undesired artefacts. To resolve the problem effectively, we have adopted the LSQR method with soft threshold filtering technique and the fast iterative shrinkage-thresholding algorithm for computed tomography imaging and present the efficiency of the method named LSQR-STF-FISTA. The reconstruction methods are analysed through the reconstructions from simulated and real projection data. Also, the quality of the reconstructed images is compared with the aim of drawing conclusions regarding the studied methods. We conclude from this study that iterative methods are capable to reconstruct images from a limited number of dataset at a low computational cost.
[ES] En medicina, el diagnóstico basado en imágenes de tomografía axial computerizada (TAC) es fundamental para la determinación de anormalidades a través de diferentes valores de atenuación de la energía de rayos-X, las cuales, frecuentemente, son difíciles de ser distinguidas por los radiólogos. Se han desarrollado diferentes técnicas de reconstrucción de imagen. En este trabajo analizamos y comparamos métodos analíticos e iterativos para resolver de forma eficiente el problema de reconstrucción. Hoy, en la práctica, el proceso de reconstrucción de imagen se basa en algoritmos analíticos entre los cuales, el algoritmo de retroproyección filtrada 'filtered backprojection' (FBP) es el más conocido. Este algoritmo se usa para implementar la Transformada de Radon inversa que es una herramienta matemática cuya utilización principal en Ingeniería Biomédica es la reconstrucción de imágenes TAC. Desde el comienzo del desarrollo de escáneres ha sido importante reducir el tiempo de escaneo, mejorar la calidad de imagen y reducir el tiempo de reconstrucción. La tecnología de hoy ofrece potentes sistemas con varios procesadores y núcleos que posibilitan reducir el tiempo invertido en la reconstrucción de imágenes. En este trabajo se analiza el algoritmo FBP basado en la Transformada de Radon inversa y su relación con la Transformada de Fourier con el objetivo de optimizar su cálculo aprovechando al máximo los recursos del sistema. Este algoritmo se basa en proyecciones paralelas y se destaca por su simplicidad y robustez, y permite extender los resultados a una variedad de situaciones. En muchas aplicaciones el conjunto de proyecciones necesarias para la reconstrucción puede ser incompleto por razones físicas. Entonces, la única posibilidad es realizar una reconstrucción aproximada. En estas condiciones, las imágenes reconstruidas por los algoritmos analíticos en dos o tres dimensiones son de baja calidad y con muchos artefactos. Los métodos iterativos son más adecuados para la reconstrucción de imágenes cuando se dispone de un menor número de proyecciones en condiciones más ruidosas. Su uso puede ser importante para el funcionamiento en escáneres portátiles en condiciones de urgencia en cualquier lugar. Sin embargo, en la práctica, estos métodos son menos usados por su alto coste computacional. En este trabajo presentamos el estudio y diversas implementaciones paralelas que permiten bajar el coste computacional de tales métodos iterativos como SART, MLEM y LSQR. Los métodos iterativos se han convertido en un tópico de gran interés para muchos vendedores de sistemas de TAC clínicos por su capacidad de resolver el problema de reconstrucción con un número limitado de proyecciones. Esto proporciona la posibilidad de reducir la dosis radiactiva en los pacientes durante el proceso de adquisición de datos. Al mismo tiempo, en la reconstrucción aparecen artefactos no deseados. Para resolver el problema en forma efectiva y eficiente, hemos adaptado el método LSQR con el método de filtrado 'Soft Threshold Filtering' y el algoritmo de aceleración 'Fast Iterative Shrinkage-thresholding Algorithm' para TAC. La eficiencia y fiabilidad del método nombrado LSQR-STF-FISTA se presenta en este trabajo. Los métodos de reconstrucción de imágenes se analizan mediante la reconstrucción a partir de proyecciones simuladas y reales, comparando la calidad de imagen reconstruida con el objetivo de obtener conclusiones respecto a los métodos usados. Basándose en este estudio, concluimos que los métodos iterativos son capaces de reconstruir imágenes con el conjunto limitado de proyecciones con un bajo coste computacional.
[CAT] En medicina, el diagnòstic basat en imatges de tomografia axial compueritzada (TAC) és fonamental per a la determinació d'anormalitats a través de diferents valors d'atenuació de l'energia de rajos-X, les quals, freqüentment,són difícils de ser distingides pels radiòlegs. S'han desenvolupat diferents tècniques de reconstrucció d'imatge. En aquest treball analitzem i comparem mètodes analítics i iteratius per a resoldre el problema de reconstrucció. Avui, en la pràctica, el procés de reconstrucció d'imatge es basa en algorismes analítics entre els quals, l'algorisme de retroproyección filtrada 'filtered backprojection' (FBP) és el més conegut. Aquest algorisme s'usa per a implementar la Transformada de Radon inversa que és una eina matemàtica la utilització principal de la qual en Enginyeria Biomèdica és la reconstrucció d'imatges TAC. Des del començament del desenvolupament dels lectors òptics ha sigut important reduir el temps d'escanege, millorar la qualitat d'imatge i reduir el temps de reconstrucció. La tecnologia d'avui ofereix potents sistemes amb diversos processadors i nuclis que possibiliten reduir el temps invertit en la reconstrucció d'imatges. En aquest treball s'analitza l'algorisme FBP basat en la Transformada de Radon inversa i la seua relació amb la Transformada de Fourier amb l'objectiu d'optimitzar el seu càlcul aprofitant al màxim els recursos del sistema. Aquest algorisme es basa en projeccions paral·leles i es destaca per la seua simplicitat i robustesa, i permet estendre els resultats a una varietat de situacions. En moltes aplicacions el conjunt de projeccions necessàries per a la reconstrucció pot ser incomplet per raons físiques. Llavors, l'única possibilitat és realitzar una reconstrucció aproximada. En aquestes condicions, les imatges reconstruïdes pels algorismes analítics en dues o tres dimensions són de baixa qualitat i amb molts artefactes. Els mètodes iteratius són més adequats per a la reconstrucció d'imatges quan es disposa d'un menor nombre de projeccions en condicions més sorolloses. El seu ús pot ser important per al funcionament en escáneres portàtils en condicions d'urgència en qualsevol lloc. No obstant açò, en la pràctica, aquests mètodes són menys usats pel seu alt cost computacional. En aquest treball presentem l'estudi i diverses implementacions paral·leles que permeten baixar el cost computacional de tals mètodes iteratius com SART, MLEM i LSQR. Els mètodes iteratius s'han convertit en un tòpic de gran interès per a molts venedors de sistemes de TAC clínics per la seua capacitat de resoldre el problema de reconstrucció amb un nombre limitat de projeccions. Açò proporciona la possibilitat de reduir la dosi radioactiva en els pacients durant el procés d'adquisició de dades. Al mateix temps, en la reconstrucció apareixen artefactes no desitjats. Per a resoldre el problema en forma efectiva i eficient, hem adaptat el mètode LSQR amb el mètode de filtrat 'Soft Threshold Filtering' i l'algorisme d'acceleració 'Fast Iterative Shrinkage-thresholding Algorithm' per a TAC. L'eficiència i fiabilitat del mètode nomenat LSQR-STF-FISTA es presenta en aquest treball. Els mètodes de reconstrucció d'imatges s'analitzen mitjançant la reconstrucció a partir de projeccions simulades i reals, comparant la qualitat d'imatge reconstruïda amb l'objectiu d'obtenir conclusions respecte als mètodes usats. Basant-se en aquest estudi, concloem que els mètodes iteratius són capaços de reconstruir imatges amb el conjunt limitat de projeccions amb un baix cost computacional.
Flores, LA. (2015). Algoritmos Paralelos de Reconstrucción de Imágenes TAC sobre Arquitecturas Heterogéneas [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/59424
TESIS
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Mora, Mora María Teresa Cibeles. "Métodos de reconstrucción volumétrica algebraica de imágenes tomográficas. Aplicación a un TAC de pequeños animales y a un simulador-TAC". Doctoral thesis, Universitat Politècnica de València, 2008. http://hdl.handle.net/10251/2935.

Texto completo
Resumen
La tomografía axial computerizada ha tenido un impacto revolucionario en el diagnóstico médico y en el ámbito industrial para la realización de test no destructivo. En tomografía de rayos-X, los métodos algrebraicos de reconstrucción se basan en la resolución de un sistema de ecuaciones lineal. Los métodos algebraicos son capaces de proporcionar imágenes de más calidad que los métodos de reconstrucción basados en técnicas de Fourier, especialmente cuando se dispone de un menor número de proyecciones y en condiciones ruidosas. Sin embargo, los métodos de reconstrucción algebraicos están menos extendidos en la práctica, al tratarse de técnicas que conllevan un coste computacional muy elevado. En el estudio desarrollado en esta tesis se presentan estrategias que permiten la reducción del cálculo asociado a los métodos algebraicos a partir del replanteamiento de la matriz del sistema. Para ello, se proponen nuevos modelos de matriz del sistema que se fundamentan en el empleo de distintos esquemas de píxeles alternativos a los tradicionales. Los esquemas de píxeles propuestos permiten la aplicación de todas las simetrías presentes en un tomógrafo al cálculo de la matriz del sistema. De esta manera, hacen posible la disminución del volumen de datos que es necesario calcular y que es necesario utilizar en la reconstrucción. Los modelos de matriz del sistema presentados se comparan mediante la reconstrucción de proyecciones sintéticas y de proyecciones reales pertenecientes a un escáner TAC de pequeños animales de alta resolución y a un simulador-TAC. Las imágenes reconstruidas a partir de señales sintéticas permiten validar de manera objetiva la calidad de la reconstrucción obtenida a partir de cada matriz en lo relativo al contraste, resolución y precisión. Como resultado de esta comparación, se determina el modelo de matriz que permite una mayor reducción del coste computacional asociado sin incurrir en detrimento de la calidad de las imágenes obtenidas. Adicionalmen
Mora Mora, MTC. (2008). Métodos de reconstrucción volumétrica algebraica de imágenes tomográficas. Aplicación a un TAC de pequeños animales y a un simulador-TAC [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2935
Palancia
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Calderón, Amor Hernán Alberto. "Reconstrucción de imágenes geológicas basadas en la teoría de compressed sensing". Tesis, Universidad de Chile, 2014. http://www.repositorio.uchile.cl/handle/2250/116890.

Texto completo
Resumen
Ingeniero Civil Eléctrico
En el ámbito de interpolación geoestadística, el principal problema para estimar variables regionalizadas es la baja cantidad de datos medidos. Este tipo de problemas están extremadamente indeterminados, es decir, presentan una mayor cantidad de grados de libertad que restricciones, lo que deriva en múltiples soluciones. Este trabajo aborda el problema de interpolación de perfiles de permeabilidad desde un enfoque de reconstrucción de imágenes. En particular, el trabajo es motivado por el reciente desarrollo de la teoría RIPless de Compressed Sensing, herramienta que ha introducido un nuevo paradigma de adquisición de datos, permitiendo muestrear a tasas muy por debajo de las establecidas por las técnicas convencionales. El enfoque consiste en modelar las estructuras multicanal como imágenes que presentan una descomposición sparse en algún dominio transformado y utilizar esta información para reconstruir la imagen original a partir de un muestreo sub-crítico y no estructurado. Ésta es la principal diferencia con los métodos tradicionales, los cuales utilizan modelos estadísticos como información a priori para el proceso de estimación. La principal contribución de este trabajo fue la contextualización del problema de interpolación espacial en el marco de Compressed Sensing, generando claras conexiones con los resultados teóricos de esta nueva herramienta. De este análisis, se formuló el problema de selección de base óptima, el cual indicó que bajo el esquema de medición aleatoria de pixeles, la DCT es la base que permite inducir un determinado error de reconstrucción con la menor cantidad de mediciones, superando incluso a las transformadas wavelet. En la línea de los resultados obtenidos, este enfoque presenta prometedores desempeños, incluso en el régimen sub-crítico del 2% al 4% de datos medidos. En cuanto a los aspectos prácticos de procesamiento, la descomposición en distintos niveles de escala (bloques) para su reconstrucción y posterior promedio, mostró mejorías sustanciales en la estimación de las variables de permeabilidad. También se constató que, dada la naturaleza binaria de las imágenes estudiadas, una etapa de categorización genera importantes mejoras en los desempeños del método. Finalmente, esta memoria abrió diversas ramas de estudio para trabajos futuros, dentro de los cuales destacan: implementación de otros algoritmos; estudio de técnicas de post-procesamiento más elaboradas; extender el análisis a diferentes estructuras o modelos geológicos; incorporación de información a priori en esquemas de reconstrucción; y uso conjunto de métodos convencionales y regularización sparse.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Coila, Pacompia Andres Leonel. "Regularized spectral log difference technique for ultrasonic attenuation imaging". Master's thesis, Pontificia Universidad Católica del Perú, 2017. http://tesis.pucp.edu.pe/repositorio/handle/123456789/8991.

Texto completo
Resumen
The attenuation coefficient slope (ACS) has the potential to be used for tissue characterization and as a diagnostic ultrasound tool, hence complementing B-mode images. The ACS can be valuable for estimation of other ultrasound parameters such as the backscatter coefficient. There is a well-known tradeoff between the precision of the estimated ACS values and the data block size used in spectral-based techniques such as the spectral log difference (SLD). This trade-off limits the practical usefulness of spectral-based attenuation imaging techniques. In this thesis work, the regularized spectral log difference (RSLD) technique is presented in detail and evaluated with simulations and experiments with physical phantoms, ex vivo and in vivo. The ACS values obtained when using the RSLD technique were compared to the ones obtained when using the SLD technique, as well as the ground truth ACS values obtained with insertion loss techniques. The results showed that the RSLD technique allowed significantly decreasing estimation variance when using small data block sizes (i.e., standard deviation of percentage error reduced by more than an order of magnitude in all cases when using 10 x 10 data blocks) without sacrificing estimation accuracy. Therefore, the RSLD allows for the reconstruction of attenuation coefficient images with an improved trade-off between spatial resolution and estimation precision.
Tesis
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Carranza, Cobeñas Luis Alberto. "Reconstrucción 3d de piezas arqueológicas a partir de imágenes: una revisión de la literatura". Bachelor's thesis, Pontificia Universidad Católica del Perú, 2020. http://hdl.handle.net/20.500.12404/17377.

Texto completo
Resumen
Los objetos arqueológicos son típicamente expuestos a efectos climatológicos, erosión y estrés físico, lo cual daña tanto parcialmente como de manera desigual sus superficies. Debido a estas condiciones, sus zonas fracturadas tienden a abrir paso a más interpretaciones, mayor ambigüedad y a veces vuelve imposible determinar su forma exacta para su reconstrucción. En la actualidad, existen esfuerzos para mejorar esta reconstrucción mediante el uso de herramientas computacionales, tales como métodos simétricos de reconstrucción; sin embargo, la mayoría de estos esfuerzos asumen que estos objetos hechos por el hombre guardan algún tipo de estructura y regularidad, por lo que se basan en métodos geométricos y simétricos complejos que limitan la reparación de las piezas arqueológicas.
Trabajo de investigación
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Sumoso, Vicuña Ernie Ludwick. "Técnicas de representación y reconstrucción de objetos 3D en el computador: una revisión de literatura". Bachelor's thesis, Pontificia Universidad Católica del Perú, 2020. http://hdl.handle.net/20.500.12404/18274.

Texto completo
Resumen
Actualmente en el mundo, las tecnologías de escaneo 3D se clasifican en dos grupos: de contacto y sin contacto. El primer grupo se caracteriza por la necesidad de reposar el escáner sobre el objeto (Sreenivasa K. 2003). Este tipo de escáneres representan un riesgo cuando los objetos en cuestión no pueden ser manipulados libremente debido a su fragilidad. Por otro lado, el segundo grupo de tecnologías son mayormente usadas en investigaciones y poseen una amplia variedad de aplicaciones en la industria medicinal y de entretenimiento. Este último grupo a su vez se divide en dos sub-grupos: activos y pasivos (Pears N. 2012). Las tecnologías de escaneo 3D activos se basan en el análisis y medición del tiempo de envío y retorno de una señal hacia el objeto para estimar la posición de la superficie. Por otro lado, las técnicas de escaneo sin contacto-pasivas no necesitan de la manipulación del objeto ni medición de señales ya que aprovechan la luz ambiental. Dentro de las ciencias de la computación existe el problema de cómo sintetizar, procesar y analizar la información de una superficie obtenida mediante herramientas de escaneo 3D y guardarla en el computador con el fin de que este pueda ser visualizada y/o manipulada por otras herramientas informáticas. A lo largo de los años han surgido múltiples técnicas de representación de objetos en un espacio de tres dimensiones. Sin embargo, estas técnicas dependen fuertemente de las herramientas empleadas durante el proceso de escaneo. Es por ello que se han desarrollado también técnicas pasivas-sin contacto que permitan la obtención de superficies únicamente a partir de una colección de imágenes y haciendo uso de redes neuronales entrenadas en extensos conjuntos de datos. Para poder entender estas tecnologías emergentes es necesario investigar a profundidad cuales son los recientes métodos para generar superficies u objetos 3D, en qué casos se utilizan los distintos métodos y cuáles son los enfoques de los autores al emplear dichas técnicas.
Trabajo de investigación
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Cabrera, Vives Guillermo. "Bayesian Image Reconstruction Based on Voronoi Diagrams". Tesis, Universidad de Chile, 2008. http://repositorio.uchile.cl/handle/2250/101966.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Lira, Palomino Alvaro. "Reconstrucción 3D usando un enfoque basado en imágenes de piezas arqueológicas incompletas: una revisión literaria". Bachelor's thesis, Pontificia Universidad Católica del Perú, 2020. http://hdl.handle.net/20.500.12404/16986.

Texto completo
Resumen
En los últimos años se ha presentado un incremento en el interés por la conservación del patrimonio cultural. Esto incluye varias actividades, siendo una de ellas la conservación de piezas arqueológicas. Esta actividad ha tomado gran relevancia entre expertos en arqueología debido a la proliferación de piezas arqueológicas dañadas o incompletas que son encontradas. Gracias a los avances en informática, las instituciones que se desenvuelven en el sector han optado por la reconstrucción 3D de las piezas arqueológicas. Para llevar a cabo esta tarea hay una variedad de técnicas que necesitan el uso de dispositivos de alta tecnología como los escánares 3D. Por tal razón, dichas técnicas son costosas, tediosas y demandan de mano de obra calificada para realizarse. Por otro lado, se han presentado avances significativos en técnicas de reconstrucción 3D que utilizan modelos de aprendizaje profundo para efectuarla, de las cuales destacan las técnicas que utilizan una sola imagen del objeto a digitalizar. Por lo mencionado, se elabora el presente trabajo de investigación con el objetivo de hacer una revisión de la literatura acerca de los últimos intentos por la reconstrucción 3D que usan un enfoque basado en imágenes para evaluar y proponer un proyecto para el desarrollo de una herramienta que permita reconstruir modelos 3D de piezas arqueológicas a partir de imágenes de piezas arqueológicas incompletas. Asimismo, se revisarán las herramientas y métodos para la ejecución del proyecto.
Trabajo de investigación
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Vela, Vargas Paola Yamile. "1977 : reconstrucción de la memoria en imágenes en movimiento a partir de la práctica del Found Footage". Bachelor's thesis, Pontificia Universidad Católica del Perú, 2011. http://tesis.pucp.edu.pe/repositorio/handle/123456789/967.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Cornwell, Varela Edward Neville. "Reconstrucción del equivalente en agua de nieve mediante imágenes MODIS incorporadas a un balance de masa - energía". Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/112347.

Texto completo
Resumen
Magíster en Ciencias de la Ingeniería, Mención Recursos y Medio Ambiente Hídrico
Ingeniero Civil
La disponibilidad del recurso hídrico en Chile central está relacionada con el volumen total de deshielo proveniente de las cuencas nivales, especialmente en el periodo de estiaje. Por este motivo, surge la necesidad de entender los procesos físicos relacionados con el derretimiento y cuantificar el volumen de agua contenido en el manto nival. El presente estudio propone un modelo de reconstrucción retrospectiva distribuido a escala diaria del equivalente en agua de nieve (SWE, por sus siglas en inglés) contenido en el manto nival considerando el balance de masa - energía propio de la interfaz superficie del manto nival - aire. La modelación incorpora datos meteorológicos locales e información satelital (MODIS) de cobertura nival fraccional y albedo nival. La zona de estudio corresponde a la cuenca Ojos e Agua (39 [Km2]), ubicada en la subcuenca Alta del Aconcagua, Chile. La reconstrucción del SWE propuesta, es aplicada durante la temporada de deshielo de los años 2010 y 2011. Los resultados muestran un volumen máximo de SWE al inicio de la temporada de deshielo de 11 y 16 millones de metros cúbicos respectivamente, valores consecuentes con la disponibilidad hídrica registrada para cada año modelado. Tras la reconstrucción, se procede a la validación del modelo considerando (1) mediciones puntuales del espesor del manto nival y (2) el volumen total de deshielo observado a la salida de la cuenca. La validación muestra que el modelo propuesto solo es capaz de explicar el promedio espacial del SWE observado y la distribución espacial de SWE a una escala mayor a la de ladera, explicando de forma más satisfactoria los volúmenes de deshielo (con un error promedio anual de un 20%). Luego, se estudian diversos aspectos de interés tales como: (1) la influencia de cada forzante meteorológica, parámetro del manto nival y característica fisiográfica incluida en el modelo por medio un análisis de sensibilidad enfocado a la cuantificación del efecto ejercido sobre el flujo de energía total externa, (2) la definición de áreas representativas para la medición en terreno del SWE (ARs) mediante dos enfoques complementarios basados en la representatividad del SWE promedio espacial, obteniendo un área porcentual (2010 y 2011) de un 10% y 17% para ambos enfoques respectivamente, (3) la evaluación de la capacidad predictiva del equivalente en agua de nieve máximo respecto al volumen total de deshielo. El modelo desarrollado es una herramienta potencialmente útil para efectos de predicción y estudio de procesos físicos relacionados con el manto nival, siendo de interés la instrumentación nivométrica ubicada en distintas ARs (definidas según los enfoques propuestos en este estudio) con el propósito de la futura aplicación de modelos de derretimiento de base semi empírica, disminuyendo el error de predicción al mejorar la calidad de la calibración de los parámetros requeridos.
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Martínez, Ponce Nivaldo Fabián. "Reconstrucción del equivalente en agua de la cobertura nival en la cuenca alta del río Aconcagua. Empleo de imágenes Modis". Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103872.

Texto completo
Resumen
La escorrentía generada por el derretimiento de nieves constituye una de las principales fuentes de agua para sus diferentes usos. Es por eso que en Chile, la hidrología de nieves constituye un área de investigación que se encuentra en constante crecimiento. El principal objetivo de esta investigación es reconstruir el equivalente en agua en la cuenca alta del río Aconcagua para dos ciclos de deshielo (septiembre 2007-febrero 2008 y septiembre 2008-febrero 2009). Para ello, se implementó un modelo distribuido de base física en la cuenca de estudio. Dicho modelo, con el apoyo de la información adicional del tipo meteorológica, permitió reconstruir el equivalente en agua a escala temporal diaria y a una resolución espacial de 500 m. Como objetivos secundarios, se aplicó el modelo en una cuenca vecina para así establecer comparaciones en las variables predominantes del modelo, además de determinar la respuesta de escorrentía de deshielo asociada a la reconstrucción del equivalente en agua. Los resultados indican que la metodología utilizada es apropiada para la reconstrucción espacial y temporal del equivalente en agua. Por otra parte, se obtuvo una adecuada modelación en una cuenca vecina; determinándose de que existe una importante influencia de la orientación de la cuenca (norte-sur o este-oeste) en el balance radiativo del manto nival. De los resultados obtenidos, se lograron establecer 3 principales conclusiones: (i) se estimó que el 32% del volumen de agua potencialmente disponible para el derretimiento no se refleja necesariamente como escorrentía superficial de deshielo; (ii) la pérdida de información debido a la cobertura nubosa sobre la cuenca puede alcanzar el 12%, por lo que se debe idear una metodología adecuada que sea capaz de reemplazar tal información; y (iii) el balance radiativo es una de las variables más importantes en la modelación por lo que debe existir una estimación adecuada para la modelación. Finalmente, la dinámica de la serie de procesos que ocurren continuamente sobre el manto nival generalmente se caracteriza por ser de difícil parametrización por lo que la modelación obtenida se considera una adecuada aproximación, y se cuentan con grandes expectativas para cuando efectivamente sea validado.
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Pino, Sorroche Francisco. "Reconstrucción y cuantificación de estudios SPECT en animal pequeño". Doctoral thesis, Universitat de Barcelona, 2014. http://hdl.handle.net/10803/294274.

Texto completo
Resumen
Los sistemas SPECT de animal pequeño alcanzan una resolución espacial inferior al milímetro. Para conseguirlo, es necesario utilizar colimadores pinhole, ya que la imagen del objeto proyectada en la gammacámara a través del pequeño orificio del colimador puede estar ampliada respecto al objeto. Con el fin de optimizar el proceso de reconstrucción y obtener resoluciones submilimétricas utilizando equipos de pequeño formato equipados con un colimador pinhole, es necesario utilizar métodos de reconstrucción iterativos. Estos algoritmos ofrecen una calidad de imagen superior y una mejor exactitud en la cuantificación que los métodos de reconstrucción analíticos, al poder corregir las diferentes degradaciones sufridas en el proceso de formación de la imagen. A continuación se detalla el trabajo desarrollado y los principales resultados obtenidos para conseguir este objetivo: 1. Implementación de un programa de calibración para calcular los parámetros geométricos que describen la adquisición de un equipo SPECT equipado con colimador pinhole. 2. Desarrollo de un algoritmo de reconstrucción iterativa OSEM para la reconstrucción de estudios SPECT con colimador pinhole. 3. Adaptación el algoritmo de reconstrucción y el programa de calibración a un equipo SPECT con colimador pinhole de pequeño formato desarrollado en nuestro centro. La resolución tomográfica del equipo fue de 1 mm para radios de adquisición pequeños. Las imágenes reconstruidas de estudios en ratones muestran la viabilidad del equipo para su utilización con pequeños animales. 4. Incorporación en la matriz de transición del sistema la geometría del sistema, la penetración septal a través del colimador y la respuesta del detector. La resolución, el contraste y los coeficientes de recuperación mejoran al incorporar la penetración septal respecto a la modelización geométrica, aunque la mejora más importante se obtuvo al incluir la respuesta del detector. El número de iteraciones utilizadas en la reconstrucción debe limitarse para evitar la aparición de artefactos de anillo. Estos artefactos son de mayor importancia cuando la modelización del sistema incorpora la geometría, la penetración septal y la respuesta del detector. 5. Comparación del algoritmo de reconstrucción desarrollado con un algoritmo de reconstrucción que calcula la matriz de transición con técnicas de Monte Carlo. El tiempo de cálculo de la matriz de transición del sistema con la aproximación analítica fue tres órdenes de magnitud inferior al de la aproximación por Monte Carlo. La resolución y el contraste de las imágenes reconstruidas mediante ambas aproximaciones fueron similares. Las imágenes reconstruidas con el modelo Monte Carlo presentaban una relación señal/ruido sensiblemente más baja, posiblemente asociada a problemas de precisión en el cálculo de los elementos de matriz por la utilización de un número insuficiente de historias de fotones en el cálculo.
Small animal SPECT systems can achieve a spatial resolution of less than 1 mm. Such resolution is possible thanks to pinhole collimators, which can amplify the gamma camera projection of the object, and by using iterative reconstruction methods. These methods improve image quality and offer better quantification accuracy than analytic reconstruction methods, by correcting the different degradations that occur during the image formation process. The work developed and the main results are detailed as follows: 1. A calibration program to calculate geometric parameters that describe the acquisition process of a SPECT system with a pinhole collimator was implemented. 2. An OSEM iterative reconstruction algorithm for SPECT studies acquired with a pinhole collimator was developed. 3. The reconstruction algorithm and the calibration program were adapted to an in-house developed small SPECT device with a pinhole collimator. Tomographic resolution was 1 mm for small acquisition radii. Image reconstruction of mice studies showed the viability of using the equipment with small animals. 4. System geometry, septal penetration through the collimator and detector were incorporated response to the transition matrix. In the first approach, the system geometry was incorporated. Resolution, contrast, and recovery coefficients improved when septal penetration was modeled, although the greatest improvement was obtained when detector response was included. Iterations had to be limited to avoid the appearance of ring-artifacts. 5. The reconstruction algorithm developed (analytical model) was compared with a reconstruction algorithm which calculates the transition matrix based on Monte Carlo techniques (Monte Carlo model). The computation time of the transition matrix system using the analytical approach was three orders of magnitude lower than the Monte Carlo approach. Resolution and contrast of the reconstructed images using the two approaches were similar. Images reconstructed with the Monte Carlo model presented a lower signal-to-noise ratio than images reconstructed with the analytical model, possibly due to accuracy problems associated with the matrix elements because of an insufficient number of photons in the calculation.
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Mayuri, Ramos Anthony Pedro. "Evaluación del ruido en imágenes de tomografía computarizada de cerebro por retroproyección filtrada y reconstrucción iterativa. Clínica Good Hope, Lima-2018". Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2018. https://hdl.handle.net/20.500.12672/8865.

Texto completo
Resumen
Evalúa el ruido en imágenes de tomografía computarizada de cerebro por retroproyección filtrada y reconstrucción iterativa. Realiza un estudio cuantitativo, observacional, con diseño analítico-comparativo, transversal y prospectivo cuya muestra estuvo constituida por 67 estudios de tomografía computarizada cerebral en pacientes atendidos en la Clínica Good Hope de Lima en el año 2018. Los datos fueron presentados en frecuencias absolutas y porcentuales, asimismo en promedios y desviación estándar. Al observar una distribución normal de los datos se utilizó la prueba de t de Student y para una distribución no normal la prueba de Wilcoxon, se tuvo en cuenta el valor de p, tal que si era <0.05 había diferencia estadísticamente significativa. Encuentra que la relación señal ruido de la sustancia gris fue 19.18 con la técnica de retroproyección filtrada, y 25.14 con reconstrucción iterativa (p=0.000), teniendo menor ruido en las imágenes de la tomografía computada con reconstrucción iterativa en la sustancia gris. La relación señal ruido de la sustancia blanca fue 14.99 con la técnica de retroproyección filtrada y 19.62 con reconstrucción iterativa, (p=0.000) observándose menor ruido en las imágenes de la tomografía computada con reconstrucción iterativa en la sustancia blanca. La relación señal ruido del líquido cefalorraquídeo fue 6.3 con la técnica de retroproyección filtrada y 8.09 con reconstrucción iterativa (p=0.000), teniendo un menor ruido en las imágenes de la tomografía computada con reconstrucción iterativa en el líquido cefalorraquídeo. La relación señal ruido del aire fue -648.70 con la técnica de retroproyección filtrada y-706.41 con reconstrucción iterativa, (p=0.000), encontrando menor ruido en las imágenes de la tomografía computada con reconstrucción iterativa en el aire. La relación contraste ruido fue 3.94 con la técnica de retroproyección filtrada y 5.09 con reconstrucción iterativa, (p=0.000), teniendo menor ruido en las imágenes de la tomografía computada con reconstrucción iterativa. Concluye que el ruido en imágenes de tomografía computarizada de cerebro fue menor por reconstrucción iterativa que por retroproyección filtrada en la Clínica Good Hope.
Tesis
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Valle, Fayos José Vicente del. "Aportaciones a la reconstrucción de la reflectancia espectral de una carta de color mediante la captura de imágenes con cámara digital tricromática y distintos iluminantes". Doctoral thesis, Universitat Politècnica de València, 2015. http://hdl.handle.net/10251/48562.

Texto completo
Resumen
Con el propósito de evitar el efecto del metamerismo en la medición de color de los dispositivos de captura de imágenes, se han desarrollado técnicas basadas en el uso de filtros de banda ancha o estrecha acoplados a una cámara digital monocromática de laboratorio para capturar información de color a distintas longitudes de onda y poder realizar la reconstrucción de la reflectancia espectral de la escena basada en un análisis de componentes principales, un análisis de componentes independientes o una matriz de pseudoinversa directa. Lo que no ha quedado cubierto por el estado del arte es la posibilidad de emplear una técnica de reconstrucción basada, no en el uso de filtros, sino en el uso de iluminantes con diferentes temperaturas de color y una cámara doméstica. En el presente trabajo se explora esa posibilidad y se proponen además dos métodos adicionales para la reconstrucción de la reflectancia espectral, basados en el cálculo de las mínimas distancias Euclídeas dentro del espacio Lab entre el parche de color que se desea reconstruir y un subconjunto de parches de color de la carta de entrenamiento.
Valle Fayos, JVD. (2015). Aportaciones a la reconstrucción de la reflectancia espectral de una carta de color mediante la captura de imágenes con cámara digital tricromática y distintos iluminantes [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/48562
TESIS
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Molleda, Meré Julio. "Técnicas de visión por computador para la reconstrucción en tiempo real de la forma 3D de productos laminados". Doctoral thesis, Universidad de Oviedo, 2008. http://hdl.handle.net/10803/11139.

Texto completo
Resumen
La visión por computador es una rama de la inteligencia artificial que desarrolla tanto la teoría como la tecnología necesarias para emular la percepción visual humana. Su principal objetivo es construir sistemas artificiales capaces de interpretar escenas naturales o datos multidimensionales. La reconstrucción de la forma tridimensional de objetos reales es un campo muy importante dentro de la visión por computador y es de aplicación, entre otras, en disciplinas tan dispares como la ingeniería inversa, la navegación automática o la inspección y el control automáticos de calidad.En esta tesis se presenta un caso de estudio de la utilización de técnicas de visión por computador en el análisis, diseño e implementación de un sistema para la reconstrucción tridimensional de la superficie de objetos con restricciones de tiempo real. El estudio se centra en la inspección automática de la calidad de productos laminados en la industria del acero. La evaluación de la calidad de estos productos, denominados bandas de acero, requiere, además de otros análisis, la medición de su planitud. Esta medición se puede obtener a partir de una reconstrucción tridimensional de la forma de la banda.La planitud es una característica que indica el grado de aproximación de la superficie de un objeto a una superficie totalmente plana. Un proceso de laminación incorrecto genera tensiones internas en el acero que se traducen en defectos de planitud en la banda laminada.Hace algunos años la medición de la planitud se realizaba de forma manual por un operador de la instalación industrial. Para medir la planitud de una banda de forma manual se detiene su avance por la instalación y se mide la longitud de un intervalo concreto de su superficie así como la diferencia entre su punto más bajo y su punto más alto. En realidad, se miden la longitud y la amplitud de onda que forma la superficie de la banda. Esta tarea es extremadamente tediosa y consume un tiempo excesivo, por lo que sólo se puede obtener un conjunto reducido de medidas de cada producto. A partir de estas medidas se pueden inferir el tipo y la magnitud del defecto de planitud. La creciente demanda en la calidad de acabado de productos laminados y los exigentes requisitos de productividad actuales en la industria del acero hacen inviable la inspección de un producto de forma manual.La medición de la planitud de una banda de forma automatizada se basa en la comparación de la longitud de varias fibras de su superficie. Si la banda es totalmente plana, todas las medidas de longitud serán iguales. En caso contrario, las diferencias entre estas longitudes se observarán como defectos de planitud.La automatización del proceso de medición de la planitud en entornos industriales es un campo de trabajo relativamente reciente. Según el principio de funcionamiento utilizado para obtener las medidas de longitud de la superficie de la banda, los sistemas de medición de planitud se pueden clasificar en mecánicos u ópticos.En el trabajo realizado se presenta un estudio exhaustivo sobre el concepto de la planitud y su medición en productos laminados, así como una revisión de los sistemas industriales más relevantes de medición de planitud. Además, se describen las técnicas de visión por computador aplicables a la reconstrucción tridimensional de la superficie de productos laminados. También se presenta el diseño de un sistema de medición de planitud de bandas de acero basado en la técnica de triangulación óptica por láser.Dada la enorme dificultad para generar datos sintéticos adecuados y la imposibilidad de repetición del proceso de producción industrial se han evaluado diversos algoritmos de compresión de vídeo en tiempo real con objeto de almacenar la información de entrada al sistema. A partir de esta evaluación se ha desarrollado una herramienta de grabación y reproducción de vídeo comprimido en tiempo real que permite realizar pruebas off-line con datos reales así como validar el diseño del sistema. Además, también permite generar una base de datos que representa el amplio rango de condiciones superficiales que puede presentar una banda de acero.Con el objetivo de extraer la proyección del patrón láser de la escena de formarobusta y precisa se analizan las técnicas existentes y se estudia su aplicabilidad en un entorno hostil. Las técnicas descritas en la literatura se centran principalmente en la precisión de la detección del láser, siendo poco robusta su utilización en un entorno industrial, por lo que se diseña un método que garantice la extracción del patrón láser en condiciones adversas. El método propuesto se divide en dos fases. En primer lugar se realiza un proceso de búsqueda del láser en reposo aplicando criterios de búsqueda local. En segundo lugar, basándose en la información obtenida en la fase anterior, se realiza un proceso de búsqueda global sobre la superficie de la banda. Esta segunda fase consiste en un proceso de ajuste de segmentos curvos basado en una técnica de división y unión de regiones.La validación del sistema de medición de planitud se realiza indirectamente mediante la precisión lograda en el proceso de reconstrucción de la forma tridimensional de la banda. Los resultados relativos a la medición de planitud han sido obtenidos con datos reales procedentes de la industria del acero.
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Albert, Gil Francisco Eugenio. "Análisis de motivos decorativos de tejidos y revestimientos cerámicos en el entorno de la visión artificial. Aplicación a la reconstrucción de motivos históricos y al diseño". Doctoral thesis, Universitat Politècnica de València, 2008. http://hdl.handle.net/10251/1936.

Texto completo
Resumen
El objetivo de esta tesis es la contribución a la creación, e implementación en herramientas informáticas, de una metodología aplicable para el análisis y edición de imágenes procedentes del campo de los diseños cerámicos y textiles, y por extensión, de todas aquellas imágenes que siguen un patrón repetitivo y que, por tanto, se ajustan a la Teoría de Grupos de Simetría. Para ello, se ha definido una metodología de análisis dividida en etapas, en la que se va aumentando gradualmente el nivel de la información manejada, desde los píxeles de la imagen inicial, pasando por los objetos (formas o unidades básicas perceptúales) y los motivos (agrupaciones de objetos realizadas con criterios perceptúales) hasta llegar a la estructura del patrón, es decir, las distintas transformaciones geométricas que relacionan los elementos (objetos y motivos) que lo forman. La información estructural obtenida es utilizada con fines diversos: la clasificación de las imágenes según el Grupo de Simetría del Plano del patrón, la reconstrucción de las imágenes aprovechando el conocimiento de qué partes están relacionadas por la estructura, y por último, la edición de patrones, tanto a nivel de formas y motivos, como de estructura, permitiendo realizar cambios estructurales con facilidad, con lo que se generan familias de patrones a partir de uno analizado. Las herramientas desarrolladas han sido probadas con un amplio conjunto de imágenes de patrones de procedencias muy diversas, destacando el estudio de los alicatados de la Alhambra de Granada y del Alcázar de Sevilla, así como de textiles y, ampliando los objetivos iniciales, a diversos elementos del entorno urbano.
Albert Gil, FE. (2006). Análisis de motivos decorativos de tejidos y revestimientos cerámicos en el entorno de la visión artificial. Aplicación a la reconstrucción de motivos históricos y al diseño [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1936
Palancia
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Ordinola, Arroyo Edilson Jesus. "Beneficios de la reconstrucción algorítmica de proyección de máxima intensidad en la detección de fracturas de cráneo por tomografía computada. Clínica internacional. Lima 2017". Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2018. https://hdl.handle.net/20.500.12672/10109.

Texto completo
Resumen
Determina los beneficios de la reconstrucción algorítmica de proyección de máxima intensidad en la detección de fracturas de cráneo por tomografía computada en imágenes evaluadas de la Clínica Internacional sede Lima en el año 2017. El presente estudio es observacional, de tipo analítico, retrospectivo, de corte transversal, con diseño correlacional. La muestra fue de 80 informes tomográficos y sus respectivas imágenes reconstruidas utilizando la técnica Proyección de Máxima Intensidad (MIP) en pacientes con sospecha de fractura de cráneo que ingresaron por emergencia al servicio de Tomografía Computarizada del Centro de Excelencia de Diagnóstico por Imágenes de la Clínica Internacional sede Lima durante el año 2017. La edad de los pacientes con fractura de cráneo fue entre 39 a 59 años (40%) y el sexo de los pacientes fue en 81.3% el masculino. La localización de fractura mayormente fue en la región parietal (41.3%) y temporal (35%) y el tipo de fractura que se observó fue lineal (91.3%). La resolución espacial fue alta para MIP y baja para ventana ósea (V.O) en un 60.0%, observándose diferencias significativas (p=0.000), para imágenes con MIP el costo de imágenes impresas fue $7 y el de V.O fue de $ 14 en un 88.8%, observándose diferencias significativas (p=0.000). Hubieron menos de 10 imágenes reconstruidas para MIP y más de 60 imágenes para V.O en un 83.5%, observándose diferencias significativas (p=0.000), el tiempo de procesamiento fue mayor o igual 180 segundos en MIP y menor a 180 segundos por VO en un 82.5%, observándose diferencias significativas (p=0.000). Se concluye que la reconstrucción algorítmica de proyección de máxima intensidad tiene beneficios, pues tiene una resolución espacial alta que indica una alta calidad de imagen de acuerdo a la resolución espacial, tiene un costo de $.7 por impresión de imágenes reconstruidas, el número de imágenes reconstruidas es menor a 10 y un tiempo de procesamiento mayor o igual a 180 segundos.
Tesis
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Soto, Quispe Luis Anuar. "Dosis de radiación efectiva por reconstrucción iterativa estadística adaptativa (ASIR-V) en angiotomografías coronarias en la Clínica Internacional – sede San Borja. Agosto – octubre 2018". Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2019. https://hdl.handle.net/20.500.12672/11312.

Texto completo
Resumen
Determina la dosis de radiación efectiva promedio por reconstrucción iterativa estadística adaptativa (ASIR-V) en angiotomografías coronarias en la Clínica Internacional, sede San Borja, agosto a octubre de 2018. Realiza un estudio descriptivo, retrospectivo y no experimental de corte transversal. La población estuvo constituida por 219 estudios angiotomográficos coronarios que se exploraron en el centro de diagnóstico por imágenes de la Clínica Internacional sede San Borja, año 2018; la muestra fue constituida por 52 estudios tomográficos que efectuaron los criterios de selección. Para el análisis de los datos se realizaron análisis univariados; donde se utilizaron medidas de tendencia central y medias para variables cuantitativas, y frecuencias relativas y absolutas para variables cualitativas, y un análisis bivariado; donde se utilizó pruebas paramétricas como T de Student para muestras independientes y Anova de un factor. Se obtuvo una dosis de radiación efectiva promedio de 8.08 ± 2.64 mSv. El promedio de índice de dosis en volumen (CTDIvol) resultó 68.27 ± 13.92 mGy. Asimismo el promedio del producto dosis longitud (DLP) fue de 577.05 ± 188.71 mGy/cm. La dosis de radiación efectiva según el índice de masa corporal, donde los valores más altos de dosis de radiación efectiva estuvieron en pacientes con sobrepeso (8.26 mSv) y obesidad (8.05 mSv). Por último, la dosis de radiación efectiva promedio según la frecuencia cardíaca es de 10.12 mSv en pacientes con frecuencia cardiaca entre los rangos de 40 - 49 lpm, 7.47 mSv entre frecuencias en el rango 50 - 59 lpm y 8.41 mSv entre el rango de 60 - 70 lpm. Concluye que la dosis de radiación efectiva promedio por reconstrucción iterativa estadística adaptativa (ASIR-V) en angiotomografías coronarias en la Clínica Internacional, sede San Borja es de 8.08 mSv.
Tesis
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Valcárcel, Rodríguez Manoel María. "Reconstrucción y restitución 3D del anticlinal de Puerta-Pareja y estudio de su evolución deformacional y cinemática en su contexto regional (cuenca de Loranca y Sierra de Altomira)". Doctoral thesis, Universitat de Barcelona, 2015. http://hdl.handle.net/10803/336373.

Texto completo
Resumen
Esta Tesis Doctoral se centra en caracterizar la estructura, formación y evolución deformacional y cinemática del anticlinal de Puerta-Pareja en su contexto regional (cinturones de pliegues y cabalgamientos de la cuenca de Loranca y Sierra de Altomira, SW Cadena Ibérica), así como valorar las condiciones de la zona del anticlinal de Puerta-Pareja como posible reservorio para el almacenamiento geológico de CO2. La integración de varios métodos ha permitido superar las limitaciones de cada uno de los estudios individuales aplicados a la zona de estudio. A escala regional se realizó un corte regional E-W y su restitución 2D, el análisis de la historia deformacional a partir de datos de anisotropía de la susceptibilidad magnética (ASM) y el análisis de datos paleomagnéticos y estructurales para detectar posibles rotaciones de eje vertical. A escala local se realizó la reconstrucción 3D del anticlinal de Puerta-Pareja a partir de datos sísmicos, sondeos y de superficie, la restitución de las superficies 3D reconstruidas y el análisis de sus patrones de fracturación. Los resultados del análisis de ASM muestran que las orientaciones de acortamiento paralelo a las capas (layer-parallel shortening) durante la formación de los pliegues y cabalgamientos de Altomira-Loranca en sus sectores Central y Norte fueron aproximadamente E-W, ya evidente durante el depósito de los materiales pre-tectónicos cenozoicos. La integración de datos paleomagnéticos, estructurales y datos previos de otros autores permite concluir que las estructuras en el sector Sur de la cuenca de Loranca se formaron en secuencia de bloque inferior simultáneamente a una rotación de eje vertical de 21º en sentido anti-horario, en el sector Norte las estructuras de la Sierra de Altomira y cuenca de Loranca se formaron en secuencia de bloque superior y durante el Mioceno experimentaron una rotación de eje vertical de 17º en sentido horario, y las estructuras del sector central no rotaron. Por tanto, la oblicuidad de las estructuras de Altomira y Loranca respecto a la Rama Castellano-Valenciana de la Cadena Ibérica es primaria en el sector Central del área estudiada, donde las estructuras se orientan N-S, y en los sectores Norte y Sur la desviación que muestran las estructuras respecto a la orientación N-S (orientaciones NNE-SSW y NNW-SSE, respectivamente) es secundaria. En el sector Sur de la zona estudiada, se observan desacoples de la deformación a favor del nivel de despegue regional entre las estructuras de basamento y cobertera, debido a la rotación de eje vertical de los materiales de la cobertera. Por otro lado, estos estudios permiten precisar la influencia de la Fm. Villalba de la Sierra (Campaniense-Luteciense) en la evolución estructural: mediante su deformación interna inhibió la propagación de varios cabalgamientos hacia unidades superiores y generó desarmonías entre las unidades superiores e inferiores a ella. Se interpretan los efectos de la terminación del nivel de despegue regional (facies Keuper) y de contrafuerte (buttressing) causado por la falla de basamento de Sacedón como los principales condicionantes de la existencia de deformación en secuencia de bloque superior en el sector Norte de Altomira-Loranca. La reconstrucción 3D y la restitución de superficies 3D realizadas en la zona de Puerta-Pareja permiten determinar que el anticlinal de Puerta-Pareja, de orientación general NNE-SSW, se desarrolló fundamentalmente asociado al cabalgamiento de Pareja, de igual orientación, como pliegue de propagación de falla nucleado inicialmente como pliegue de despegue. En el sector Norte del anticlinal, sobre el cabalgamiento de Pareja se desarrolló un cabalgamiento menor, el de La Puerta, lo que define en este sector una configuración de steep-limb breakthrough. El flanco caudal del anticlinal está cortado por otro cabalgamiento menor, el cabalgamiento de Viana, de orientación NNE-SSW, y en el extremo oriental del área estudiada se desarrollaron los cabalgamientos de Villaescusa y Peralveche, de orientación NW-SE. Todos estos cabalgamientos despegaron en los materiales del Keuper, en secuencia de bloque superior. En conjunto, tanto el número de cabalgamientos como sus acortamientos asociados aumentan hacia el Norte. Se interpreta que este aumento se generaría para acomodar la rotación regional horaria experimentada por el conjunto del sector Norte de Altomira-Loranca. Finalmente, la reconstrucción y restitución 3D realizadas han permitido descartar la existencia de ninguna estructura (anticlinal, falla o alto estructural) en el basamento bajo el anticlinal de Puerta-Pareja. Se descarta, por tanto, la existencia de una trampa estructural en el basamento adecuada para el almacenamiento de CO2. La fracturación en el anticlinal de Puerta-Pareja se caracteriza fundamentalmente por dos familias de fracturas, una longitudinal y otra transversal al eje del pliegue, formadas durante el estadio inicial de plegamiento. A partir de las relaciones cronológicas y geométricas entre las rotaciones de eje vertical y las fracturas, se interpreta que el anticlinal de Puerta-Pareja se generó inicialmente con una orientación N-S, perpendicular a la dirección de transporte tectónico regional E-W, y que posteriormente, a causa de pequeñas diferencias locales en la cantidad de rotación en sentido horario experimentada, se generaron las variaciones locales en la orientación del anticlinal de Puerta-Pareja que se observan actualmente.
This Thesis aims to characterize the formation and deformational and kinematic evolution of the Altomira and Loranca fold-and-thrust belts (Altomira Range and Loranca basin, SW Iberian Chain, Central Spain) and the structural configuration and evaluation as a potential reservoir for CO2 sequestration of the Puerta-Pareja anticline, located in the northern sector of the Loranca basin. Several methods were integrated in order to overcome the limitations of every single study in the studied area and to achieve the proposed objetives. Thus, at regional scale, a E-W cross-section and its 2D restoration, an analysis of the anisotropy of the magnetic susceptibility (AMS) and a paleomagnetic analysis were performed and, focused on the Puerta-Pareja anticline, its 3D reconstruction and restoration and analysis of its fracturation were conducted. The results of the AMS analysis show a general E-W layer-parallel shortening orientation during and shortly prior to the formation of Altomira and Loranca fold-and-thrust belts. Paleomagnetic data from Middle Eocene to Lower Miocene rocks reveal the absence of vertical-axis rotations in the central sector of Loranca-Altomira where structures are oriented N-S, and up to 17º of clockwise and 21º of counter-clockwise vertical-axis rotations in the northern and southern sectors, respectively. The integration of paleomagnetic data with previous structural data from other authors shows that the piggy-back sequence of thrusting at the southern sector was synchronous to the counter-clockwise rotation during the Oligocene, whereas at the northern sector structures formed in a break-back sequence and experienced a clockwise rotation during Miocene. The Puerta-Pareja anticline is a NNE-SSW fault-propagation fold associated to the Pareja thrust and initially nucleated as a detachment fold. At its northern part, the La Puerta thrust cuts its front limb defining a steep-limb breakthrough configuration. Three minor thrusts cut its back limb: the Viana (NNE-SSW), the Villaescusa (NW-SE) and the Peralveche (NW-SE) thrusts. All of these thrusts detached on the Keuper facies following a break back sequence. The 3D reconstruction and restoration of this anticline shows the absence of any basement structure suitable for sequestering CO2 underneath. The analysis of the chronological and geometrical relationships between the fracture pattern (mainly transverse and longitudinal fractures) and the vertical-axis rotation at the Puerta-Pareja area reveals that the initial orientation of the Puerta-Pareja anticline was N-S, perpendicular to the E-W regional shortening direction. Subsequently, local differences in the amount of the clockwise vertical-axis rotation occurred generated the present variability of axial orientations.
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Arselán, Mariano Javier. "Algoritmos de procesamiento y reconstrucción tomográfica para imágenes radiológicas". Master's thesis, 2016. http://hdl.handle.net/11086/2869.

Texto completo
Resumen
Tesis (Magister en Análisis y Procesamiento de Imágenes)-- Universidad Nacional de Córdoba, Facultad de Matemática, Astronomía, Física y Computación, 2015.
Maestría conjunta con la Facultad de Cs. Exactas Físicas y Naturales-UNC.
El presente trabajo tiene el propósito de implementar dos códigos computacionales: el primero es un simulador de proyecciones radiográficas de haz cónico monocromático aplicadas a una muestra, mientras que el segundo código implementa un algoritmo de reconstrucción tomográfica, en particular el algoritmo FDK (Feldkamp, Davis, Kress, 1984) , a partir de las imágenes obtenidas en la simulación del primer código. En la implementación se utilizan distintas técnicas de procesamiento de imágenes, como filtros, transformadas de Fourier, y wavelets. Además, se realiza una evaluación de la calidad de las imágenes y de las reconstrucciones tomográficas obtenidas.
The purpose of this work is to implement two packages of computer software: the first one consists in a code that simulates radiographic projections using a monochromatic conical beam of X-rays applied to a given sample, whereas the second one implements an algorithm known as FDK (Feldkamp, Davis, Kress, 1984) , whose goal is to make tomographic reconstructions from a set of projections, and in this particular work, from the simulated images. In our implementation we use diferent image processing techniques, such as filters, Fourier and wavelets, among others. In addition to that, we assesses the quality of the output images from both the simulator and from the FDK implementation.
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Ortiz, Zamora Francisco Gabriel. "Procesamiento morfológico de imágenes en color: aplicación a la reconstrucción geodésica". Doctoral thesis, 2002. http://hdl.handle.net/10045/10053.

Texto completo
Resumen
La presente Tesis Doctoral se orienta en el estudio e investigación de la extensión de las operaciones morfológicas a imágenes en color. El campo de aplicación concreto se centra en las transformaciones geodésicas vectoriales. Para la extensión del procesamiento morfológico a imágenes en color se realiza un estudio de las diferentes estrategias de ordenación vectorial y su interacción con la familia de espacios HSI. Se presentan diferentes métodos de orden y se muestra como la ordenación lexicográfica se adapta perfectamente al mapa de valores HSI. Se desarrolla un nuevo método de ordenación vectorial, basado en el concepto lexicográfico, que permite flexibilizar la rigidez del método de orden anterior y lograr así una transición entre diferentes orientaciones del retículo (intensidad o matiz). En la adecuación de la familia de espacios cromáticos HSI para procesamiento de imágenes se trata la indefinición del matiz. En particular, se desarrolla un algoritmo que, en base a un umbral de saturaciones, decide el cambio de prioridades en la ordenación lexicográfica cuando el matiz no sea significativo. En relación a las transformaciones geodésicas, se analizan minuciosamente los aspectos teóricos de las operaciones geodésicas implementadas en mapas cromáticos vectoriales. Asimismo, se comprueba el cumplimento de sus propiedades gracias al mantenimiento de un mismo criterio de orden vectorial en todas las operaciones, tanto morfológicas, como de minimización o maximización de funciones. La eficiencia de estas operaciones se ha comprobado en aplicaciones de segmentación, eliminación de brillos o atenuación de ruido.
This Doctoral Thesis focuses on the research and study of the extension of morphological operations to colour images. The field of its precise application is vectorial geodesic transformations. For the extension of morphological processing to colour images, a study of the vectorial ordering of strategies and their interaction with the HSI family spaces is carried out. Different methods of ordering are presented and the way the lexicographical ordering is adapted perfectly to the map of HSI values is shown. A new method of vectorial ordering is developed, based on the lexicographical concept, which affords a flexibility of this rigid method of ordering, thus achieving a transition between different orientations of the lattice (intensity or hue). In the adaptation of the family of HSI chromatic spaces for the processing of images, the undefined hue is studied. In particular, we develop un algorithm which, based on a saturation threshold, decides on the change in priority in the lexicographical ordering when the hue is not significant. Regarding the geodesic transformations, the theoretical aspects of the geodesic operations implemented in vectorial chromatic maps are analized in detail. Likewise, the goodness of their properties is proven, thanks to the maintaining of a single vectorial order criterion in all of the operations, not only morphological, but the minimization or maximization of functions as well. The efficiency of these operations has been proven in segmentation applications, the elimination of brigthness or the reduction of noise.
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Fernández, Corazza Mariano. "Procesamiento de señales de tomografía de impedancia eléctrica para el estudio de la actividad cerebral". Tesis, 2015. http://hdl.handle.net/10915/45012.

Texto completo
Resumen
La tomografía de impedancia eléctrica (EIT) permite estimar la conductividad eléctrica interna de un cuerpo. Consiste en aplicar una corriente eléctrica sobre su frontera y medir el potencial eléctrico resultante mediante un arreglo de sensores. Es considerada como una potencial herramienta de diagnóstico médico, caracterizada principalmente por su portabilidad y relativo bajo costo. Si bien se encuentra aún en etapa de desarrollo, está comenzando a ser utilizada en centros de salud para la caracterización del aparato cardio-respiratorio y existe un creciente interés en su aplicación a las neurociencias. Por ejemplo, es posible utilizar la EIT para construir modelos virtuales de la cabeza más precisos mediante la estimación de la conductividad eléctrica de los principales tejidos de la cabeza como un conjunto de parámetros relativamente pequeño, modalidad denominada EIT paramétrico. También se puede utilizar la EIT para generar un mapa de la distribución de conductividad eléctrica interna de un objeto, llamado problema de reconstrucción en EIT. Los cambios de la conductividad eléctrica en la cabeza pueden estar asociados a la actividad neuronal, a focos epilépticos, a accidentes cerebro-vasculares o a tumores. Ambas modalidades de EIT requieren la resolución del problema directo (PD), que consiste en el cálculo de la distribución de potencial eléctrico en el objeto originada por la inyección de corriente sobre su superficie, suponiendo que la conductividad interna es conocida. La estimulación de corriente continua transcraneal (tDCS) es físicamente muy similar a la EIT, pero la corriente eléctrica es aplicada sobre el cuero cabelludo de modo de alterar la tasa de disparos de poblaciones de neuronas en una región de interés. Es una potencial alternativa al empleo de psicofármacos para tratar desórdenes como epilepsia o depresiones. En esta tesis se desarrollan y analizan nuevos métodos para distintos problemas de EIT, centrándose mayormente en aplicaciones a la cabeza humana, y de tDCS. En primer lugar, se describen soluciones analíticas y numéricas para el PD en EIT, estas últimas basadas en el método de los elementos finitos. Luego, se desarrolla un nuevo procedimiento para resolver el PD con bajo costo computacional basado en la formulación del PD en electroencefalografía (EEG). Se propone un nuevo método para determinar la forma de onda de la fuente de corriente que permite desafectar la actividad propia del cerebro con un bajo número de muestras temporales. En EIT paramétrico, se utiliza la cota de Cramér-Rao (CRB) para determinar pares de electrodos convenientes para la inyección de corriente y para analizar límites teóricos en la estimación de las conductividades del cráneo y del cuero cabelludo, modelizándolos como tejidos isótropos y anisótropos. A su vez, se propone el estimador de máxima verosimilitud (MLE) como herramienta para realizar las estimaciones. El MLE se aplica a mediciones simuladas y reales de EIT mostrando un desempeño muy cercano a los límites teóricos. Para el problema de reconstrucción en EIT se adapta el algoritmo sLORETA, muy utilizado en el problema de localización de fuentes de actividad neuronal en EEG. Además, se lo modifica levemente para incorporar la regularización espacial de Laplace. Por otro lado, se introduce la utilización de filtros espaciales adaptivos para localizar cambios de conductividad de pequeño tamaño y estimar su variación temporal. Los resultados muestran mejoras en sesgo y resolución, en comparación con algoritmos de reconstrucción típicos en EIT. Estas mejoras son potencialmente ventajosas en la detección de accidentes cerebro-vasculares y en la localización indirecta de fuentes de actividad neuronal. En tDCS, se desarrolla un nuevo algoritmo para la determinación de patrones de inyección de corriente basado en el principio de reciprocidad y que considera restricciones de seguridad y de hardware. Los resultados obtenidos a partir de simulaciones muestran que el desempeño de dicho algoritmo es comparable al desempeño de algoritmos de optimización tradicionales cuyas soluciones implicarían un equipamiento comparativamente más complejo y costoso. Los métodos desarrollados en la tesis son comparados con métodos pre-existentes y validados a través de simulaciones numéricas por computadora, mediciones sobre maquetas experimentales (ó fantomas) y, de acuerdo con las posibilidades experimentales y respetando los principios de la bioética, mediciones reales sobre humanos.
Electrical impedance tomography (EIT) is a technique to estimate the electrical conductivity of an object. It consists in the application of an electric current on its boundary and the measurement of the resulting electric potential with a sensor array. In clinical practise, it is considered as a potential diagnostic tool characterized by its portability and relatively low cost. While it is still in a development stage, it is starting to be used in health centers to characterize the cardio-respiratory system. In turn, there is an increasing interest of EIT in neuroscience. For example, EIT can be used to estimate the electrical conductivity of the main tissues of the head as a set of a relatively low number of parameters, which is known as bounded or parametric EIT. This is useful for several medical imaging techniques that require realistic and accurate virtual models of the head. EIT can also be used to generate a map of the internal distribution of the electrical conductivity, known as the reconstruction problem. Tracking conductivity changes inside the head is of great interest as they may be related to neuronal activity, epileptic foci, acute stroke, or tumors. Both modalities of EIT require the solution of the EIT forward problem (FP), i.e., the computation of the electric potential distribution due to current injection on the scalp assuming that the electrical conductivity is known. The transcranial direct current stimulation (tDCS) is another technique which is physically very similar to EIT. It consists in injecting a small electric current in a convenient way such that it stimulates specific neuronal populations, increasing or decreasing their firing rate. It is considered as an alternative to psychoactive drugs in the treatment of brain disorders such as epilepsy or depression. This thesis describes the development and analysis of new methods for EIT FP, parametric EIT, reconstruction in EIT, and tDCS, focusing primarily (although not exclusively) in applications to human head. We first describe analytical and numerical approaches for the EIT FP, where the numerical approach is based on the finite element method. Then, we develop a new procedure to solve the EIT FP based on the electroencephalography (EEG) FP formulation, which results in computational advantages. We propose a new method to determine the waveform of the electric current source such that the neuronal activity of the brain can be neglected with the smallest possible number of time samples. In parametric EIT, we use the Cramér-Rao bound (CRB) to determine convenient electrode pairs for the current injection and theoretical limits in the estimation of the electrical conductivity of the main tissues of the head, which we model as isotropic and anisotropic. We propose the maximum likelihood estimator (MLE) to estimate these conductivities and we test it with simulated and real EIT measurements, showing that the MLE performs close to the CRB. We adapt the sLORETA algorithm to the reconstruction problem in EIT. This algorithm is being widely used in the source localization problem in EEG. We also slightly modify it to include the Laplace smoothing prior in the solution. Likewise, we introduce the use of adaptive spatial filters in the localization of conductivity changes and the estimation of its time courses from EIT measurements. The results show improvements over typical EIT algorithms. These improvements may benefit the early detection of acute strokes and the localization of neuronal activity using EIT. In tDCS, we develop a new algorithm to determine convenient current injection patterns. It is based on the reciprocity principle and considers hardware and safety constraints. Our simulation results show that this method performs similarly to other commonly used algorithms that require more complex and costly equipments. The methods we develop and study in this thesis are compared with pre-existing methods and are validated through numerical simulations, measurements on phantoms and, according to the experimental possibilities and bioethical principles, humans.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía