To see the other types of publications on this topic, follow the link: Imagem segmentation.

Dissertations / Theses on the topic 'Imagem segmentation'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Imagem segmentation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Monteiro, Fernando C. "Region-based spatial and temporal image segmentation." Doctoral thesis, Universidade do Porto, Faculdade de Engenharia, 2008. http://hdl.handle.net/10198/1835.

Full text
Abstract:
This work discusses region-based representations for image and video sequence segmentation. It presents effective image segmentation techniques and demonstrates how these techniques may be integrated into algorithms that solve some of the motion segmentation problems. The region-based representation offers a way to perform a first level of abstraction and to reduce the number of elements to process with respect to the classical pixel-based representation. Motion segmentation is a fundamental technique for the analysis and the understanding of image sequences of real scenes. Motion segmentation 'describes' the sequence as sets of pixels moving coherently across one sequence with associated motions. This description is essential to the identification of the objects in the scene and to a more efficient manipulation of video sequences. This thesis presents a hybrid framework based on the combination of spatial and motion information for the segmentation of moving objects in image sequences accordingly with their motion. We formulate the problem as graph labelling over a region moving graph where nodes correspond coherently to moving atomic regions. This is a flexible high-level representation which individualizes moving independent objects. Starting from an over-segmentation of the image, the objects are formed by merging neighbouring regions together based on their mutual spatial and temporal similarity, taking spatial and motion information into account with the emphasis being on the second. Final segmentation is obtained by a spectral-based graph cuts approach. The initial phase for the moving object segmentation aims to reduce image noise without destroying the topological structure of the objects by anisotropic bilateral filtering. An initial spatial partition into a set of homogeneous regions is obtained by the watershed transform. Motion vector of each region is estimated by a variational approach. Next a region moving graph is constructed by a combination of normalized similarity between regions where mean intensity of the regions, gradient magnitude between regions, and motion information of the regions are considered. The motion similarity measure among regions is based on human perceptual characteristics. Finally, a spectral-based graph cut approach clusters and labels each moving region. The motion segmentation approach is based on a static image segmentation method proposed by the author of this dissertation. The main idea is to use atomic regions to guide a segmentation using the intensity and the gradient information through a similarity graph-based approach. This method produces simpler segmentations, less over-segmented and compares favourably with the state-of-the-art methods. To evaluate the segmentation results a new evaluation metric is proposed, which takes into attention the way humans perceive visual information. By incorporating spatial and motion information simultaneously in a region-based framework, we can visually obtain meaningful segmentation results. Experimental results of the proposed technique performance are given for different image sequences with or without camera motion and for still images. In the last case a comparison with the state-of-the-art approaches is made.
APA, Harvard, Vancouver, ISO, and other styles
2

Silva, Maíra Saboia da. "Aglomeração de pixels pela transformada imagem floresta e sua aplicação em segmentação de fundo de imagens natuarais." [s.n.], 2011. http://repositorio.unicamp.br/jspui/handle/REPOSIP/275713.

Full text
Abstract:
Orientador: Alexandre Xavier Falcão<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação<br>Made available in DSpace on 2018-08-19T04:43:31Z (GMT). No. of bitstreams: 1 Silva_MairaSaboiada_M.pdf: 1907857 bytes, checksum: 515dfcdf136f4e9cc1c1d8b0690b3116 (MD5) Previous issue date: 2011<br>Resumo: Esta dissertação apresenta uma metodologia automática para separar objetos de interesse em imagens naturais. Objetos de interesse são definidos como os maiores objetos que se destacam com relação aos pixels em torno deles dentro de uma imagem. Estes objetos não precisam necessariamente estar centrados, mas devem possuir o mínimo possível de pixels na região assumida como fundo da imagem (e.g., borda de imagem com uma dada espessura). A metodologia é baseada em segmentação de fundo e pode ser dividida em duas etapas. Primeiramente, um modelo nebuloso é criado para o fundo da imagem utilizando um método de agrupamento baseado em função densidade de probabilidade das cores de fundo. A partir do modelo é criado um mapa de pertinência, onde os pixels de objeto são mais claros do que os pixels de fundo. Foram investigadas técnicas de agrupamento baseadas em deslocamento médio, transformada imagem floresta, mistura de Gaussianas e maximização da esperança. Três métodos para criação do mapa de pertinência foram propostos e comparados; um inteiramente baseado na transformada imagem floresta, o outro em mistura de Gaussianas e o terceiro em maximização da esperança. Nos dois últimos casos, o agrupamento baseado na transformada imagem floresta foi utilizado como estimativa inicial dos grupos. Em seguida, o mapa de pertinência é utilizado para possibilitar a seleção de pixels sementes de objeto e fundo. Estes pixels geram um agrupamento binário da imagem colorida que separa o fundo do(s) objeto(s). Os experimentos foram realizados com uma base heterogênea composta por 50 imagens naturais. Os melhores resultados foram os obtidos pela metodologia inteiramente baseada na Transformada Imagem Floresta. Para justificar o uso de um agrupamento binário das cores para segmentação, os resultados foram comparados com uma limiarização ótima, aplicada ao mapa de pertinência. Esses testes foram realizados com o algoritmo de Otsu, mas o agrupamento binário apresentou melhores resultados. Também foi proposto um método híbrido de binarização do mapa de pertinência, envolvendo a limiarização de Otsu e a transformada imagem floresta. Neste caso, a limiarização de Otsu reduz o número de parâmetros em relação à primeira<br>Abstract: This work presents a new methodology for automatic extraction of desired objects in natural images. Objects of interest are defined as the largest components that differ from their surrounding pixels in a given image. These objects do not need to be centered, but they should contain a minimum number of pixels in the region assumed as background (e.g., an image border of certain thickness). This methodology is based on background segmentation and it can be summarized in two steps. First, a fuzzy model is created by a clustering method based on probability density function of the background colors. This model is a membership map, wherein object pixels are brighter than background pixels. For clustering, the following techniques were investigated: mean-shift, image foresting transform, Gaussian mixture model and expectation maximization. We then propose and compare three approaches to create a membership map; a first method entirely based on the image foresting transform, a second approach based on Gaussian mixture model and a third tecnique using expectation maximization. The clustering based on image foresting transform was adopted as the initial estimate for the clusters in the case of the two last methods. In a second step, the membership map is used to enable the selection of object and background seed pixels. These pixels create a binary clustering of the color pixels that separates background and object(s). The experiments involved a heterogeneous dataset with 50 natural images. The approach entirely based on the image foresting transform provided the best result. In order to justify the use of a binary clustering of color pixels instead of optimum thresholding on the membership map, we demonstrated that the binary clustering can provide a better result than Otsu's approach. It was also proposed a hybrid approach to binarize the membership map, which combines Otsu's thresholding and image foresting transform. In this case, Otsu's thresholding reduces the number of parameters in regard to the first approach<br>Mestrado<br>Ciência da Computação<br>Mestre em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
3

Silva, Daniel Torres Couto Coimbra e. "LIDAR target detection and segmentation in road environment." Master's thesis, Universidade de Aveiro, 2013. http://hdl.handle.net/10773/11774.

Full text
Abstract:
Mestrado em Engenharia Mecânica<br>In this project a comparative and exhaustive evaluation of several 2D laser data segmentation algorithms in road scenarios is performed. In a first stage, the segmentation algorithms are implemented using the ROS programming environment; the algorithms are applied to the raw laser scan data in order to extract groups of measurement points which share similar spatial properties and that probably will belong to one single object. Each algorithm has at least one threshold condition parameter that is configurable, and one of the goals is to try to determine the best value of that parameter for road environments. The following stage was the definition of the Ground-truth where multiple laser scans were hand-labelled. The next step was the comparison between the Ground-truth and the segmentation algorithms in order to test their validity. With the purpose of having a quantitative evaluation of the methods' performance, six performance measures were created and compared.<br>Neste trabalho é feita uma avaliação exaustiva e comparativa de diversos algoritmos de segmentação de dados laser 2D em ambiente de estrada. Numa primeira fase, os algoritmos de segmentação são implementados usando o ambiente ROS; estes algoritmos têm a função de juntar pontos adquiridos pelo laser e agrupar os pontos de acordo com as suas propriedades espaciais e que idealmente irão pertencer ao mesmo objeto. Tendo cada algoritmo pelo menos um parâmetro variável na sua condição de separação, um dos objetivos do projeto é determinar o seu valor optimo em varias situações de estrada. A etapa seguinte foi definir um Ground-truth: diversos laser scans foram manualmente segmentados. Por fim, é feita a comparação entre os resultados dos algoritmos com o Ground-truth, testando assim a validade de cada algoritmo. Com o intuito de se realizar uma avaliação quantitativa, foram criadas seis medidas de desempenho da segmentação dos algoritmos que penalizam casos de má segmentação.
APA, Harvard, Vancouver, ISO, and other styles
4

Cappabianco, Fabio Augusto Menocci. "Segmentação de tecidos do cerebro humano em imagens de ressonancia magnetica e sua avaliação." [s.n.], 2010. http://repositorio.unicamp.br/jspui/handle/REPOSIP/275845.

Full text
Abstract:
Orientadores: Alexandre Xavier Falcão, Guido Costa Souza de Araujo<br>Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação<br>Made available in DSpace on 2018-08-15T05:47:56Z (GMT). No. of bitstreams: 1 Cappabianco_FabioAugustoMenocci_D.pdf: 2671052 bytes, checksum: 751e1d22cedbe679c7440e3163af54d6 (MD5) Previous issue date: 2010<br>Resumo: A segmentação de tecidos cerebrais se tornou fundamental para a neurologia no tratamento e diagnose de pacientes. Muitas contribuições tem aprimorado as metodologias de segmentaçao mas, ainda ha muito a ser feito. De fato, ruídos provenientes da aquisiçao da imagem, a enorme quantidade de dados, variações anatômicas decorrentes de doenças, diferença de idade e sexo, alem de incisoes cirúrgicas sao alguns dos desafios enfrentados. Alem disso, e muito difícil gerar padroes ouro dos tecidos cerebrais contidos nas imagens de ressonancia magnetica e tambem escolher metricas apropriadas para avaliar uma determinada metodologia de segmentaçao de tecidos. Neste contexto, apresentamos uma revisao das operações de pre-processamento mais populares da literatura, bem como das diversas metodologias propostas para a segmentaçao de tecidos. Tambem apresentamos uma metodologia inovadora para a se gmentaçao dos tecidos de substancia branca, substancia cinzenta e líquido cerebro espinhal baseada no algoritmo de agrupamento de dados por floresta de caminhos otimos, com as seguintes características desejaveis: baixo tempo de processamento, robustez, alta acuracia, ajuste intuitivo de parametros, adaptabilidade a imagens de diferentes protocolos e a variaçoes anatomicas, e efetividade ao corrigir o efeito de heterogeneidade de campo magnetico. Avaliamos a metodologia quantitativamente e qualitativamente, comparando-a com dois metodos populares da literatura sobre cinco bases de dados de modalidades e anatomias diferentes. A avaliaçao quantitativa leva em conta o intervalo de operaçao das metodologias, e a avaliaçao qualitativa leva em conta o ponto de vista de especialistas com respeito a acuracia das segmentaçoes. Assim, acreditamos que a metodologia de segmentaçao de tecidos cerebrais agrega importantes contribuições ao estado da arte. Ja a metodologia de avaliaçao proposta evidencia a importancia da escolha de metricas apropriadas na analise de imagens medicas<br>Abstract: Segmentation of brain tissues from MR-images has become crucial to advance research, diagnosis and treatment in Neurology. Despite the large number of contributions, brain tissue segmentation is still a challenge, due to problems in image acquisition, large data sets, and anatomical variations caused by surgery, pathologies and differences in sex and age. Another difficulty is to create reliable ground truths for evaluation, which also requires suitable metrics. In this work, we review the most important pre-processing operations, as well as the most popular brain tissues segmentation methods. We also propose a new approach based on optimum-path forest clustering, which improves previous works on various aspects: speed, robustness, accuracy, intuitive tuning of parameters and adaptability to different imaging modalities and anatomies. The effectiveness of the approach can be noticed in both inhomogeneity correction and in white matter, gray matter and cerebral-spinal fluid segmentation. The method is evaluated quantitatively and qualitatively by taking into account two other popular methods, five datasets from diferent modalities, an operational range of parameters for each method and scores from distinct specialists. The results reveal a signiicant contribution to the state-of-the-art and emphasize the importance of suitable evaluation metrics in medical image analysis<br>Doutorado<br>Processamento e Analise de Imagens<br>Doutor em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
5

Tavares, Anderson Carlos Moreira. "Interactive 3D segmentation repair with image-foresting transform, supervoxels and seed robustness." Universidade de São Paulo, 2017. http://www.teses.usp.br/teses/disponiveis/45/45134/tde-03082017-230907/.

Full text
Abstract:
Image segmentation consists on its partition into relevant regions, such as to isolate the pixels belonging to desired objects in the image domain, which is an important step for computer vision, medical image processing, and other applications. Many times automatic segmentation generates results with imperfections. The user can correct them by editing manually, interactively or can simply discard the segmentation and try to automatically generate another result by a different method. Interactive methods combine benefits from manual and automatic ones, reducing user effort and using its high-level knowledge. In seed-based methods, to continue or repair a prior segmentation (presegmentation), avoiding the user to start from scratch, it is necessary to solve the Reverse Interactive Segmentation Problem (RISP), that is, how to automatically estimate the seeds that would generate it. In order to achieve this goal, we first divide the segmented object into its composing cores. Inside a core, two seeds separately always produce the same result, making one redundant. With this, only one seed per core is required. Cores leading to segmentations which are contained in the result of other cores are redundant and can also be discarded, further reducing the seed set, a process called Redundancy Analysis. A minimal set of seeds for presegmentation is generated and the problem of interactive repair can be solved by adding new seeds or removing seeds. Within the framework of the Image-Foresting Transform (IFT), new methods such as Oriented Image-Foresting Transform (OIFT) and Oriented Relative Fuzzy Connectedness (ORFC) were developed. However, there were no known algorithms for computing the core of these methods. This work develops such algorithms, with proof of correctness. The cores also give an indication of the degree of robustness of the methods on the positioning of the seeds. Therefore, a hybrid method that combines GraphCut and the ORFC cores, as well as the Robustness Coefficient (RC), have been developed. In this work, we present another developed solution to repair segmentations, which is based on IFT-SLIC, originally used to generate supervoxels. Experimental results analyze, compare and demonstrate the potential of these solutions.<br>Segmentação de imagem consiste no seu particionamento em regiões, tal como para isolar os pixels pertencentes a objetos de interesse em uma imagem, sendo uma etapa importante para visão computacional, processamento de imagens médicas e outras aplicações. Muitas vezes a segmentação automática gera resultados com imperfeições. O usuário pode corrigi-las editando-a manualmente, interativamente ou simplesmente descartar o resultado e gerar outro automaticamente. Métodos interativos combinam os benefícios dos métodos manuais e automáticos, reduzindo o esforço do usuário e utilizando seu conhecimento de alto nível. Nos métodos baseados em sementes, para continuar ou reparar uma segmentação prévia (presegmentação), evitando o usuário começar do zero, é necessário resolver o Problema da Segmentação Interativa Reversa (RISP), ou seja, estimar automaticamente as sementes que o gerariam. Para isso, este trabalho particiona o objeto da segmentação em núcleos. Em um núcleo, duas sementes separadamente produzem o mesmo resultado, tornando uma delas redundante. Com isso, apenas uma semente por núcleo é necessária. Núcleos contidos nos resultados de outros núcleos são redundantes e também podem ser descartados, reduzindo ainda mais o conjunto de sementes, um processo denominado Análise de Redundância. Um conjunto mínimo de sementes para a presegmentação é gerado e o problema da reparação interativa pode então ser resolvido através da adição de novas sementes ou remoção. Dentro do arcabouço da Transformada Imagem-Floresta (IFT), novos métodos como Oriented Image-Foresting Transform (OIFT) e Oriented Relative Fuzzy Connectedness (ORFC) foram desenvolvidos. Todavia, não há algoritmos para calcular o núcleo destes métodos. Este trabalho desenvolve tais algoritmos, com prova de corretude. Os núcleos também nos fornecem uma indicação do grau de robustez dos métodos sobre o posicionamento das sementes. Por isso, um método híbrido do GraphCut com o núcleo do ORFC, bem como um Coeficiente de Robustez (RC), foram desenvolvidos. Neste trabalho também foi desenvolvida outra solução para reparar segmentações, a qual é baseada em IFT-SLIC, originalmente utilizada para gerar supervoxels. Resultados experimentais analisam, comparam e demonstram o potencial destas soluções.
APA, Harvard, Vancouver, ISO, and other styles
6

Parraga, Adriane. "Atlas anatômico da região da cabeça e do pescoço : em direção à radioterapia adaptativa." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2008. http://hdl.handle.net/10183/15403.

Full text
Abstract:
Em radioterapia externa, uma nova técnica chamada terapia de radiação de intensidade modulada - IMRT - permite delinear a dose de radiação em imagens de 2 ou 3 dimensões, delimitando de forma bastante precisa e não necessariamente uniforme a região a ser irradiada. Assim, ao mesmo tempo que o tumor é irradiado, é possível evitar a irradiação aos tecidos vizinhos íntegros (sãos), limitando os efeitos secundários do tratamento. Para que a radioterapia externa tenha sucesso usando a técnica IMRT, é fundamental delinear previamente de forma precisa o tumor e os órgãos sãos que devem ser protegidos da radiação, garantindo assim a dose exata de radiação nos volumes alvos. O objetivo desta tese é fornecer ferramentas que sejam adequadas ao delineamento automático de estruturas de interesse e à radioterapia adaptativa para tumores da região da cabeça e do pescoço. Atualmente, a segmentação de estruturas de interesse, tais como os órgãos em risco e as regiões de propagação tumoral, é feita manualmente. Esta é uma tarefa que demanda bastante tempo de um especialista, além de ser tediosa. Além do mais, o planejamento em radioterapia é feito baseado na imagem adquirida na semana do pré-tratamento, onde é calculada a dose. Normalmente o tratamento ocorre em várias semanas, porém a dose estimada no início do tratamento é a mesma para todas as outras semanas do tratamento. Calcular a dose e mantê-la nas demais semanas é uma simplificação que não corresponde à realidade, já que ocorrem mudanças anatômicas no paciente ao longo do tratamento. Estas mudanças ocorrem devido ao encolhimento do tumor e ao possível emagrecimento do paciente, provocando alterações anatômicas locais e globais. As contribuições desta tese visam solucionar e avançar nestes problemas e são apresentadas em dois eixos. No primeiro eixo, é proposta uma metodologia para escolher uma anatomia que seja representativa da população, anatomia esta chamada de atlas. O registro do atlas na imagem do paciente permite que estruturas de interesse sejam segmentadas automaticamente, acelerando o processo de delineamento e tornando-o mais robusto. A segunda contribuição desta tese é voltada à radioterapia adaptativa. Para que a dose estimada na primeira semana seja adaptada às modificações anatômicas, é necessária a utilização de métodos de registro não-rígidos. Portanto, nesta etapa é feita uma avaliação e adaptação dos métodos de registros de forma que a região do tumor esteja bem alinhada.<br>Intensity Modulated Radiotherapy (IMRT) is a new technique enabling the delineation of the 3D radiation dose. It allows to delineate a radiation zone of almost any shape and to modulate the beam intensity inside the target. If IMRT enables to constrain the radiation plan in the beam delivery as well as in the protection of important functional areas (e.g. spinal cord), it also raises the issues of adequacy and accuracy of the selection and delineation of the target volumes. The purpose of this thesis is to provide tools to automatic delineation of the regions of interest and also to adaptive radiotherapy treatment for tumors located in the head and neck region. The delineation in the patient computed tomography image of the tumor volume and organs to be protected is currently performed by an expert who delineates slice by slice the contours of interest. This task is highly time-consuming and requires experts’ knowledge. Moreover, the planning process in radiotherapy typically involves the acquisition of a unique set of computed tomography images in treatment position on which target volumes (TVs) and normal structures are delineated, and which are used for dose calculation. Restricting the delineation of these regions of interest based solely on pre-treatment images is an oversimplification as it is only a snapshot of the patient´s anatomy at a given time. Shrinkage of the tumor and modification of the patient anatomy at large (e.g. due to weight loss) may indeed occur within the several weeks’ duration of a typical treatment. The main contributions of this thesis aim to advance in the solution to these issues and are presented in two axes. In the first one, it is proposed a methodology to choose an image with the most representative anatomy of a population; such image is called Atlas. The registration of the atlas into a new image of the patient allows to automatically segment the structures of interest, speeding up the delineation process and making it more robust. The second contribution of this thesis is focused on the adaptive radiotherapy. In order to adjust the estimated dose to the anatomical modifications, it is fundamental to have non-rigid registration algorithms. So, the evaluation and adaptation of non-rigid registration methods are required, addressing especially the alignment of the tumor’s region among different moments of the treatment.
APA, Harvard, Vancouver, ISO, and other styles
7

Tambur, Gabriel dos Santos. "Metodologia para inspeção visual e automatica de carga em vagões ferroviarios." [s.n.], 2007. http://repositorio.unicamp.br/jspui/handle/REPOSIP/258872.

Full text
Abstract:
Orientador: Clesio Luis Tozzi<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação<br>Made available in DSpace on 2018-08-09T18:52:49Z (GMT). No. of bitstreams: 1 Tambur_GabrieldosSantos_M.pdf: 6836328 bytes, checksum: a9f9ee22e341720b36aab9a7e3566604 (MD5) Previous issue date: 2007<br>Resumo: Neste trabalho foi desenvolvida uma metodologia para inspeção visual e automática de carga de grãos em vagões ferroviários que utiliza técnicas de processamento de imagens. A metodologia inclui três etapas principais: a localização do vagão na imagem utilizando a transformada de Hough, a descrição da carga usando cor e textura, e a identificação de regiões com possíveis objetos sobrepostos. A avaliação dos resultados foi feita a partir de imagens reais e simuladas. A abordagem proposta mostrou-se adequada para os objetivos especificados<br>Abstract: This work proposes the development of a methodology to scan visually and automatically the grain cargo in railway cars using image processing techniques. The methodology is composed by three main steps: the localization of the railway car in the image using the Hough Transform, the description of the cargo using its color and texture, and the identification of regions with possibly overlaid objects. The assessment of the results was done through real and simulated images. The proposed methodology proved to be adequate for the specified objectives<br>Mestrado<br>Engenharia de Computação<br>Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
8

Medeiros, Rafael Sachett. "Detecção de pele humana utilizando modelos estocásticos multi-escala de textura." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2013. http://hdl.handle.net/10183/70193.

Full text
Abstract:
A detecção de gestos é uma etapa importante em aplicações de interação humanocomputador. Se a mão do usuário é detectada com precisão, tanto a análise quanto o reconhecimento do gesto de mão se tornam mais simples e confiáveis. Neste trabalho, descrevemos um novo método para detecção de pele humana, destinada a ser empregada como uma etapa de pré-processamento para segmentação de gestos de mão em sistemas que visam o seu reconhecimento. Primeiramente, treinamos os modelos de cor e textura de pele (material a ser identificado) a partir de um conjunto de treinamento formado por imagens de pele. Nessa etapa, construímos um modelo de mistura de Gaussianas (GMM), para determinar os tons de cor da pele e um dicionário de textons, para textura de pele. Em seguida, introduzimos um estratégia de fusão estocástica de regiões de texturas, para determinar todos os segmentos de diferentes materiais presentes na imagem (cada um associado a uma textura). Tendo obtido todas as regiões, cada segmento encontrado é classificado com base nos modelos de cor de pele (GMM) e textura de pele (dicionário de textons). Para testar o desempenho do algoritmo desenvolvido realizamos experimentos com o conjunto de imagens SDC, projetado especialmente para esse tipo de avaliação (detecção de pele humana). Comparado com outras técnicas do estado-daarte em segmentação de pele humana disponíveis na literatura, os resultados obtidos em nossos experimentos mostram que a abordagem aqui proposta é resistente às variações de cor e iluminação decorrentes de diferentes tons de pele (etnia do usuário), assim como de mudanças de pose da mão, mantendo sua capacidade de discriminar pele humana de outros materiais altamente texturizados presentes na imagem.<br>Gesture detection is an important task in human-computer interaction applications. If the hand of the user is precisely detected, both analysis and recognition of hand gesture become more simple and reliable. This work describes a new method for human skin detection, used as a pre-processing stage for hand gesture segmentation in recognition systems. First, we obtain the models of color and texture of human skin (material to be identified) from a training set consisting of skin images. At this stage, we build a Gaussian mixture model (GMM) for identifying skin color tones and a dictionary of textons for skin texture. Then, we introduce a stochastic region merging strategy, to determine all segments of different materials present in the image (each associated with a texture). Once the texture regions are obtained, each segment is classified based on skin color (GMM) and skin texture (dictionary of textons) model. To verify the performance of the developed algorithm, we perform experiments on the SDC database, specially designed for this kind of evaluation (human skin detection). Also, compared with other state-ofthe- art skin segmentation techniques, the results obtained in our experiments show that the proposed approach is robust to color and illumination variations arising from different skin tones (ethnicity of the user) as well as changes of pose, while keeping its ability for discriminating human skin from other highly textured background materials.
APA, Harvard, Vancouver, ISO, and other styles
9

Flores, Eliezer Soares. "Segmentação de lesões melanocíticas usando uma abordagem baseada no aprendizado de dicionários." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2015. http://hdl.handle.net/10183/115219.

Full text
Abstract:
Segmentação é uma etapa essencial para sistemas de pré-triagem de lesões melanocíticas. Neste trabalho, um novo método para segmentar lesões melanocíticas em imagens de câmera padrão (i.e., imagens macroscópicas) é apresentado. Inicialmente, para reduzir artefatos indesejáveis, os efeitos de sombra são atenuados na imagem macroscópica e uma présegmentação é obtida usando um esquema que combina a transformada wavelet com a transformada watershed. Em seguida, uma imagem de variação textural projetada para melhorar a discriminabilidade da lesão em relação ao fundo é obtida e a região présegmentada é usada para o aprendizado de um dicionário inicial e de uma representação inicial via um método de fatoração de matrizes não-negativas. Uma versão nãosupervisionada e não-paramétrica do método de aprendizado de dicionário baseado em teoria da informação é proposta para otimizar esta representação, selecionando o subconjunto de átomos que maximiza a compactividade e a representatividade do dicionário aprendido. Por fim, a imagem da lesão de pele é representada usando o dicionário aprendido e segmentada com o método de corte normalizado em grafos. Nossos resultados experimentais baseados em uma base de imagens bastante utilizada sugerem que o método proposto tende a fornecer melhores resultados do que os métodos estado-da-arte analisados (em termos do erro XOR).<br>Segmentation is an essential step for the automated pre-screening of melanocytic lesions. In this work, a new method for segmenting melanocytic lesions in standard camera images (i.e., macroscopic images) is presented. Initially, to reduce unwanted artifacts, shading effects are attenuated in the macroscopic image and a pre-segmentation is obtained using a scheme that combines the wavelet transform and the watershed transform. Afterwards, a textural variation image designed to enhance the skin lesion against the background is obtained, and the presegmented skin lesion region is used to learn an initial dictionary and an initial representation via a nonnegative matrix factorization method. An unsupervised and non-parametric version of the information-theoretic dictionary learning method is proposed to optimize this representation by selecting the subset of atoms that maximizes the learned dictionary compactness and representation. Finally, the skin lesion image is represented using the learned dictionary and segmented with the normalized graph cuts method. Our experimental results based on a widely used image dataset suggest that the proposed method tends to provide more accurate skin lesion segmentations than comparable state-of-the-art methods (in terms of the XOR error).
APA, Harvard, Vancouver, ISO, and other styles
10

Braz, Caio de Moraes. "Segmentação de imagens pela transformada imagem-floresta com faixa de restrição geodésica." Universidade de São Paulo, 2016. http://www.teses.usp.br/teses/disponiveis/45/45134/tde-01062016-104354/.

Full text
Abstract:
Vários métodos tradicionais de segmentação de imagens, como a transformada de watershed de marcado- res e métodos de conexidade fuzzy (Relative Fuzzy Connectedness- RFC, Iterative Relative Fuzzy Connected- ness - IRFC), podem ser implementados de modo eficiente utilizando o método em grafos da Transformada Imagem-Floresta (Image Foresting Transform - IFT). No entanto, a carência de termos de regularização de fronteira em sua formulação fazem com que a borda do objeto segmentado possa ser altamente irregular. Um modo de contornar isto é por meio do uso de restrições de forma do objeto, que favoreçam formas mais regulares, como na recente restrição de convexidade geodésica em estrela (Geodesic Star Convexity - GSC). Neste trabalho, apresentamos uma nova restrição de forma, chamada de Faixa de Restrição Geodésica (Geodesic Band Constraint - GBC), que pode ser incorporada eficientemente em uma sub-classe do fra- mework de corte em grafos generalizado (Generalized Graph Cut - GGC), que inclui métodos pela IFT. É apresentada uma prova da otimalidade do novo algoritmo em termos de um mínimo global de uma função de energia sujeita às novas restrições de borda. A faixa de restrição geodésica nos ajuda a regularizar a borda dos objetos, consequentemente melhorando a segmentação de objetos com formas mais regulares, mantendo o baixo custo computacional da IFT. A GBC pode também ser usada conjuntamente com um mapa de custos pré estabelecido, baseado em um modelo de forma, de modo a direcionar a segmentação a seguir uma dada forma desejada, com grau de liberdade de escala e demais deformações controladas por um parâmetro único. Essa nova restrição também pode ser combinada com a GSC e com as restrições de polaridade de borda sem custo adicional. O método é demonstrado em imagens naturais, sintéticas e médicas, sendo estas provenientes de tomografias computadorizadas e de ressonância magnética.<br>In this work, we present a novel boundary constraint, which we denote as the Geodesic Band Constraint (GBC), and we show how it can be efficiently incorporated into a subclass of the Generalized Graph Cut framework (GGC). We include a proof of the optimality of the new algorithm in terms of a global minimum of an energy function subject to the new boundary constraints. The Geodesic Band Constraint helps regularizing the boundary, and consequently, improves the segmentation of objects with more regular shape, while keeping the low computational costs of the Image Foresting Transform (IFT). It can also be combined with the Geodesic Star Convexity prior, and with polarity constraints, at no additional cost.
APA, Harvard, Vancouver, ISO, and other styles
11

Amarante, André Ricardo Soares [UNESP]. "Método para caracterização da homogeneidade da distribuição das frações de áreas de materiais polifásicos por processamento digital de imagens." Universidade Estadual Paulista (UNESP), 2017. http://hdl.handle.net/11449/151516.

Full text
Abstract:
Submitted by Andre Ricardo Soares Amarante null (andre.fatec@gmail.com) on 2017-08-31T16:27:41Z No. of bitstreams: 1 Final - André Ricardo Soares Amarante.pdf: 11499267 bytes, checksum: 3ec5f7b4ceda0ddb91bfe85611eed542 (MD5)<br>Approved for entry into archive by Luiz Galeffi (luizgaleffi@gmail.com) on 2017-09-01T14:21:42Z (GMT) No. of bitstreams: 1 amarante_ars_dr_guara.pdf: 11499267 bytes, checksum: 3ec5f7b4ceda0ddb91bfe85611eed542 (MD5)<br>Made available in DSpace on 2017-09-01T14:21:42Z (GMT). No. of bitstreams: 1 amarante_ars_dr_guara.pdf: 11499267 bytes, checksum: 3ec5f7b4ceda0ddb91bfe85611eed542 (MD5) Previous issue date: 2017-08-28<br>Outra<br>Sabe-se que a contribuição que o processamento de imagens digitais traz para a área da Engenharia de Materiais, mais especificamente na área de caracterização de materiais, é de extrema importância, pois a determinação manual de procedimentos que envolve esta área dispende de um tempo muito grande e geralmente é acompanhado de falhas de quem as realiza. A partir do exposto acima, o objetivo desta pesquisa é a proposição de um método, semiautomático, para caracterização da homogeneidade da distribuição das frações de áreas de materiais polifásicos por processamento digital de imagens, de maneira a: a) desenvolver um algoritmo, utilizando os recursos gráficos presentes no Java, para a identificação e segmentação de fases, utilizando recursos da Estatística e recursos visuais como histograma e gráficos de dispersão de dados; b) desenvolver um algoritmo para o processamento e a identificação da homogeneidade da distribuição das frações de áreas de materiais polifásicos; c) avaliar o método a partir dos dados obtidos nos resultados do experimento e d) descrever os métodos utilizados no plugin desenvolvido. Aplicar-se-á o conceito de Variabilidade, de maneira a permitir uma seleção das fases dos materiais analisados com uma maior precisão. Observa-se que, a partir do método proposta para a caracterização da homogeneidade da distribuição das frações de área de materiais polifásicos, o usuário terá a sua disposição dados que possam subsidiar suas decisões quando da determinação dos limites das fases definidas, assim, deixando de ser apenas um parâmetro baseado nas observações visuais (subjetivas) do mesmo e passando a ter dados que validem e comprovem as regiões determinadas.<br>It is known that the contribution that the digital image processing brings to the area of Materials Engineering, more specifically in the area of material characterization, is of extreme importance, since the manual determination of procedures involving this area takes a very long time large and is usually accompanied by failures of those who perform them. From the above, the objective of this research is the proposition of a semiautomatic method to characterize the homogeneity of the distribution of fractions of areas of polyphase materials by digital image processing, in order to: a) develop an algorithm, using the graphical resources present in Java, for the identification and segmentation of phases, using statistical resources and visual resources such as histogram and data scatter charts; b) to develop an algorithm for the processing and identification of the homogeneity of the distribution of fractions of areas of polyphase materials; c) evaluate the method from the data obtained in the experiment results and d) describe the methods used in the developed plugin. The concept of variability will be applied in order to allow a better selection of the phases of the analyzed materials. It is observed that, based on the proposed method for characterizing the homogeneity of the polyphase material area fractions distribution, the user will have at his disposal data that can subsidize his decisions when determining the limits of the defined phases, thus leaving be only a parameter based on the visual (subjective) observations of the same and starting to have data that validate and prove the determined regions.
APA, Harvard, Vancouver, ISO, and other styles
12

Mansilla, Lucy Alsina Choque. "Segmentação de objetos via transformada imagem-floresta orientada com restrições de conexidade." Universidade de São Paulo, 2018. http://www.teses.usp.br/teses/disponiveis/45/45134/tde-01102018-120427/.

Full text
Abstract:
Segmentação de objetos em imagens é um dos problemas mais fundamentais e desafiadores em processamento de imagem e visão computacional. O conhecimento de alto nível e específico do usuário é frequentemente requerido no processo de segmentação, devido à presença de fundos heterogêneos, objetos com bordas fracamente definidas, inomogeneidade de campo, ruído, artefatos, efeitos de volume parcial e seus efeitos conjuntos. Propriedades globais do objeto de interesse, tais como conexidade, restrições de forma e polaridade de borda, são conhecimentos prévios de alto nível úteis para a sua segmentação, permitindo a customização da segmentação para um objeto alvo. Nesse trabalho, apresentamos um novo método chamado Transformada Imagem-Floresta Orientada Conexa (COIFT, Connected Oriented Image Foresting Transform), que fornece soluções ótimas globais de acordo com uma medida de corte em grafo, incorporando a restrição de conexidade na Transformada Imagem-Floresta Orientada (OIFT, Oriented Image Foresting Transform), com o fim de garantir a geração de objetos conexos, bem como permitir o controle simultâneo da polaridade de borda. Enquanto o emprego de restrições de conexidade em outros arcabouços, tais como no algoritmo de corte-mínimo/fluxo-máximo (min-cut/max-flow), leva a um problema NP-difícil, a COIFT conserva o baixo custo computacional da OIFT. Experimentos mostram que a COIFT pode melhorar consideravelmente a segmentação de objetos com partes finas e alongadas, para o mesmo número de sementes em segmentação baseada em marcadores.<br>Object segmentation is one of the most fundamental and challenging problems in image processing and computer vision. The high-level and specific knowledge of the user is often required in the segmentation process, due to the presence of heterogeneous backgrounds, objects with poorly defined boundaries, field inhomogeneity, noise, artifacts, partial volume effects and their joint effects. Global properties of the object of interest, such as connectivity, shape constraints and boundary polarity, are useful high-level priors for its segmentation, allowing the customization of the segmentation for a given target object. In this work, we introduce a new method called Connected Oriented Image Foresting Transform (COIFT), which provides global optimal solutions according to a graph-cut measure in graphs, subject to the connectivity constraint in the Oriented Image Foresting Transform (OIFT), in order to ensure the generation of connected objects, as well as allowing the simultaneous control of the boundary polarity. While the use of connectivity constraints in other frameworks, such as in the min-cut/max-flow algorithm, leads to a NP-Hard problem, COIFT retains the low computational cost of OIFT. Experiments show that COIFT can considerably improve the segmentation of objects with thin and elongated parts, for the same number of seeds in segmentation based on markers.
APA, Harvard, Vancouver, ISO, and other styles
13

Sousa, Pryscila de Jesus de. "Um sistema para o reconhecimento da feição edificação em imagem digital com agentes inteligentes." Universidade do Estado do Rio de Janeiro, 2011. http://www.bdtd.uerj.br/tde_busca/arquivo.php?codArquivo=8285.

Full text
Abstract:
O objetivo desta dissertação foi criar uma nova abordagem para identificar de maneira automática feições do tipo edificação em uma imagem digital. Tal identificação seria de interesse de órgãos públicos que lidam com planejamento urbano para fins de controle da ocupação humana irregular. A abordagem criada utilizou agentes de software especialistas para proceder com o processamento da segmentação e reconhecimento de feições na imagem digital. Os agentes foram programados para tratar uma imagem colorida com o padrão Red, Green e Blue (RGB). A criação desta nova abordagem teve como motivação o fato das atuais técnicas existentes de segmentação e classificação de imagens dependerem sobremaneira dos seus usuários. Em outras palavras, pretendeu-se com a abordagem em questão permitir que usuários menos técnicos pudessem interagir com um sistema classificador, sem a necessidade de profundos conhecimentos de processamento digital de imagem. Uma ferramenta protótipo foi desenvolvida para testar essa abordagem, que emprega de forma inusitada, agentes inteligentes, com testes feitos em recortes de ortofotos digitais do Município de Angra dos Reis (RJ).<br>The purpose of this dissertation has been to create a new approach in order to recognition features of buildings in a digital image in an automatic way. Such recognition features would be interesting of government agencies that deals with urban planning for irregular human occupation control. The approach created has employed specialist software agents to proceed with the segmentation processing and features recognition in the digital images. The agents have been programmed to manipulate colored images with the Red, Green and Blue pattern (RGB). The creation of this new approach has been motivated by the fact of existing segmentation techniques and classification of images greatly depend on its users. In other words, with the approach discussed it has been intended to allow less technical users to interact with a classifier system, without requiring deep knowledge of digital image processing. A prototype tool has been developed to test this approach, which employs in an unusual way, intelligent agents, with tests done in digital orthophotos of the city of Angra dos Reis (RJ).
APA, Harvard, Vancouver, ISO, and other styles
14

Silva, Luciano Silva da. "Segmentação de movimento coerente aplicada à codificação de vídeos baseada em objetos." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2011. http://hdl.handle.net/10183/39108.

Full text
Abstract:
A variedade de dispositivos eletrônicos capazes de gravar e reproduzir vídeos digitais vem crescendo rapidamente, aumentando com isso a disponibilidade deste tipo de informação nas mais diferentes plataformas. Com isso, se torna cada vez mais importante o desenvolvimento de formas eficientes de armazenamento, transmissão, e acesso a estes dados. Nesse contexto, a codificação de vídeos tem um papel fundamental ao compactar informação, otimizando o uso de recursos aplicados no armazenamento e na transmissão de vídeos digitais. Não obstante, tarefas que envolvem a análise de vídeos, manipulação e busca baseada em conteúdo também se tornam cada vez mais relevantes, formando uma base para diversas aplicações que exploram a riqueza da informação contida em vídeos digitais. Muitas vezes a solução destes problemas passa pela segmentação de vídeos, que consiste da divisão de um vídeo em regiões que apresentam homogeneidade segundo determinadas características, como por exemplo cor, textura, movimento ou algum aspecto semântico. Nesta tese é proposto um novo método para segmentação de vídeos em objetos constituintes com base na coerência de movimento de regiões. O método de segmentação proposto inicialmente identifica as correspondências entre pontos esparsamente amostrados ao longo de diferentes quadros do vídeo. Logo após, agrupa conjuntos de pontos que apresentam trajetórias semelhantes. Finalmente, uma classificação pixel a pixel é obtida a partir destes grupos de pontos amostrados. O método proposto não assume nenhum modelo de câmera ou de movimento global para a cena e/ou objetos, e possibilita que múltiplos objetos sejam identificados, sem que o número de objetos seja conhecido a priori. Para validar o método de segmentação proposto, foi desenvolvida uma abordagem para a codificação de vídeos baseada em objetos. Segundo esta abordagem, o movimento de um objeto é representado através de transformações afins, enquanto a textura e a forma dos objetos são codificadas simultaneamente, de modo progressivo. O método de codificação de vídeos desenvolvido fornece funcionalidades tais como a transmissão progressiva e a escalabilidade a nível de objeto. Resultados experimentais dos métodos de segmentação e codificação de vídeos desenvolvidos são apresentados, e comparados a outros métodos da literatura. Vídeos codificados segundo o método proposto são comparados em termos de PSNR a vídeos codificados pelo software de referência JM H.264/AVC, versão 16.0, mostrando a que distância o método proposto está do estado da arte em termos de eficiência de codificação, ao mesmo tempo que provê funcionalidades da codificação baseada em objetos. O método de segmentação proposto no presente trabalho resultou em duas publicações, uma nos anais do SIBGRAPI de 2007 e outra no períodico IEEE Transactions on Image Processing.<br>The variety of electronic devices for digital video recording and playback is growing rapidly, thus increasing the availability of such information in many different platforms. So, the development of efficient ways of storing, transmitting and accessing such data becomes increasingly important. In this context, video coding plays a key role in compressing data, optimizing resource usage for storing and transmitting digital video. Nevertheless, tasks involving video analysis, manipulation and content-based search also become increasingly relevant, forming a basis for several applications that exploit the abundance of information in digital video. Often the solution to these problems makes use of video segmentation, which consists of dividing a video into homogeneous regions according to certain characteristics such as color, texture, motion or some semantic aspect. In this thesis, a new method for segmentation of videos in their constituent objects based on motion coherence of regions is proposed. The proposed segmentation method initially identifies the correspondences of sparsely sampled points along different video frames. Then, it performs clustering of point sets that have similar trajectories. Finally, a pixelwise classification is obtained from these sampled point sets. The proposed method does not assume any camera model or global motion model to the scene and/or objects. Still, it allows the identification of multiple objects, without knowing the number of objects a priori. In order to validate the proposed segmentation method, an object-based video coding approach was developed. According to this approach, the motion of an object is represented by affine transformations, while object texture and shape are simultaneously coded, in a progressive way. The developed video coding method yields functionalities such as progressive transmission and object scalability. Experimental results obtained by the proposed segmentation and coding methods are presented, and compared to other methods from the literature. Videos coded by the proposed method are compared in terms of PSNR to videos coded by the reference software JM H.264/AVC, version 16.0, showing the distance of the proposed method from the sate of the art in terms of coding efficiency, while providing functionalities of object-based video coding. The segmentation method proposed in this work resulted in two publications, one in the proceedings of SIBGRAPI 2007 and another in the journal IEEE Transactions on Image Processing.
APA, Harvard, Vancouver, ISO, and other styles
15

Lopes, Carlos Bruno Oliveira. "Detecção visual de atividade de voz com base na movimentação labial." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2013. http://hdl.handle.net/10183/72922.

Full text
Abstract:
O movimento dos lábios é um recurso visual relevante para a detecção da atividade de voz do locutor e para o reconhecimento da fala. Quando os lábios estão se movendo eles transmitem a idéia de ocorrências de diálogos (conversas ou períodos de fala) para o observador, enquanto que os períodos de silêncio podem ser representados pela ausência de movimentações dos lábios (boca fechada). Baseado nesta idéia, este trabalho foca esforços para detectar a movimentação de lábios e usá-la para realizar a detecção de atividade de voz. Primeiramente, é realizada a detecção de pele e a detecção de face para reduzir a área de extração dos lábios, sendo que as regiões mais prováveis de serem lábios são computadas usando a abordagem Bayesiana dentro da área delimitada. Então, a pré-segmentação dos lábios é obtida pela limiarização da região das probabilidades calculadas. A seguir, é localizada a região da boca pelo resultado obtido na pré-segmentação dos lábios, ou seja, alguns pixels que não são de lábios e foram detectados são eliminados, e em seguida são aplicados algumas operações morfológicas para incluir alguns pixels labiais e não labiais em torno da boca. Então, uma nova segmentação de lábios é realizada sobre a região da boca depois de aplicada uma transformação de cores para realçar a região a ser segmentada. Após a segmentação, é aplicado o fechamento das lacunas internas dos lábios segmentados. Finalmente, o movimento temporal dos lábios é explorado usando o modelo das cadeias ocultas de Markov (HMMs) para detectar as prováveis ocorrências de atividades de fala dentro de uma janela temporal.<br>Lips motion are relevant visual feature for detecting the voice active of speaker and speech recognition. When the lips are moving, they carries an idea of occurrence of dialogues (talk) or periods of speeches to the watcher, whereas the periods of silences may be represented by the absence of lips motion (mouth closed). Based on this idea, this work focus efforts to obtain the lips motion as features and to perform visual voice activity detection. First, the algorithm performs skin segmentation and face detection to reduce the search area for lip extraction, and the most likely lip regions are computed using a Bayesian approach within the delimited area. Then, the pre-segmentation of the lips is obtained by thresholding the calculated probability region. After, it is localized the mouth region by resulted obtained in pre-segmentation of the lips, i.e., some nonlips pixels detected are eliminated, and it are applied a simple morphological operators to include some lips pixels and non-lips around the mouth. Thus, a new segmentation of lips is performed over mouth region after transformation of color to enhance the region to be segmented. And, is applied the closing of gaps internal of lips segmented. Finally, the temporal motion of the lips is explored using Hidden Markov Models (HMMs) to detect the likely occurrence of active speech within a temporal window.
APA, Harvard, Vancouver, ISO, and other styles
16

Filho, Pedro Pedrosa RebouÃas. "MÃtodos de contornos ativos Crisp Adaptativo 2D e 3D aplicados na segmentaÃÃo dos pulmÃes em imagens de tomografia computadorizada do tÃrax." Universidade Federal do CearÃ, 2013. http://www.teses.ufc.br/tde_busca/arquivo.php?codArquivo=9933.

Full text
Abstract:
CoordenaÃÃo de AperfeiÃoamento de Pessoal de NÃvel Superior<br>Sistemas computacionais vÃm desempenhando papel importante em vÃrias Ãreas da medicina, notadamente no auxÃlio ao diagnÃstico mÃdico por imagem. Neste sentido, estudos na Ãrea de VisÃo Computacional sÃo realizados para desenvolver tÃcnicas e sistemas capazes de detectar automaticamente diversas doenÃas. Dentre os exames existentes que permitem o auxÃlio ao diagnÃstico e a aplicaÃÃo de sistemas computacionais em conjunto, destaca-se a Tomografia Computadorizada (TC) que possibilita a visualizaÃÃo de ÃrgÃos internos, como por exemplo, o pulmÃo e suas estruturas. Sistemas de Vis~ao Computacional utilizam estas imagens obtidas por exames de TC para extrair informaÃÃo por meio de tÃcnicas com a finalidade de segmentar, reconhecer e identificar detalhes da regiÃo de interesse nestas imagens. Este trabalho centraliza seus esforÃos na etapa de segmentaÃÃo dos pulmÃes a partir de imagens de TC, empregando-se, para tanto, tÃcnicas baseadas em MÃtodo de Contorno Ativo (MCA), tambÃm conhecido como emph{snake}. Este mÃtodo consiste em traÃar uma curva inicial, em torno ou dentro de um objeto de interesse, deformando-a conforme algumas forÃas que atuam sobre a mesma, deslocando-a atà as bordas do objeto. Este processo à realizado por iteraÃÃes sucessivas de minimizaÃÃo de uma dada funÃÃo energia, associada à curva. Neste contexto, esta tese propÃe um novo mÃtodo para a segmentaÃÃo dos pulmÃes em imagens de TC do tÃrax denominado MÃtodo de Contorno Ativo Crisp Adaptativo. Este MCA à o aperfeiÃoamento do MCA Crisp desenvolvido em um estudo anterior, que visa aumentar a precisÃo, diminuir o tempo de anÃlise e reduzir a subjetividade na segmentaÃÃo e anÃlise dos pulmÃes dessas imagens pelos mÃdicos especialistas. Este mÃtodo à proposto para a segmentaÃÃo de uma imagem isolada ou do exame completo, sendo primeiramente em 2D e expandido para 3D. O MCA Crisp Adaptativo 2D à comparado com os MCAs THRMulti, THRMod, GVF, VFC, Crisp e tambÃm com o sistema SISDEP, sendo esta avaliaÃÃo realizada utilizando como referÃncia 36 imagens segmentadas manualmente por um pneumologista. Jà o MCA Crisp Adaptativo 3D à aplicado na segmentaÃÃo dos pulmÃes em exames de TC e comparado com o mÃtodo Crescimento de RegiÃes 3D, cujos resultados das segmentaÃÃes sÃo avaliados por 2 mÃdicos pneumologistas. Os resultados obtidos demonstram que os mÃtodos propostos sÃo superiores aos demais na segmentaÃÃo dos pulmÃes em imagens de TC do tÃrax, tanto em uma imagem pelo MCA Crisp Adaptativo 2D, como em exames completos pelo MCA Crisp Adaptativo 3D. Deste modo, pode-se concluir que estes mÃtodos podem integrar sistemas de auxÃlio ao diagnÃstico mÃdico na Ãrea de Pneumologia.<br>Computer systems have been playing a very important role in many areas of medicine, particularly, on medical diagnosis through image processing. Therefore, studies on the field of Computer Vision are made to develop techniques and systems to perform automatic detection of several diseases. Among the existing tests that enable the diagnosis and the application of computational system together, there is the Computed Tomography (CT), which allows the visualization of internal organs, such as the lung and its structures. Image analysis techniques applied to CT scans are able to extract important information to segment and recognize details on regions of interest on these images. This work focuses its e&#8629;orts on the stage of lungs segmentation through CT images, using techniques based on Active Contour Method (ACM), also known as snake. This method consists in tracing an initial curve, around or inside the object of interest, wich deform itself according to forces that act over the same, shifting to the object edge. This process is performed by successive iterations of minimization of a given energy, associated to the curve. In this context, this work proposes a new aproach for lung segmentation of chest CT images, which is called Adaptative Crisp Active Contour Method. This ACM is an improvement the previous developed Crisp ACM. The purpose of this new ACM is to increase accuracy, decrease analysis time and reduce segmentation subjectivity in the manual analysis of specialized doctors. This method is proposed to isolated images segmentation or the complete exam, being first in 2D, then expanding to 3D. The 2D Adaptative Crisp ACM is compared to ACMs THRMulti, THRMod, GVF, VFC, Crisp and also with the system SISDEP, being this evaluation performed by using a set of 36 manually segmented images by one pulmonologist. The 3D Adaptative Crisp ACM is applied on lung segmentation in CT exams and compared with the 3D Region Growing method, which segmentation results were evaluated by two pulmonologists. The obtained results shows that the proposed methods are superior to the other methods on lung segmentation in chest CT images, both as in one image by 2D Adaptative Crisp ACM as in full exam by the 3D Adaptative Crisp ACM. Thus, it is possible to conclude that these method can integrate systems to aid medical diagnosis in the field of pulmonology.
APA, Harvard, Vancouver, ISO, and other styles
17

Peixoto, Guilherme Garcia Schu. "Segmentação de imagens coloridas por árvores bayesianas adaptativas." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2017. http://hdl.handle.net/10183/165108.

Full text
Abstract:
A segmentação de imagens consiste em urna tarefa de fundamental importância para diferentes aplicações em visão computacional, tais como por exemplo, o reconhecimento e o rastreamento de objetos, a segmentação de tomores/lesões em aplicações médicas, podendo também servir de auxílio em sistemas de reconhecimento facial. Embora exista uma extensa literatora abordando o problema de segmentação de imagens, tal tópico ainda continua em aberto para pesquisa. Particularmente, a tarefa de segmentar imagens coloridas é desafiadora devido as diversas inomogeneidades de cor, texturas e formas presentes nas feições descritivas das imagens. Este trabalho apresenta um novo método de clustering para abordar o problema da segmentação de imagens coloridas. Nós desenvolvemos uma abordagem Bayesiana para procura de máximos de densidade em urna distribuição discreta de dados, e representamos os dados de forma hierárquica originando clusters adaptativos a cada nível da hierarquia. Nós aplicamos o método de clustering proposto no problema de segmentação de imagens coloridas, aproveitando sua estrutura hierárquica, baseada em propriedades de árvores direcionadas, para representar hierarquicamente uma imagem colorida. Os experimentos realizados revelaram que o método de clustering proposto, aplicado ao problema de segmentação de imagens coloridas, obteve para a medida de performance Probabilistic Rand lndex (PRI) o valor de 0.8148 e para a medida Global Consistency Error (GCE) o valor 0.1701, superando um total de vinte e um métodos previamente propostos na literatura para o banco de dados BSD300. Comparações visuais confirmaram a competitividade da nossa abordagem em relação aos demais métodos testados. Estes resultados enfatizam a potencialidade do nosso método de clustering para abordar outras aplicações no domínio de Visão Computacional e Reconhecimento de Padrões.<br>Image segmentation is an essential task for several computer vision applications, such as object recognition, tracking and image retrieval. Although extensively studied in the literature, the problem of image segmentation remains an open topic of research. Particularly, the task of segmenting color images is challenging due to the inhomogeneities in the color regions encountered in natural scenes, often caused by the shapes of surfaces and their interactions with the illumination sources (e.g. causing shading and highlights) This work presents a novel non-supervised classification method. We develop a Bayesian framework for seeking modes on the underlying discrete distribution of data and we represent data hierarchically originating adaptive clusters at each levei of hierarchy. We apply the prnposal clustering technique for tackling the problem of color irnage segmentation, taking advantage of its hierarchical structure based on hierarchy properties of directed trees for representing fine to coarse leveis of details in an image. The experiments herein conducted revealed that the proposed clustering method applied to the color image segmentation problem, achieved for the Probabilistic Rand Index (PRI) performance measure the value of 0.8148 and for the Global Consistency Error (GCE) the value of 0.1701, outperforming twenty-three methods previously proposed in the literature for the BSD300 dataset. Visual comparison confirmed the competitiveness of our approach towards state-of-art methods publicly available in the literature. These results emphasize the great potential of our proposed clustering technique for tackling other applications in computer vision and pattem recognition.
APA, Harvard, Vancouver, ISO, and other styles
18

Souza, César Salgado Vieira de. "Classify-normalize-classify : a novel data-driven framework for classifying forest pixels in remote sensing images." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2017. http://hdl.handle.net/10183/158390.

Full text
Abstract:
O monitoramento do meio ambiente e suas mudanças requer a análise de uma grade quantidade de imagens muitas vezes coletadas por satélites. No entanto, variações nos sinais devido a mudanças nas condições atmosféricas frequentemente resultam num deslocamento da distribuição dos dados para diferentes locais e datas. Isso torna difícil a distinção dentre as várias classes de uma base de dados construída a partir de várias imagens. Neste trabalho introduzimos uma nova abordagem de classificação supervisionada, chamada Classifica-Normaliza-Classifica (CNC), para amenizar o problema de deslocamento dos dados. A proposta é implementada usando dois classificadores. O primeiro é treinado em imagens não normalizadas de refletância de topo de atmosfera para distinguir dentre pixels de uma classe de interesse (CDI) e pixels de outras categorias (e.g. floresta versus não-floresta). Dada uma nova imagem de teste, o primeiro classificador gera uma segmentação das regiões da CDI e então um vetor mediano é calculado para os valores espectrais dessas áreas. Então, esse vetor é subtraído de cada pixel da imagem e portanto fixa a distribuição de dados de diferentes imagens num mesmo referencial. Finalmente, o segundo classificador, que é treinado para minimizar o erro de classificação em imagens já centralizadas pela mediana, é aplicado na imagem de teste normalizada no segundo passo para produzir a segmentação binária final. A metodologia proposta foi testada para detectar desflorestamento em pares de imagens co-registradas da Landsat 8 OLI sobre a floresta Amazônica. Experimentos usando imagens multiespectrais de refletância de topo de atmosfera mostraram que a CNC obteve maior acurácia na detecção de desflorestamento do que classificadores aplicados em imagens de refletância de superfície fornecidas pelo United States Geological Survey. As acurácias do método proposto também se mostraram superiores às obtidas pelas máscaras de desflorestamento do programa PRODES.<br>Monitoring natural environments and their changes over time requires the analysis of a large amount of image data, often collected by orbital remote sensing platforms. However, variations in the observed signals due to changing atmospheric conditions often result in a data distribution shift for different dates and locations making it difficult to discriminate between various classes in a dataset built from several images. This work introduces a novel supervised classification framework, called Classify-Normalize-Classify (CNC), to alleviate this data shift issue. The proposed scheme uses a two classifier approach. The first classifier is trained on non-normalized top-of-the-atmosphere reflectance samples to discriminate between pixels belonging to a class of interest (COI) and pixels from other categories (e.g. forest vs. non-forest). At test time, the estimated COI’s multivariate median signal, derived from the first classifier segmentation, is subtracted from the image and thus anchoring the data distribution from different images to the same reference. Then, a second classifier, pre-trained to minimize the classification error on COI median centered samples, is applied to the median-normalized test image to produce the final binary segmentation. The proposed methodology was tested to detect deforestation using bitemporal Landsat 8 OLI images over the Amazon rainforest. Experiments using top-of-the-atmosphere multispectral reflectance images showed that the deforestation was mapped by the CNC framework more accurately as compared to running a single classifier on surface reflectance images provided by the United States Geological Survey (USGS). Accuracies from the proposed framework also compared favorably with the benchmark masks of the PRODES program.
APA, Harvard, Vancouver, ISO, and other styles
19

SILVA, Luis Claudio de Oliveira. "Método de detecção de massas em mamas densas usando análise de componentes independentes." Universidade Federal do Maranhão, 2017. http://tedebc.ufma.br:8080/jspui/handle/tede/1897.

Full text
Abstract:
Submitted by Rosivalda Pereira (mrs.pereira@ufma.br) on 2017-09-04T18:08:18Z No. of bitstreams: 1 LuisClaudioSilva.pdf: 4393489 bytes, checksum: 5c3cb715bd7992ba1cc5380c1a940f32 (MD5)<br>Made available in DSpace on 2017-09-04T18:08:18Z (GMT). No. of bitstreams: 1 LuisClaudioSilva.pdf: 4393489 bytes, checksum: 5c3cb715bd7992ba1cc5380c1a940f32 (MD5) Previous issue date: 2017-07-27<br>Breast cancer is the second type of cancer that most a ects women in the world, losing only for non melanoma skin cancer. Breast density can hinder the location of masses, especially in early stages. In this work, the use of independent component analysis for detecting and segmentation lesions in dense breasts is proposed. Several works suggests the use of computer aided diagnosis, increasing sensitivity to over 90% in detecting cancer in non dense breasts, however there are few published studies about detecting in dense breasts. To analyse its e ciency in relation to other segmentation techniques, we compare the performance with principal component analysis. To measure the quality of the segmentation obtained by the two methods, a area overlay measure will be used. To verify if there was any di erence between the results of the proposed methods in the detection of lesions in nondense breasts and in dense breasts, a statistic test for two proportions was used. Experimental results on the Mini-MIAS and DDSM database showed an accuracy of 92.71% in detecting masses in nondense and 79.17% in dense breasts. All experiments showed that the ICA lters have a better performance for detect lesions in dense breast, compared with PCA. Contrary to previous works, our experiments showed that there is actually a signi cant di erence between the detection of masses in dense and nondense breasts. This study can help specialist to detect lesions in dense breast.<br>O câncer de mama é o segundo tipo de câncer que mais afeta mulheres no mundo, perdendo apenas para o câncer de pele não melanoma. A densidade da mama pode di cultar a localização de massas, especialmente em estágios iniciais. Neste trabalho, propõe-se o uso de análise de componentes independentes para detectar e segmentar lesões em mamas densas. Vários trabalhos sugerem o uso do diagnóstico auxiliado por computador, aumentando a sensibilidade para acima de 90% na detecção de câncer em mamas não densas, no entanto, existem poucos estudos publicados sobre a detecção em mamas densas. Para analisar a e ciência do método proposto em relação a outras técnicas de segmentação, comparamos o desempenho com a análise de componentes principais. Para medir a qualidade da segmentação obtida pelos dois métodos, será utilizada uma medida de sobreposição de área. Para veri car se houve diferença entre os resultados dos métodos propostos na detecção de lesões em mamas não densas e nas mamas densas, foi utilizado um teste estatístico para duas proporções. Os resultados experimentais usando os bancos de dados Mini-MIAS e DDSM mostraram uma acurácia de 92,71% na detecção de massas em mamas não densas e 79,17% em mamas densas. Todas as experiências mostraram que os ltros de ICA usados têm um melhor desempenho para detectar lesões em mamas densas, em comparação com PCA. Contrariamente aos trabalhos anteriores, nossos experimentos mostraram que existe realmente uma diferença signi cativa entre a detecção de massas em mamas densas e não densas. Este estudo pode ajudar o especialista a detectar lesões em mamas densas
APA, Harvard, Vancouver, ISO, and other styles
20

Alexandre, Eduardo Barreto. "IFT-SLIC: geração de superpixels com base em agrupamento iterativo linear simples e transformada imagem-floresta." Universidade de São Paulo, 2017. http://www.teses.usp.br/teses/disponiveis/45/45134/tde-24092017-235915/.

Full text
Abstract:
A representação de imagem baseada em superpixels tem se tornado indispensável na melhoria da eficiência em sistemas de Visão Computacional. Reconhecimento de objetos, segmentação, estimativa de profundidade e estimativa de modelo corporal são alguns importantes problemas nos quais superpixels podem ser aplicados. Porém, superpixels podem influenciar a qualidade dos resultados do sistema positiva ou negativamente, dependendo de quão bem eles respeitam as fronteiras dos objetos na imagem. Neste trabalho, é proposto um método iterativo para geração de superpixels, conhecido por IFT-SLIC, baseado em sequências de Transformadas Imagem-Floresta, começando com uma grade regular de sementes. Um procedimento de recomputação de pixels sementes é aplicado a cada iteração, gerando superpixels conexos com melhor aderência às bordas dos objetos presentes na imagem. Os superpixels obtidos via IFT-SLIC correspondem, estruturalmente, a árvores de espalhamento enraizadas nessas sementes, que naturalmente definem superpixels como regiões de pixels fortemente conexas. Comparadas ao Agrupamento Iterativo Linear Simples (SLIC), o IFT-SLIC considera os custos dos caminhos mínimos entre pixels e os centros dos agrupamentos, em vez de suas distâncias diretas. Funções de conexidade não monotonicamente incrementais são exploradas em neste método resultando em melhor desempenho. Estudos experimentais indicam resultados de extração de superpixels superiores pelo método proposto em comparação com o SLIC. Também é analisada a efetividade do IFT-SLIC, em termos de medidas de eficiência e acurácia, em uma aplicação de segmentação do céu em fotos de paisagens. Os resultados mostram que o IFT-SLIC é competitivo com os melhores métodos do estado da arte e superior a muitos outros, motivando seu desenvolvimento para diferentes aplicações.<br>Image representation based on superpixels has become indispensable for improving efficiency in Computer Vision systems. Object recognition, segmentation, depth estimation, and body model estimation are some important problems where superpixels can be applied. However, superpixels can influence the quality of the system results in a positive or negative manner, depending on how well they respect the object boundaries in the image. In this work, we propose an iterative method for superpixels generation, known as IFT-SLIC, which is based on sequences of Image Foresting Transforms, starting with a regular grid for seed sampling. A seed pixel recomputation procedure is applied per each iteration, generating connected superpixels with a better adherence to objects borders present in the image. The superpixels obtained by IFT-SLIC structurally correspond to spanning trees rooted at those seeds, that naturally define superpixels as regions of strongly connected pixels. Compared to Simple Linear Iterative Clustering (SLIC), IFT-SLIC considers minimum path costs between pixel and cluster centers rather than their direct distances. Non-monotonically increasing connectivity functions are explored in our IFT-SLIC approach leading to improved performance. Experimental results indicate better superpixel extraction by the proposed approach in comparation to that of SLIC. We also analyze the effectiveness of IFT-SLIC, according to efficiency, and accuracy on an application -- namely sky segmentation. The results show that IFT-SLIC can be competitive to the best state-of-the-art methods and superior to many others, which motivates it\'s further development for different applications.
APA, Harvard, Vancouver, ISO, and other styles
21

Diniz, Paula Rejane Beserra. "Segmentação de tecidos cerebrais usando entropia Q em imagens de ressonância magnética de pacientes com esclerose múltipla." Universidade de São Paulo, 2008. http://www.teses.usp.br/teses/disponiveis/17/17140/tde-11072008-124117/.

Full text
Abstract:
A perda volumétrica cerebral ou atrofia é um importante índice de destruição tecidual e pode ser usada para apoio ao diagnóstico e para quantificar a progressão de diversas doenças com componente degenerativo, como a esclerose múltipla (EM), por exemplo. Nesta doença ocorre perda tecidual regional, com reflexo no volume cerebral total. Assim, a presença e a progressão da atrofia podem ser usadas como um indexador da progressão da doença. A quantificação do volume cerebral é um procedimento relativamente simples, porém, quando feito manualmente é extremamente trabalhoso, consome grande tempo de trabalho e está sujeito a uma variação muito grande inter e intra-observador. Portanto, para a solução destes problemas há necessidade de um processo automatizado de segmentação do volume encefálico. Porém, o algoritmo computacional a ser utilizado deve ser preciso o suficiente para detectar pequenas diferenças e robusto para permitir medidas reprodutíveis a serem utilizadas em acompanhamentos evolutivos. Neste trabalho foi desenvolvido um algoritmo computacional baseado em Imagens de Ressonância Magnética para medir atrofia cerebral em controles saudáveis e em pacientes com EM, sendo que para a classificação dos tecidos foi utilizada a teoria da entropia generalizada de Tsallis. Foram utilizadas para análise exames de ressonância magnética de 43 pacientes e 10 controles saudáveis pareados quanto ao sexo e idade para validação do algoritmo. Os valores encontrados para o índice entrópico q foram: para o líquido cerebrorraquidiano 0,2; para a substância branca 0,1 e para a substância cinzenta 1,5. Nos resultados da extração do tecido não cerebral, foi possível constatar, visualmente, uma boa segmentação, fato este que foi confirmado através dos valores de volume intracraniano total. Estes valores mostraram-se com variações insignificantes (p>=0,05) ao longo do tempo. Para a classificação dos tecidos encontramos erros de falsos negativos e de falsos positivos, respectivamente, para o líquido cerebrorraquidiano de 15% e 11%, para a substância branca 8% e 14%, e substância cinzenta de 8% e 12%. Com a utilização deste algoritmo foi possível detectar um perda anual para os pacientes de 0,98% o que está de acordo com a literatura. Desta forma, podemos concluir que a entropia de Tsallis acrescenta vantagens ao processo de segmentação de classes de tecido, o que não havia sido demonstrado anteriormente.<br>The loss of brain volume or atrophy is an important index of tissue destruction and it can be used to diagnosis and to quantify the progression of neurodegenerative diseases, such as multiple sclerosis. In this disease, the regional tissue loss occurs which reflects in the whole brain volume. Similarly, the presence and the progression of the atrophy can be used as an index of the disease progression. The objective of this work was to determine a statistical segmentation parameter for each single class of brain tissue using generalized Tsallis entropy. However, the computer algorithm used should be accurate and robust enough to detect small differences and allow reproducible measurements in following evaluations. In this work we tested a new method for tissue segmentation based on pixel intensity threshold. We compared the performance of this method using different q parameter range. We could find a different optimal q parameter for white matter, gray matter, and cerebrospinal fluid. The results support the conclusion that the differences in structural correlations and scale invariant similarities present in each single tissue class can be accessed by the generalized Tsallis entropy, obtaining the intensity limits for these tissue class separations. Were used for analysis of magnetic resonance imaging examinations of 43 patients and 10 healthy controls matched on the sex and age for validation of the algorithm. The values found for the entropic index q were: for the cerebrospinal fluid 0.2; for the white matter 0.1 and for gray matter 1.5. The results of the extraction of the tissue not brain can be seen, visually, a good target, which was confirmed by the values of total intracranial volume. These figures showed itself with variations insignificant (p >= 0.05) over time. For classification of the tissues find errors of false negatives and false positives, respectively, for cerebrospinal fluid of 15% and 11% for white matter 8% and 14%, and gray matter of 8% and 12%. With the use of this algorithm could detect an annual loss for the patients of 0.98% which is in line with the literature. Thus, we can conclude that the entropy of Tsallis adds advantages to the process of target classes of tissue, which had not been demonstrated previously.
APA, Harvard, Vancouver, ISO, and other styles
22

Raymundo, Evandra Maria. "Metodologia de estimação de idade óssea baseada em características métricas utilizando mineradores de dados e classificador neural." Universidade de São Paulo, 2009. http://www.teses.usp.br/teses/disponiveis/18/18152/tde-17112009-085347/.

Full text
Abstract:
Este trabalho apresenta uma proposta de metodologia de estimação de idade óssea baseada em características métricas, utilizando o banco de imagens carpais da Escola de Engenharia de São Carlos (EESC). As imagens foram devidamente segmentadas para obtenção da área, perímetro e comprimento de cada osso, gerando, assim, um banco de dados métricos o CarpEven. As informações da base métrica CarpEven foram submetidas a dois mineradores de dados: ao StARMiner, (Statistical Association Rules) uma metodologia de mineração de dados criada por um grupo de pesquisadores do ICMC-USP, e ao Weka (Waikato Environment for Knowledge Analysis), desenvolvido pela Universidade Waikato da Nova Zelândia. As informações foram submetidas a classificadores neurais, contribuindo, assim, para a criação de uma nova metodologia de estimação de idade óssea. Finalmente, é feita uma comparação entre os resultados obtidos e os resultados já alcançados por outras pesquisas.<br>This work presents a methodology for bone age estimation based on metric characteristics using the carpal images database from Engineering School of São Carlos (EESC-USP). The images were properly segmented to obtain the area, perimeter and length of each bone, thus generating a metric database named CarpEven. The database information were submitted to two data miners: the StarMiner (Statistical Association Rules Miner) a methodology for data mining created by a group of researchers from ICMC-USP, and the Weka (Waikato Environment for Knowledge Analysis), developed by the University of Waikato in New Zealand. The information was submitted to the neural classifiers contributing to the creation of a new methodology for bone age estimation. The results are compared with those obtained by others research.
APA, Harvard, Vancouver, ISO, and other styles
23

Pereira, Roberta Ribeiro Guedes. "Segmentação de Imagens via Análise de Sensibilidade." Universidade Federal da Paraí­ba, 2012. http://tede.biblioteca.ufpb.br:8080/handle/tede/5265.

Full text
Abstract:
Made available in DSpace on 2015-05-08T14:53:37Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 1867949 bytes, checksum: e215bd83c33614620ee1baf3db08ebb4 (MD5) Previous issue date: 2012-04-03<br>Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES<br>Segmentation is the phase of the image processing where the input image is divided into constituent parts or objects. In general, the automatic segmentation is one of the most difficult tasks in digital image processing. In this work we used the topological sensitivity analysis as segmentation technique. The idea of segmentation of images via topological sensitivity analysis is to consider the class switching as an infinitesimal non-smooth perturbation of a pixel and calculate the sensitivity to this perturbation by a functional form associated with this disorder. In fact, the algorithms in the literature using the above approach are based on the Mumford-Shah functional whose minimum value is associated with the segmented image. The topological derivative is a scalar field that provides a first order approximation of the functional disorder associated with each pixel for each class of segmentation. Thus, in pixels where the topological derivative takes its most negative values ??will decrease the cost function and the corresponding change will result in better targeting than the previous. This work aims to present a comparative analysis of four segmentation algorithms based on topological derivative, three of them taken from the literature: Top-Shape 1, Shape 2 and Top-Sdt-Discrete, and the last top-Shape3, a new algorithm. The construction of the last algorithm is motivated by the analysis of the previous algorithms and limiting characteristics found, and derived results with higher quality and performance<br>A segmenta¸c ao ´e a fase do processamento de imagens onde a imagem de entrada ´e dividida em partes ou objetos constituintes. Em geral, a segmenta¸c ao autom´atica ´e uma das tarefas mais dif´ıceis no processamento de imagem digital . Neste trabalho ´e empregada a an´alise de sensibilidade topol´ogica como t´ecnica de segmenta¸c ao. A ideia da segmenta¸c ao de imagens via an´alise de sensibilidade topol´ogica ´e considerar a mudan¸ca de classe de um pixel como perturba¸c ao infinitesimal n ao suave e, calcular a sensibilidade a esta perturba¸c ao atrav´es de um funcional de forma associado a esta perturba¸c ao. De fato, os algoritmos encontrados na literatura que utilizam a abordagem acima s ao baseados no funcional de Mumford-Shah cujo valor m´ınimo est´a associado `a imagem segmentada. A derivada topol´ogica ´e um campo escalar que fornece uma aproxima¸c ao de primeira ordem do funcional associado a perturba¸c ao de cada pixel para cada uma das classes da segmenta¸c ao. Assim, nos pixels onde a derivada topol´ogica assume seus valores mais negativos a fun¸c ao custo ir´a diminuir e a mudan¸ca correspondente ir´a resultar numa segmenta¸c ao melhor do que a anterior. Este trabalho tem como objetivo apresentar uma an´alise comparativa entre quatro algoritmos de segmenta¸c ao baseados em derivada topol´ogica, sendo tr es deles extra´ıdos da literatura: Topo-Shape 1, Topo-Shape 2 e Sdt-Discrete , e o ´ultimo Topo-Shape3, novo algoritmo proposto. A constru¸c ao deste algoritmo ´e motivada pela an´alise dos algoritmos anteriores e caracter´ısticas limitantes encontradas, o que derivou resultados com maior qualidade e desempenho
APA, Harvard, Vancouver, ISO, and other styles
24

Mansilla, Lucy Alsina Choque. "Transformada imagem-floresta com funções de conexidade não suaves: pesos adaptativos, polaridade de borda e restrições de forma." Universidade de São Paulo, 2014. http://www.teses.usp.br/teses/disponiveis/45/45134/tde-17032014-121734/.

Full text
Abstract:
Segmentar uma imagem consiste em particioná-la em regiões relevantes para uma dada aplicação, como para isolar um objeto de interesse no domínio de uma imagem. A segmentação é um dos problemas mais fundamentais e desafiadores em processamento de imagem e visão computacional. Ela tem desempenhado um papel importante, por exemplo, na pesquisa em neurologia, envolvendo imagens de Ressonância Magnética (RM), para fins de diagnóstico e tratamento de doenças relacionadas com alterações na anatomia do cérebro humano. Métodos de segmentação baseados na transformada imagem- floresta (IFT, Image Foresting Transform), com funções de conexidade suaves, possuem resultados ótimos, segundo o critério da otimalidade dos caminhos descrito no artigo original da IFT, e têm sido usados com sucesso em várias aplicações, como por exemplo na segmentação de imagens RM de 1.5 Tesla. No entanto, esses métodos carecem de restrições de regularização de borda, podendo gerar segmentações com fronteiras muito irregulares e indesejadas. Eles também não distinguem bem entre bordas similares com orientações opostas, e possuem alta sensibilidade à estimativa dos pesos das arestas do grafo, gerando problemas em imagens com efeitos de inomogeneidade. Nesse trabalho são propostas extensões da IFT, do ponto de vista teórico e experimental, através do uso de funções de conexidade não suaves, para a segmentação interativa de imagens por região. A otimalidade dos novos métodos é suportada pela maximização de energias de corte em grafo, ou como o fruto de uma sequência de iterações de otimização de caminhos em grafos residuais. Como resultados principais temos: O projeto de funções de conexidade mais adaptativas e flexíveis, com o uso de pesos dinâmicos, que permitem um melhor tratamento de imagens com forte inomogeneidade. O uso de grafos direcionados, de modo a explorar a polaridade de borda dos objetos na segmentação por região, e o uso de restrições de forma que ajudam a regularizar a fronteira delineada, favorecendo a segmentação de objetos com formas mais regulares. Esses avanços só foram possíveis devido ao uso de funções não suaves. Portanto, a principal contribuição desse trabalho consiste no suporte teórico para o uso de funções não suaves, até então evitadas na literatura, abrindo novas perpectivas na pesquisa de processamento de imagens usando grafos.<br>Segmenting an image consist in to partition it into relevant regions for a given application, as to isolate an object of interest in the domain of an image. Segmentation is one of the most fundamental and challenging problems in image processing and computer vision. It has played an important role, for example, in neurology research, involving images of Magnetic Resonance (MR), for the purposes of diagnosis and treatment of diseases related to changes in the anatomy of the human brain. Segmentation methods based on the Image Foresting Transform (IFT), with smooth connectivity functions, have optimum results, according to the criterion of path optimality described in the original IFT paper, and have been successfully used in many applications as, for example, the segmentation of MR images of 1.5 Tesla. However, these methods present a lack of boundary regularization constraints and may produce segmentations with quite irregular and undesired boundaries. They also do not distinguish well between similar boundaries with opposite orientations, and have high sensitivity to the arc-weight estimation of the graph, producing poor results in images with strong inhomogeneity effects. In this work, we propose extensions of the IFT framework, from the theoretical and experimental points of view, through the use of non-smooth connectivity functions for region-based interactive image segmentation. The optimality of the new methods is supported by the maximization of graph cut energies, or as the result of a sequence of paths optimizations in residual graphs. We have as main results: The design of more adaptive and flexible connectivity functions, with the use of dynamic weights, that allow better handling of images with strong inhomogeneity. The use of directed graphs to exploit the boundary polarity of the objects in region-based segmentation, and the use of shape constraints that help to regularize the segmentation boundary, by favoring the segmentation of objects with more regular shapes. These advances were only made possible by the use of non-smooth functions. Therefore, the main contribution of this work is the theoretical support for the usage of non-smooth functions, which were until now avoided in literature, opening new perspectives in the research of image processing using graphs.
APA, Harvard, Vancouver, ISO, and other styles
25

Zeng, Ziming. "Medical image segmentation on multimodality images." Thesis, Aberystwyth University, 2013. http://hdl.handle.net/2160/17cd13c2-067c-451b-8217-70947f89164e.

Full text
Abstract:
Segmentation is a hot issue in the domain of medical image analysis. It has a wide range of applications on medical research. A great many medical image segmentation algorithms have been proposed, and many good segmentation results were obtained. However, due to the noise, density inhomogenity, partial volume effects, and density overlap between normal and abnormal tissues in medical images, the segmentation accuracy and robustness of some state-of-the-art methods still have room for improvement. This thesis aims to deal with the above segmentation problems and improve the segmentation accuracy. This project investigated medical image segmentation methods across a range of modalities and clinical applications, covering magnetic resonance imaging (MRI) in brain tissue segmentation, MRI based multiple sclerosis (MS) lesions segmentation, histology based cell nuclei segmentation, and positron emission tomography (PET) based tumour detection. For the brain MRI tissue segmentation, a method based on mutual information was developed to estimate the number of brain tissue groups. Then a unsupervised segmentation method was proposed to segment the brain tissues. For the MS lesions segmentation, 2D/3D joint histogram modelling were proposed to model the grey level distribution of MS lesions in multimodality MRI. For the PET segmentation of the head and neck tumours, two hierarchical methods based on improved active contour/surface modelling were proposed to segment the tumours in PET volumes. For the histology based cell nuclei segmentation, a novel unsupervised segmentation based on adaptive active contour modelling driven by morphology initialization was proposed to segment the cell nuclei. Then the segmentation results were further processed for subtypes classification. Among these segmentation approaches, a number of techniques (such as modified bias field fuzzy c-means clustering, multiimage spatially joint histogram representation, and convex optimisation of deformable model, etc.) were developed to deal with the key problems in medical image segmentation. Experiments show that the novel methods in this thesis have great potential for various image segmentation scenarios and can obtain more accurate and robust segmentation results than some state-of-the-art methods.
APA, Harvard, Vancouver, ISO, and other styles
26

Marques, Fátima de Lourdes dos Santos Nunes. "Esquema de diagnóstico auxiliado por computador para detecção de agrupamentos de microcalcificações por processamento de imagens mamográficas." Universidade de São Paulo, 1997. http://www.teses.usp.br/teses/disponiveis/18/18133/tde-03052010-085207/.

Full text
Abstract:
O câncer de mama é hoje uma das principais causas de mortalidade de mulheres em todo o mundo. Porém, a sua detecção no estágio inicial de desenvolvimento aumenta consideravelmente as chances de cura. Exatamente por isso estão sendo desenvolvidos vários tipos de sistemas computacionais baseados em processamento de imagens em centros de pesquisas no mundo todo, a fim de auxiliar o radiologista na precisão do seu diagnóstico. A pesquisa aqui apresentada se insere nesse contexto e consistiu no desenvolvimento de um sistema computacional para detectar uma das estruturas que podem ser indício da presença do câncer de mama: os agrupamentos (\"clusters\") de microcalcificações. O sistema aqui apresentado tem como fonte de dados mamogramas digitalizados, nos quais são aplicadas técnicas de processamento para extrair as regiões de interesse e detectar os possíveis \"clusters\" existentes. Os resultados dos testes realizados mostraram que o sistema desenvolvido apresentou uma eficiência de 94% na identificação correta de \"clusters\".<br>Breast cancer is one of the main causes of women death all over the world. However, early detection of the disease increases greatly the possibility of cure. Therefore, several types of computer systems based on image processing are being developed by many research groups in order to aid the radiologist in the accuracy of the diagnosis. The work presented here is inserted in this context corresponding to the development of a computer system designed to detect microcalcifications clusters - structures which can be a strong indicative of breast cancer. This system database is digitized mammograms, to which image processing techniques are applied in order to detect regions of interest and the possible clusters. The results from the tests have shown an efficacy of 94% of the system in clusters correct identification.
APA, Harvard, Vancouver, ISO, and other styles
27

Brogueira, Gaspar Manuel Rocha. "Processamento de imagem digital para o controlo de qualidade do queijo regional de Évora." Master's thesis, Universidade de Évora, 2010. http://hdl.handle.net/10174/19399.

Full text
Abstract:
A utilização generalizada do computador para a automatização das mais diversas tarefas, tem conduzido ao desenvolvimento de aplicações que possibilitam a realização de actividades que até então poderiam não só ser demoradas, como estar sujeitas a erros inerentes à actividade humana. A investigação desenvolvida no âmbito desta tese, tem como objectivo o desenvolvimento de um software e algoritmos que permitam a avaliação e classificação de queijos produzidos na região de Évora, através do processamento de imagens digitais. No decurso desta investigação, foram desenvolvidos algoritmos e metodologias que permitem a identificação dos olhos e dimensões do queijo, a presença de textura na parte exterior do queijo, assim como características relativas à cor do mesmo, permitindo que com base nestes parâmetros possa ser efectuada uma classificação e avaliação do queijo. A aplicação de software, resultou num produto de simples utilização. As fotografias devem respeitar algumas regras simples, sobre as quais se efectuará o processamento e classificação do queijo. ABSTRACT: The widespread use of computers for the automation of repetitive tasks, has resulted in developing applications that allow a range of activities, that until now could not only be time consuming and also subject to errors inherent to human activity, to be performed without or with little human intervention. The research carried out within this thesis, aims to develop a software application and algorithms that enable the assessment and classification of cheeses produced in the region of Évora, by digital images processing. Throughout this research, algorithms and methodologies have been developed that allow the identification of the cheese eyes, the dimensions of the cheese, the presence of texture on the outside of cheese, as well as an analysis of the color, so that, based on these parameters, a classification and evaluation of the cheese can be conducted. The developed software application, is product simple to use, requiring no special computer knowledge. Requires only the acquisition of the photographs following a simple set of rules, based on which it will do the processing and classification of cheese.
APA, Harvard, Vancouver, ISO, and other styles
28

Souza, André Domingos Araújo. "Imagem tridimensional da deformação da musculatura extraocular na orbitopatia de Graves: implicações do efeito de volume parcial." Universidade de São Paulo, 2002. http://www.teses.usp.br/teses/disponiveis/59/59135/tde-23042002-153215/.

Full text
Abstract:
Os músculos extraoculares (EOM), responsáveis pelas rotações oculares, apresentam-se aumentados em suas dimensões na orbitopatia de Graves, o que pode levar o paciente à cegueira (neuropatia óptica). Na prática clínica normalmente mede-se manualmente, em cada imagem coronal de tomografia computadorizada por raios-X (CT), o diâmetro desses músculos para avaliar se estes estão aumentados. A subjetividade e o tempo consumido na aquisição destas medidas são as principais deficiências desses métodos manuais. Dessa forma, apresentamos um método de segmentação dos EOM (MSEG) que supera as falhas, acima citadas. O MSEG proposto é baseado no detector de bordas Laplaciano da Gaussiana (LoG) associado à morfologia matemática. Para determinação do tamanho da máscara LoG levou-se em consideração os efeitos devido ao truncamento e a amostragem. A acurácia das medidas em modelos tridimensionais (3D) é afetada pelo efeito de volume parcial (PVE). Em CT, por exemplo, falsas estruturas de tecidos moles aparecem nas interfaces do osso-para-gordura e do osso-para-ar. Além disso, a pele, que tem número CT (ou escala de Hounsfield) idêntico ao tecido mole, obscurece a renderização deste. A fim de produzir imagens 3D do osso e dos tecidos moles, mais confiáveis para medidas e com melhora de qualidade, foram desenvolvidos dois métodos de classificação dos voxels com PVE (MCLA) baseados num novo modelo de mistura. A remoção da pele é realizada por meio da morfologia matemática. Renderizações volumétricas foram criadas, antes e depois de aplicar os MCLA. Experimentos qualitativo e quantitativo foram conduzidos utilizando fantons matemáticos que simularam diferentes níveis de PVE por adição de ruído e borramento e em dados clínicos de CT. O resultado em 218 pares de medidas de áreas dos EOM realizadas em imagens coronais de CT (3 normais e 2 Graves) revelou uma boa correlação (R=0,92) entre o MSEG e o traçado manual. A medida de taxa de ocupação dos EOM na órbita (TO) feita em 33 pacientes (5 normais e 28 Graves) apresentou o maior valor no grupo Graves com neuropatia óptica, TO=34,3%. Este valor é quase cinco vezes maior que o grupo normal, TO=7,3%. Todos os resultados demonstraram uma melhora de qualidade das imagens 3D depois da aplicação dos MCLA. A análise quantitativa indica que mais de 98% dos voxels com PVE foram removidos por ambos MCLA, e o segundo MCLA têm um desempenho um pouco melhor que o primeiro. Além disso, a remoção da pele torna vívidos os finos detalhes nas estruturas musculares. Medidas em modelos 3D devem ser tomadas com cuidado na radiologia em vista dos artefatos demonstrados neste trabalho, artefatos vindos, principalmente, do PVE. Em nossos experimentos, os erros nas medidas de volume dos EOM foram acima de 25% do valor estimado como "verdadeiro". Imagens volumétricas com PVE resolvidos são apresentadas, e assim medidas mais acuradas são asseguradas.<br>The extraocular muscles (EOM), which are responsible for the eyes movements, are presented enlarged in their dimensions in Graves’ orbitopathy. These deformations can lead patients to blindness. In clinical routine, physicians normally evaluate, in computer tomography (CT) images, the diameter of the EOM by manual tracing to check if they are enlarged. However, the accuracy of the EOM measurements is impaired by the subjectivity of these manual methods. Further, the time consuming is also one of the main drawbacks on these methods. This way we present an EOM segmentation method (MSEG) that overcomes the difficulties pointed above. The MSEG method is based on the Laplacian-of-Gaussian operator (LOG) combined with the mathematical morphology theory. We have taken into account the effect of discretization and numerical truncation during the LOG implementation. In CT, partial volume effects (PVE) cause several artifacts in volume rendering. In order to create 3D rendition more reliable to carry out anatomical measures and also to pursue superior quality of display of both soft-tissue and bone, we introduce two methods for detecting and classifying voxels with PVE (MCLA) based on a new approach. A method is described to automatically peel skin so that PVE-resolved renditions of bone and soft-tissue reveal considerably more details. We have conducted experiments to evaluate quantitatively and qualitatively all methods proposed here. The MSEG method is well correlated with manual tracing in our experiments (R=0,92). Surface renditions are created from EOM CT dataset segmented using the MSEG method. We have also conducted a quantitative evaluation in patients with Graves’ orbitopathy wherein the EOM volume ratio in the orbit (TO) was T=34,3%, which is about five times higher than in normal patient (TO=7,3%). Volume renditions have been created before and after applying the methods for several patient CT datasets. A mathematical phantom experiment involving different levels of PVE has been conducted by adding different degrees of noise and blurring. A quantitative evaluation was performed using the mathematical phantom and clinical CT data wherein an operator carefully masked out voxels with PVE in the segmented images. All results have demonstrated the enhanced quality of display of bone and soft tissue after applying the proposed methods. The quantitative evaluations indicate that more than 98% of the voxels with PVE are removed by the two methods and the second method performs slightly better than the first. Further, skin peeling vividly reveals fine details in the soft tissue structures. 3D renditions should be used with care in radiology in view of artifacts demonstrated in this work coming from PVE. Finally, we have estimated volume errors in the EOM models higher than 25% if PVE is not properly handled.
APA, Harvard, Vancouver, ISO, and other styles
29

Chirinos, José Miguel Manzanares. "Determinação do contorno pulmonar orientado em sequências temporais de imagens de RM pela transformada de Hough." Universidade de São Paulo, 2015. http://www.teses.usp.br/teses/disponiveis/3/3152/tde-12072016-095408/.

Full text
Abstract:
O estudo do movimento pulmonar é assunto de grande interesse na área médica. A observação direta do mesmo é inviável, uma vez que o pulmão colapsa quando a caixa torácica é aberta. Dentre os meios de observação indireta, escolheu-se o imageamento por ressonância magnética em respiração livre e sem uso de nenhum gás para melhorar o contraste ou qualquer informação de sincronismo. Esta escolha propõe diversos desafios, como: a superar a alta variação na qualidade das imagens, que é baixa, em geral, e a suscetibilidade a artefatos, entre outras limitações a serem superadas. Imagens de Tomografia Computadorizada apresentam melhor qualidade e menor tempo de aquisição, mas expõem o paciente a níveis consideráveis de radiação ionizante. É apresentada uma metodologia para segmentação do pulmão, produzindo um conjunto de pontos coordenados. Isto é feito através do processamento temporal da sequência de imagens de RM. Este processamento consiste nas seguintes etapas: geração de imagens temporais (2DSTI), transformada de Hough modificada, algoritmo de contornos ativos e geração de silhueta. A partir de um dado ponto, denominado centro de rotação, são geradas diversas imagens temporais com orientações variadas. É proposta uma formulação modificada da transformada de Hough para determinar curvas parametrizadas que sejam síncronas ao movimento diafragmático, chamados movimentos respiratórios. Também são utilizadas máscaras para delimitar o domínio de aplicação da transformada de Hough. São obtidos movimentos respiratórios que são suavizados pelo algoritmo de contornos ativos e, assim, permitem a geração de contornos para cada quadro pertencente a sequência e, portanto, de uma silhueta do pulmão para cada sequência.<br>Lung movement visualization is of great interest in medicine. Direct observation of the lung movement is not practicable, as it collapses if the thoracic cage is opened. Among indirect observation means, we choose magnetic resonance imaging, acquired on free breathing, without the use of any triggering information and any special gas to enhance the contrast. This choice leads us to overcome the high variation on MR images\' quality, which is, generally, low, and, also, artifact susceptibility, among other limitations. Computed Tomography images have better quality and a shorter acquisition time, but they expose the subject to considerably high levels of radiation. A Lung segmentation methodology is presented and it produces a connected set of points. That is achieved through MRI sequences temporal processing and it consists of the following stages: masks generation, 2-dimensional space-time images (2DSTI), modified Hough transform, an active contours algorithm and silhouette generation. Using a given point, which will be called parameter point, various temporal images with varied orientation will be generated. A modified Hough transform is applied to extract parameterized curves, that are synchronous to diaphragmatic movement, which will be called respiratory movements. Also, masks will be used in order to delimit the modified Hough transform application domain. An active contours algorithm will smoothen the obtained respiratory movements, so they will allow the generation of a contour for each frame on the image sequence and, therefore, a lung silhouette for a given sequence.
APA, Harvard, Vancouver, ISO, and other styles
30

Hillman, Peter. "Segmentation of motion picture images and image sequences." Thesis, University of Edinburgh, 2002. http://hdl.handle.net/1842/15026.

Full text
Abstract:
For Motion Picture Special Effects, it is often necessary to take a source image of an actor, segment the actor from the unwanted background, and then composite over a new background. The resultant image appears as if the actor was filmed in front of the new background. The standard approach requires the unwanted background to be a blue or green screen. While this technique is capable of handling areas where the foreground (the actor) blends into the background, the physical requirements present many practical problems. This thesis investigates the possibility of segmenting images where the unwanted background is more varied. Standard segmentation techniques tend not to be effective, since motion picture images have extremely high resolution and high accuracy is required to make the result appear convincing. A set of novel algorithms which require minimal human interaction to initialise the processing is presented. These algorithms classify each pixel by comparing its colour to that of known background and foreground areas. They are shown to be effective where there is a sufficient distinction between the colours of the foreground and background. A technique for assessing the quality of an image segmentation in order to compare these algorithms to alternative solutions is presented. Results are included which suggest that in most cases the novel algorithms have the best performance, and that they produce results more quickly than the alternative approaches. Techniques for segmentation of moving images sequences are then presented. Results are included which show that only a few frames of the sequence need to be initialised by hand, as it is often possible to generate automatically the input required to initialise processing for the remaining frames. A novel algorithm which can produce acceptable results on image sequences where more conventional approaches fail or are too slow to be of use is presented.
APA, Harvard, Vancouver, ISO, and other styles
31

Condori, Marcos Ademir Tejada. "Extensão da transformada imagem-floresta diferencial para funções de conexidade com aumentos baseados na raiz e sua aplicação para geração de superpixels." Universidade de São Paulo, 2017. http://www.teses.usp.br/teses/disponiveis/45/45134/tde-31072018-161103/.

Full text
Abstract:
A segmentação de imagens é um problema muito importante em visão computacional, no qual uma imagem é dividida em regiões relevantes, tal como para isolar objetos de interesse de uma dada aplicação. Métodos de segmentação baseados na transformada imagem-floresta (IFT, Image Foresting Transform), com funções de conexidade monotonicamente incrementais (MI) têm alcançado um grande sucesso em vários contextos. Na segmentação interativa de imagens, na qual o usuário pode especificar o objeto desejado, novas sementes podem ser adicionadas e/ou removidas para corrigir a rotulação até conseguir a segmentação esperada. Este processo gera uma sequência de IFTs que podem ser calculadas de modo mais eficiente pela DIFT (Differential Image Foresting Transform). Recentemente, funções de conexidade não monotonicamente incrementais (NMI) têm sido usadas com sucesso no arcabouço da IFT no contexto de segmentação de imagens, permitindo incorporar informações de alto nível, tais como, restrições de forma, polaridade de borda e restrição de conexidade, a fim de customizar a segmentação para um dado objeto desejado. Funções não monotonicamente incrementais foram também exploradas com sucesso na geração de superpixels, via sequências de execuções da IFT. Neste trabalho, apresentamos um estudo sobre a Transformada Imagem-Floresta Diferencial no caso de funções NMI. Nossos estudos indicam que o algoritmo da DIFT original apresenta uma série de inconsistências para funções não monotonicamente incrementais. Este trabalho estende a DIFT, visando incorporar um subconjunto das funções NMI em grafos dirigidos e mostrar sua aplicação no contexto da geração de superpixels. Outra aplicação que é apresentada para difundir a relevância das funções NMI é o algoritmo Bandeirantes para perseguição de bordas e rastreamento de curvas.<br>Image segmentation is a problem of great relevance in computer vision, in which an image is divided into relevant regions, such as to isolate an object of interest for a given application. Segmentation methods with monotonically incremental connectivity functions (MI) based on the Image Foresting Transform (IFT) have achieved great success in several contexts. In interactive segmentation of images, in which the user is allowed to specify the desired object, new seeds can be added and/or removed to correct the labeling until achieving the expected segmentation. This process generates a sequence of IFTs that can be calculated more efficiently by the Differential Image Foresting Trans- form (DIFT). Recently, non-monotonically incremental connectivity functions (NMI) have been used successfully in the IFT framework in the context of image segmentation, allowing the incorporation of shape, boundary polarity, and connectivity constraints, in order to customize the segmentation for a given target object. Non-monotonically incremental functions were also successfully exploited in the generation of superpixels, via sequences of IFT executions. In this work, we present a study of the Differential Image Foresting Transform in the case of NMI functions. Our research indicates that the original DIFT algorithm presents a series of inconsistencies for non-monotonically incremental functions. This work extends the DIFT algorithm to NMI functions in directed graphs, and shows its application in the context of the generation of superpixels. Another application that is presented to spread the relevance of NMI functions is the Bandeirantes algorithm for curve tracing and boundary tracking.
APA, Harvard, Vancouver, ISO, and other styles
32

Murphy, Sean Daniel. "Medical image segmentation in volumetric CT and MR images." Thesis, University of Glasgow, 2012. http://theses.gla.ac.uk/3816/.

Full text
Abstract:
This portfolio thesis addresses several topics in the field of 3D medical image analysis. Automated methods are used to identify structures and points of interest within the body to aid the radiologist. The automated algorithms presented here incorporate many classical machine learning and imaging techniques, such as image registration, image filtering, supervised classification, unsupervised clustering, morphology and probabilistic modelling. All algorithms are validated against manually collected ground truth. Chapter two presents a novel algorithm for automatically detecting named anatomical landmarks within a CT scan, using a linear registration based atlas framework. The novel scans may contain a wide variety of anatomical regions from throughout the body. Registration is typically posed as a numerical optimisation problem. For this problem the associated search space is shown to be non-convex and so standard registration approaches fail. Specialised numerical optimisation schemes are developed to solve this problem with an emphasis placed on simplicity. A semi-automated algorithm for finding the centrelines of coronary arterial trees in CT angiography scans given a seed point is presented in chapter three. This is a modified classical region growing algorithm whereby the topology and geometry of the tree are discovered as the region grows. The challenges presented by the presence of large organs and other extraneous material in the vicinity of the coronary trees is mitigated by the use of an efficient modified 3D top-hat transform. Chapter four compares the accuracy of three unsupervised clustering algorithms when applied to automated tissue classification within the brain on 3D multi-spectral MR images. Chapter five presents a generalised supervised probabilistic framework for the segmentation of structures/tissues in medical images called a spatially varying classifier (SVC). This algorithm leverages off non-rigid registration techniques and is shown to be a generalisation of atlas based techniques and supervised intensity based classification. This is achieved by constructing a multivariate Gaussian classifier for each voxel in a reference scan. The SVC is applied in the context of tissue classification in multi-spectral MR images in chapter six, by simultaneously extracting the brain and classifying the tissues types within it. A specially designed pre-processing pipeline is presented which involves inter-sequence registration, spatial normalisation and intensity normalisation. The SVC is then applied to the problem of multi-compartment heart segmentation in CT angiography data with minimal modification. The accuracy of this method is shown to be comparable to other state of the art methods in the field.
APA, Harvard, Vancouver, ISO, and other styles
33

Athó, Fredy Edgar Carranza. "Segmentação da estrutura cerebral hipocampo por meio de nuvem de similaridade." Universidade de São Paulo, 2011. http://www.teses.usp.br/teses/disponiveis/55/55134/tde-13092011-154947/.

Full text
Abstract:
O hipocampo é uma estrutura cerebral que possui importância primordial para o sistema de memória humana. Alterações no seus tecidos levam a doenças neurodegenerativas, tais como: epilepsia, esclerose múltipla e demência, entre outras. Para medir a atrofia do hipocampo é necessário isolá-lo do restante do cérebro. A separação do hipocampo das demais partes do cérebro ajuda aos especialistas na análise e o entendimento da redução de seu volume e detecção de qualquer anomalia presente. A extração do hipocampo é principalmente realizada de modo manual, a qual é demorada, pois depende da interação do usuário. A segmentação automática do hipocampo é investigada como uma alternativa para contornar tais limitações. Esta dissertação de mestrado apresenta um novo método de segmentação automático, denominado Modelo de Nuvem de Similaridade (Similarity Cloud Model - SimCM). O processo de segmentação é dividido em duas etapas principais: i) localização por similaridade e ii) ajuste de nuvem. A primeira operação utiliza a nuvem para localizar a posição mais provável do hipocampo no volume destino. A segunda etapa utiliza a nuvem para corrigir o delineamento final baseada em um novo método de cálculo de readequação dos pesos das arestas. Nosso método foi testado em um conjunto de 235 MRI combinando imagens de controle e de pacientes com epilepsia. Os resultados alcançados indicam um rendimento superior tanto em efetividade (qualidade da segmentação) e eficiência (tempo de processamento), comparado com modelos baseados em grafos e com modelos Bayesianos. Como trabalho futuro, pretendemos utilizar seleção de características para melhorar a construção da nuvem e o delineamento dos tecidos<br>The hippocampus is a particular structure that plays a main role in human memory systems. Tissue modifications of the hippocampus lead to neurodegenerative diseases as epilepsy, multiple sclerosis, and dementia, among others. To measure hippocampus atrophy, it is crucial to get its isolated representation from the whole brain volume. Separating the hippocampus from the brain helps physicians in better analyzing and understanding its volume reduction, and detecting any abnormal behavior. The extraction of the hippocampus is dominated by manual segmentation, which is time consuming mainly because it depends on user interaction. Therefore, automatic segmentation of the hippocampus has being investigated as an alternative solution to overcome such limitations. This master dissertation presents a new automatic segmentation method called Similarity Cloud Model (SimCM) based on hippocampus feature extraction. The segmentation process consists of two main operations: i) localization by similarity, and ii) cloud adjustment. The first operation uses the cloud to localize the most probable position of the hippocampus in a target volume. The second process invokes the cloud to correct the final labeling, based on a new method for arc-weight re-adjustment. Our method has been tested in a dataset of 235 MRIs combining healthy and epileptic patients. Results indicate superior performance, in terms of effectiveness (segmentation quality) and efficiency (processing time), in comparison with similar graph-based and Bayesian-based models. As future work, we intend to use feature selection to improve cloud construction and tissue delineation
APA, Harvard, Vancouver, ISO, and other styles
34

Fonseca, Afonso Ueslei da. "Desenvolvimento de técnicas de pré-processamento de radiografias digitais de tórax infantil : uma abordagem orientada a segmentação para sistemas de diagnóstico assistido por computador." Universidade Federal de Goiás, 2017. http://repositorio.bc.ufg.br/tede/handle/tede/7079.

Full text
Abstract:
Submitted by JÚLIO HEBER SILVA (julioheber@yahoo.com.br) on 2017-04-05T17:19:40Z No. of bitstreams: 2 Dissertação - Afonso Ueslei da Fonseca - 2017.pdf: 9310150 bytes, checksum: 0fc9668df93eccbc288295e41256b328 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)<br>Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-04-06T11:07:11Z (GMT) No. of bitstreams: 2 Dissertação - Afonso Ueslei da Fonseca - 2017.pdf: 9310150 bytes, checksum: 0fc9668df93eccbc288295e41256b328 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)<br>Made available in DSpace on 2017-04-06T11:07:11Z (GMT). No. of bitstreams: 2 Dissertação - Afonso Ueslei da Fonseca - 2017.pdf: 9310150 bytes, checksum: 0fc9668df93eccbc288295e41256b328 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-03-27<br>According to the World Health Organization (WHO), more than 900,000 children, younger than five years old, have died in 2015 due to pneumonia. Many of these deaths could be avoided with earlier and more accurate diagnosis to provide proper medicine administration. Chest radiography is one of the most recommended test by the WHO in order to detect childhood pneumonia, and it is commonly used in computer aided diagnostic (CAD) systems. A science role is to develop systems that require a more precise medical diagnosis and treatment cost reducing, but mainly death rate decreasing. It is highlighted that quality radiography demands equipments very well installed and calibrated and staff trained to handle them. However, due limited budget resources, mainly in most vulnerable areas, the image quality is significantly damaged, so turning the medical diagnosis harder. Therefore, this work presents a method composed of a set of preprocessing techniques for pediatric radiography. These techniques intend to have simple implementation and low computational cost. The main goal of this work is to increase performance, accuracy and robustness of CAD systems, to improve database standardization and also to collaborate with the professionals training. Thus, techniques were developed, such as, visual quality enhancement, removal of unnecessary or confidential information, reconstruction of degraded areas due to the information removal, orientation correction and definition of a region of interest. All techniques were evaluated using a children chest X-ray database divided into three classes and results show significantly improve when compared to methods presented in literature. We expect these contributions will assist to development and improvement of new systems, construction of more standardized databases, staff training and the development of new techniques.<br>Segundo a Organização Mundial de Saúde (OMS) mais de 900 mil crianças, menores de cinco anos, foram a óbito em 2015, devido a pneumonia. Muitas dessas mortes poderiam ser evitadas com um diagnóstico mais preciso, precoce e com correta administração de medicamentos. A radiografia de tórax é um dos exames preconizados para detecção de pneumonia pela OMS, sendo comumente usada em sistemas de diagnóstico assistido por computador (CAD). Desenvolver sistemas que apoiem diagnóstico médico mais preciso, reduzam custos de tratamento e principalmente diminuam o número de óbitos é um papel da ciência. Destaca-se que radiografias de qualidade requerem equipamentos devidamente instalados/calibrados e pessoal capacitado para opera-los. Todavia, dado os recursos financeiros limitados, principalmente em áreas mais vulneráveis, a qualidade das imagens fica significativamente comprometida, dificultando o trabalho de diagnóstico pelo médico. Assim, este trabalho traz um método composto por técnicas de pré-processamento de radiografias de tórax pediátricas. As técnicas foram idealizadas para serem de simples implementação e baixo custo computacional. Os principais objetivos do trabalho são promover ganho de performance, acurácia e robustez aos sistemas CAD, favorecer a construção de bases de imagens padronizadas e além disso colaborar com o treinamento de profissionais de saúde. Para atingir esses objetivos foram desenvolvidas técnicas de melhoria da qualidade visual, remoção de informações desnecessárias ou confidenciais e reconstrução das áreas degradadas decorrente da remoção dessas informações, correção de orientação e definição de regiões de interesse. Esse método foi avaliado utilizando uma base de radiografias de tórax infantil divida em três classes e resultados mostram ganhos significativos em comparação a métodos presentes na literatura. Espera-se que essas contribuições favoreçam o aperfeiçoamento de sistemas, construção de bases mais padronizadas, treinamento de profissionais e surgimento de novas técnicas.
APA, Harvard, Vancouver, ISO, and other styles
35

Li, Xiaobing. "Automatic image segmentation based on level set approach: application to brain tumor segmentation in MR images." Reims, 2009. http://theses.univ-reims.fr/exl-doc/GED00001120.pdf.

Full text
Abstract:
L'objectif de la thèse est de développer une segmentation automatique des tumeurs cérébrales à partir de volumes IRM basée sur la technique des « level sets ». Le fonctionnement «automatique» de ce système utilise le fait que le cerveau normal est symétrique et donc la localisation des régions dissymétriques permet d'estimer le contour initial de la tumeur. La première étape concerne le prétraitement qui consiste à corriger l'inhomogénéité de l'intensité du volume IRM et à recaler spatialement les volumes d'IRM d'un même patient à différents instants. Le plan hémisphérique du cerveau est recherché en maximisant le degré de similarité entre la moitié du volume et de sa réflexion. Le contour initial de la tumeur est ainsi extrait à partir de la dissymétrie entre les deux hémisphères. Ce contour initial est évolué et affiné par une technique de « level set » afin de trouver le contour réel de la tumeur. Les critères d'arrêt de l'évolution ont été proposés en fonction des propriétés de la tumeur. Finalement, le contour de la tumeur est projetée sur les images adjacentes pour former les nouveaux contours initiaux. Ce traitement est itéré sur toutes les coupes pour obtenir la segmentation de la tumeur en 3D. Le système ainsi réalisé est utilisé pour suivre un patient pendant toute la période thérapeutique, avec des examens tous les quatre mois, ce qui permet au médecin de contrôler l'état de développement de la tumeur et ainsi d'évaluer l'efficacité du traitement thérapeutique. La méthode a été évaluée quantitativement par la comparaison avec des tracés manuels des experts. De bons résultats sont obtenus sur des images réelles IRM<br>The aim of this dissertation is to develop an automatic segmentation of brain tumors from MRI volume based on the technique of "level sets". The term "automatic" uses the fact that the normal brain is symmetrical and the localization of asymmetrical regions permits to estimate the initial contour of the tumor. The first step is preprocessing, which is to correct the intensity inhomogeneity of volume MRI and spatially realign the MRI volumes of the same patient at different moments. The plan hemispherical brain is then calculated by maximizing the degree of similarity between the half of the volume and his reflexion. The initial contour of the tumor can be extracted from the asymmetry between the two hemispheres. This initial contour is evolved and refined by the technique "level set" in order to find the real contour of the tumor. The criteria for stopping the evolution have been proposed and based on the properties of the tumor. Finally, the contour of the tumor is projected onto the adjacent images to form the new initial contours. This process is iterated on all slices to obtain the segmentation of the tumor in 3D. The proposed system is used to follow up patients throughout the medical treatment period, with examinations every four months, allowing the physician to monitor the state of development of the tumor and evaluate the effectiveness of the therapy. The method was quantitatively evaluated by comparison with manual tracings experts. Good results are obtained on real MRI images
APA, Harvard, Vancouver, ISO, and other styles
36

Kim, Kyu-Heon. "Segmentation of natural texture images using a robust stochastic image model." Thesis, University of Newcastle Upon Tyne, 1996. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.307927.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Badiei, Sara. "Prostate segmentation in ultrasound images using image warping and ellipsoid fitting." Thesis, University of British Columbia, 2007. http://hdl.handle.net/2429/31737.

Full text
Abstract:
This thesis outlines an algorithm for 2D and 3D semi-automatic segmentation of the prostate from B-mode trans-rectal ultrasound (TRUS) images. In semi-automatic segmentation, a computer algorithm outlines the boundary of the prostate given a few initialization points. The algorithm is designed for prostate brachytherapy and has the potential to: i) replace pre-operative manual segmentation, ii) enable intra-operative segmentation, and iii) be integrated into a visualization tool for training residents. The segmentation algorithm makes use of image warping to make the 2D prostate boundary elliptical. A Star Kalman based edge detector is then guided along the elliptical shape to find the prostate boundary in the TRUS image. A second ellipse is then fit to the edge detected measurement points. Once all 2D slices are segmented in this manner an ellipsoid is fit to the 3D cloud of points. Finally a reverse warping algorithm gives us the segmented prostate volume. In-depth 2D and 3D clinical studies show promising results. In 2D, distance based metrics show a mean absolute difference of 0.67 ± 0.18mm between manual and semi-automatic segmentation and area based metrics show average sensitivity and accuracy over 97% and 93% respectively. In 3D, i) the difference between manual and semi-automatic segmentation is on the order of interobserver variability, ii) the repeatability of the segmentation algorithm is consistently better than the intra-observer variability, and iii) the sensitivity and accuracy are 97% and 85% respectively. The 3D algorithm requires only 5 initialization points and can segment a prostate volume in less than 10 seconds (approximately 40 times faster than manual segmentation). The novelties of this algorithm, in comparison to other works, are in the warping and ellipse/ ellipsoid fitting steps. These two combine to provide a simple solution that works well even with non-ideal images to produce accurate, real-time results.<br>Applied Science, Faculty of<br>Electrical and Computer Engineering, Department of<br>Graduate
APA, Harvard, Vancouver, ISO, and other styles
38

Casaca, Wallace Correa de Oliveira. "Graph Laplacian for spectral clustering and seeded image segmentation." Universidade de São Paulo, 2014. http://www.teses.usp.br/teses/disponiveis/55/55134/tde-24062015-112215/.

Full text
Abstract:
Image segmentation is an essential tool to enhance the ability of computer systems to efficiently perform elementary cognitive tasks such as detection, recognition and tracking. In this thesis we concentrate on the investigation of two fundamental topics in the context of image segmentation: spectral clustering and seeded image segmentation. We introduce two new algorithms for those topics that, in summary, rely on Laplacian-based operators, spectral graph theory, and minimization of energy functionals. The effectiveness of both segmentation algorithms is verified by visually evaluating the resulting partitions against state-of-the-art methods as well as through a variety of quantitative measures typically employed as benchmark by the image segmentation community. Our spectral-based segmentation algorithm combines image decomposition, similarity metrics, and spectral graph theory into a concise and powerful framework. An image decomposition is performed to split the input image into texture and cartoon components. Then, an affinity graph is generated and weights are assigned to the edges of the graph according to a gradient-based inner-product function. From the eigenstructure of the affinity graph, the image is partitioned through the spectral cut of the underlying graph. Moreover, the image partitioning can be improved by changing the graph weights by sketching interactively. Visual and numerical evaluation were conducted against representative spectral-based segmentation techniques using boundary and partition quality measures in the well-known BSDS dataset. Unlike most existing seed-based methods that rely on complex mathematical formulations that typically do not guarantee unique solution for the segmentation problem while still being prone to be trapped in local minima, our segmentation approach is mathematically simple to formulate, easy-to-implement, and it guarantees to produce a unique solution. Moreover, the formulation holds an anisotropic behavior, that is, pixels sharing similar attributes are preserved closer to each other while big discontinuities are naturally imposed on the boundary between image regions, thus ensuring better fitting on object boundaries. We show that the proposed approach significantly outperforms competing techniques both quantitatively as well as qualitatively, using the classical GrabCut dataset from Microsoft as a benchmark. While most of this research concentrates on the particular problem of segmenting an image, we also develop two new techniques to address the problem of image inpainting and photo colorization. Both methods couple the developed segmentation tools with other computer vision approaches in order to operate properly.<br>Segmentar uma image é visto nos dias de hoje como uma prerrogativa para melhorar a capacidade de sistemas de computador para realizar tarefas complexas de natureza cognitiva tais como detecção de objetos, reconhecimento de padrões e monitoramento de alvos. Esta pesquisa de doutorado visa estudar dois temas de fundamental importância no contexto de segmentação de imagens: clusterização espectral e segmentação interativa de imagens. Foram propostos dois novos algoritmos de segmentação dentro das linhas supracitadas, os quais se baseiam em operadores do Laplaciano, teoria espectral de grafos e na minimização de funcionais de energia. A eficácia de ambos os algoritmos pode ser constatada através de avaliações visuais das segmentações originadas, como também através de medidas quantitativas computadas com base nos resultados obtidos por técnicas do estado-da-arte em segmentação de imagens. Nosso primeiro algoritmo de segmentação, o qual ´e baseado na teoria espectral de grafos, combina técnicas de decomposição de imagens e medidas de similaridade em grafos em uma única e robusta ferramenta computacional. Primeiramente, um método de decomposição de imagens é aplicado para dividir a imagem alvo em duas componentes: textura e cartoon. Em seguida, um grafo de afinidade é gerado e pesos são atribuídos às suas arestas de acordo com uma função escalar proveniente de um operador de produto interno. Com base no grafo de afinidade, a imagem é então subdividida por meio do processo de corte espectral. Além disso, o resultado da segmentação pode ser refinado de forma interativa, mudando-se, desta forma, os pesos do grafo base. Experimentos visuais e numéricos foram conduzidos tomando-se por base métodos representativos do estado-da-arte e a clássica base de dados BSDS a fim de averiguar a eficiência da metodologia proposta. Ao contrário de grande parte dos métodos existentes de segmentação interativa, os quais são modelados por formulações matemáticas complexas que normalmente não garantem solução única para o problema de segmentação, nossa segunda metodologia aqui proposta é matematicamente simples de ser interpretada, fácil de implementar e ainda garante unicidade de solução. Além disso, o método proposto possui um comportamento anisotrópico, ou seja, pixels semelhantes são preservados mais próximos uns dos outros enquanto descontinuidades bruscas são impostas entre regiões da imagem onde as bordas são mais salientes. Como no caso anterior, foram realizadas diversas avaliações qualitativas e quantitativas envolvendo nossa técnica e métodos do estado-da-arte, tomando-se como referência a base de dados GrabCut da Microsoft. Enquanto a maior parte desta pesquisa de doutorado concentra-se no problema específico de segmentar imagens, como conteúdo complementar de pesquisa foram propostas duas novas técnicas para tratar o problema de retoque digital e colorização de imagens.
APA, Harvard, Vancouver, ISO, and other styles
39

Nunes, Bruno Miguel Bárbara. "Processamento e classificação de imagens biológicas: aplicação à histologia." Master's thesis, Universidade de Évora, 2011. http://hdl.handle.net/10174/20714.

Full text
Abstract:
A Histologia, o estudo de tecidos, é uma das áreas fundamentais da Biologia que permitiu enormes avanços científicos. Sendo uma tarefa exigente, meticulosa e demorada, será importante aproveitar a existência de ferramentas e algoritmos computacionais no seu auxílio, tornando o processo mais rápido e possibilitando a descoberta de informação que poderá não estar visível à partida. Esta dissertação tem como principal objectivo averiguar se um animal foi ou não sujeito à ingestão de um xenobiótico. Com esse objectivo em vista, utilizaram-se técnicas de processamento e segmentação de imagem aplicadas a imagens de tecido renal de ratos saudáveis e ratos que ingeriram o xenobiótico. Destas imagens extraíram-se inúmeras características do corpúsculo renal que após serem analisadas através de vários algoritmos de classificação mostraram ser possível saber se o animal ingeriu ou não o xenobiótico, com um reduzido grau de incerteza. ABSTRACT: Histology, the study of tissues, is one of the key areas of Biology that has allowed huge advances in Science. Being a demanding, meticulous and time consuming task, it is important to use the existence of computational tools and algorithms in its aid, making the process faster and enabling the discovery of information that may not be initially visible. The main goal of this thesis is to ascertain if an animal was subjected or not to the ingestion of a xenobiotic. With this in mind, were used image processing and segmentation techniques applied on images of kidney tissue from healthy rats and rats that ingested the xenobiotic. From these images were extracted several features of renal glomeruli that after being analyzed by various classification algorithms had shown to be possible to know, with an acceptable degree of certainty, if the animal ingested or not the xenobiotic.
APA, Harvard, Vancouver, ISO, and other styles
40

Alinder, Helena. "Semantic Image Segmentation on Clothing Imagery with Deep Neural Networks." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-280788.

Full text
Abstract:
Semantic Image Segmentation is a field within machine learning and computer vision, where the goal is to link each pixel in an image with a label. A successful segmentation will label all pixels that belong to an object with the correct label, and this prediction can be measured with a score known as mean Intersection over Union (mIoU). In a selling process of second-hand clothes, the clothes are placed on a mannequin and then photographed and post-processed. The post-processing algorithm attempts to remove the pole of the mannequin and crop out the mannequin itself to create a clear background. The algorithm uses traditional computer vision and requires specific lighting and position settings, and if these settings are faulty the algorithm performs bad. This thesis investigates how to conduct Semantic Image Segmentation with Deep Neural Networks for removing the pole and cropping out the mannequin, and if the networks perform better than the traditional algorithm on images with bad lighting. Two deep neural networks were investigated: DeepLabv3+ and GatedShape CNN. The models’ performances were measured by their mIoU score and evaluated on a regular clothing dataset and an augmented clothing dataset, consisting of images that the traditional algorithm had problems with segmenting. The conclusion of the thesis is that DeepLabv3+ performs better than Gated-Shape CNN on regular clothing imagery, reaching an overall mIoU of 91.81%, and the overall performances of the networks on regular clothing imagery are statistically significantly different. DeepLabv3+ also performs better than the traditional algorithm when segmenting augmented clothing imagery, images that the traditional algorithm had problems with segmenting, and the overall performances are statistically significantly different. There is no statistically significant difference between the overall performance of DeepLabv3+ and GSCNN and the overall performance of GSCNN and the traditional algorithm when segmenting augmented images.<br>Semantisk bildsegmentering är ett ämne inom maskininlärning och dataanalys där målet är att koppla ihop varje pixel i en bild med en klass. En lyckad segmentering ger varje pixel som tillhör ett objekt samma korrekta klass och den förutspådda segmenteringen kan mätas med ett mått som kallas mean Intersection over Union (mIoU). I en säljprocess för second-hand kläder ingår det att kläderna placeras på en docka och fotograferas och efterbehandlas. Algoritmen som sköter efterbehandlingen försöker ta bort stolpen som dockan är placerad på och klippa ut dockan för att skapa en klar bakgrund. Algoritmen använder sig av traditionell bildanalys och behöver speciella ljus- och placeringsinställningar, annars har algoritmen svårt att göra bra segmenteringar. Den här studien undersöker hur semantisk bildsegmentering kan göras med hjälp av djupa neurala nätverk för att ta bort stolpen och klippa ut dockan, och den undersöker även om de neurala nätverken får bättre resultat än den traditionella algoritmen på bilder med dåliga ljusinställningar. Två djupa neurala nätverk undersöktes: DeepLabv3+ och Gated-Shape CNN. Nätverkens prestation mättes med deras mIoU och de utvärderas på ett dataset bestående av vanliga bilder på kläder och ett bestående av augmenterade bilder på kläder bilder som den traditionella algoritmen segmenterar dåligt. Slutsatsen för studien är att DeepLabv3+ presterar bättre än Gated-Shape CNN på vanliga bilder på kläder och får en mIoU på 91.81% och det är en statistisk signifikant skillnad mellan deras resultat. DeepLabv3+ får även bättre resultat än den traditionella algoritmen när det kommer till att segmentera augmenterade bilder, bilder som den traditionella algoritmen hade problem med att segmentera, och det är en statistisk signifikant skillnad mellan deras resultat. Det finns ingen statistisk signifikant skillnad mellan DeepLav3+ och GSCNN resultat eller GSCNN och den traditionella algoritmens resultat när det gäller segmentering av augmenterade bilder.
APA, Harvard, Vancouver, ISO, and other styles
41

Horne, Caspar. "Unsupervised image segmentation /." Lausanne : EPFL, 1991. http://library.epfl.ch/theses/?nr=905.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Bhalerao, Abhir. "Multiresolution image segmentation." Thesis, University of Warwick, 1991. http://wrap.warwick.ac.uk/60866/.

Full text
Abstract:
Image segmentation is an important area in the general field of image processing and computer vision. It is a fundamental part of the 'low level' aspects of computer vision and has many practical applications such as in medical imaging, industrial automation and satellite imagery. Traditional methods for image segmentation have approached the problem either from localisation in class space using region information, or from localisation in position, using edge or boundary information. More recently, however, attempts have been made to combine both region and boundary information in order to overcome the inherent limitations of using either approach alone. In this thesis, a new approach to image segmentation is presented that integrates region and boundary information within a multiresolution framework. The role of uncertainty is described, which imposes a limit on the simultaneous localisation in both class and position space. It is shown how a multiresolution approach allows the trade-off between position and class resolution and ensures both robustness in noise and efficiency of computation. The segmentation is based on an image model derived from a general class of multiresolution signal models, which incorporates both region and boundary features. A four stage algorithm is described consisting of: generation of a low-pass pyramid, separate region and boundary estimation processes and an integration strategy. Both the region and boundary processes consist of scale-selection, creation of adjacency graphs, and iterative estimation within a general framework of maximum a posteriori (MAP) estimation and decision theory. Parameter estimation is performed in situ, and the decision processes are both flexible and spatially local, thus avoiding assumptions about global homogeneity or size and number of regions which characterise some of the earlier algorithms. A method for robust estimation of edge orientation and position is described which addresses the problem in the form of a multiresolution minimum mean square error (MMSE) estimation. The method effectively uses the spatial consistency of output of small kernel gradient operators from different scales to produce more reliable edge position and orientation and is effective at extracting boundary orientations from data with low signal-to-noise ratios. Segmentation results are presented for a number of synthetic and natural images which show the cooperative method to give accurate segmentations at low signal-to-noise ratios (0 dB) and to be more effective than previous methods at capturing complex region shapes.
APA, Harvard, Vancouver, ISO, and other styles
43

Draelos, Timothy John 1961. "INTERACTIVE IMAGE SEGMENTATION." Thesis, The University of Arizona, 1987. http://hdl.handle.net/10150/276392.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Craske, Simon. "Natural image segmentation." Thesis, University of Bristol, 1998. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.266990.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Salem, Mohammed Abdel-Megeed Mohammed. "Multiresolution image segmentation." Doctoral thesis, Humboldt-Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät II, 2008. http://dx.doi.org/10.18452/15846.

Full text
Abstract:
Systeme der Computer Vision spielen in der Automatisierung vieler Prozesse eine wichtige Rolle. Die wichtigste Aufgabe solcher Systeme ist die Automatisierung des visuellen Erkennungsprozesses und die Extraktion der relevanten Information aus Bildern oder Bildsequenzen. Eine wichtige Komponente dieser Systeme ist die Bildsegmentierung, denn sie bestimmt zu einem großen Teil die Qualitaet des Gesamtsystems. Fuer die Segmentierung von Bildern und Bildsequenzen werden neue Algorithmen vorgeschlagen. Das Konzept der Multiresolution wird als eigenstaendig dargestellt, es existiert unabhaengig von der Wavelet-Transformation. Die Wavelet-Transformation wird zur Verarbeitung von Bildern und Bildsequenzen zu einer 2D- bzw. 3D-Wavelet- Transformation erweitert. Fuer die Segmentierung von Bildern wird der Algorithmus Resolution Mosaic Expectation Maximization (RM-EM) vorgeschlagen. Das Ergebnis der Vorverarbeitung sind unterschiedlich aufgeloesten Teilbilder, das Aufloesungsmosaik. Durch dieses Mosaik lassen sich raeumliche Korrelationen zwischen den Pixeln ausnutzen. Die Verwendung unterschiedlicher Aufloesungen beschleunigt die Verarbeitung und verbessert die Ergebnisse. Fuer die Extraktion von bewegten Objekten aus Bildsequenzen werden neue Algorithmen vorgeschlagen, die auf der 3D-Wavelet-Transformation und auf der Analyse mit 3D-Wavelet-Packets beruhen. Die neuen Algorithmen haben den Vorteil, dass sie sowohl die raeumlichen als auch die zeitlichen Bewegungsinformationen beruecksichtigen. Wegen der geringen Berechnungskomplexitaet der Wavelet-Transformation ist fuer den ersten Segmentierungsschritt Hardware auf der Basis von FPGA entworfen worden. Aktuelle Anwendungen werden genutzt, um die Algorithmen zu evaluieren: die Segmentierung von Magnetresonanzbildern des menschlichen Gehirns und die Detektion von bewegten Objekten in Bildsequenzen von Verkehrsszenen. Die neuen Algorithmen sind robust und fuehren zu besseren Segmentierungsergebnissen.<br>More and more computer vision systems take part in the automation of various applications. The main task of such systems is to automate the process of visual recognition and to extract relevant information from the images or image sequences acquired or produced by such applications. One essential and critical component in almost every computer vision system is image segmentation. The quality of the segmentation determines to a great extent the quality of the final results of the vision system. New algorithms for image and video segmentation based on the multiresolution analysis and the wavelet transform are proposed. The concept of multiresolution is explained as existing independently of the wavelet transform. The wavelet transform is extended to two and three dimensions to allow image and video processing. For still image segmentation the Resolution Mosaic Expectation Maximization (RM-EM) algorithm is proposed. The resolution mosaic enables the algorithm to employ the spatial correlation between the pixels. The level of the local resolution depends on the information content of the individual parts of the image. The use of various resolutions speeds up the processing and improves the results. New algorithms based on the 3D wavelet transform and the 3D wavelet packet analysis are proposed for extracting moving objects from image sequences. The new algorithms have the advantage of considering the relevant spatial as well as temporal information of the movement. Because of the low computational complexity of the wavelet transform an FPGA hardware for the primary segmentation step was designed. Actual applications are used to investigate and evaluate all algorithms: the segmentation of magnetic resonance images of the human brain and the detection of moving objects in image sequences of traffic scenes. The new algorithms show robustness against noise and changing ambient conditions and gave better segmentation results.
APA, Harvard, Vancouver, ISO, and other styles
46

Muñoz, Pujol Xavier 1976. "Image segmentation integrating colour, texture and boundary information." Doctoral thesis, Universitat de Girona, 2003. http://hdl.handle.net/10803/7719.

Full text
Abstract:
La tesis se centra en la Visión por Computador y, más concretamente, en la segmentación de imágenes, la cual es una de las etapas básicas en el análisis de imágenes y consiste en la división de la imagen en un conjunto de regiones visualmente distintas y uniformes considerando su intensidad, color o textura.<br/>Se propone una estrategia basada en el uso complementario de la información de región y de frontera durante el proceso de segmentación, integración que permite paliar algunos de los problemas básicos de la segmentación tradicional. La información de frontera permite inicialmente identificar el número de regiones presentes en la imagen y colocar en el interior de cada una de ellas una semilla, con el objetivo de modelar estadísticamente las características de las regiones y definir de esta forma la información de región. Esta información, conjuntamente con la información de frontera, es utilizada en la definición de una función de energía que expresa las propiedades requeridas a la segmentación deseada: uniformidad en el interior de las regiones y contraste con las regiones vecinas en los límites. Un conjunto de regiones activas inician entonces su crecimiento, compitiendo por los píxeles de la imagen, con el objetivo de optimizar la función de energía o, en otras palabras, encontrar la segmentación que mejor se adecua a los requerimientos exprsados en dicha función. Finalmente, todo esta proceso ha sido considerado en una estructura piramidal, lo que nos permite refinar progresivamente el resultado de la segmentación y mejorar su coste computacional.<br/>La estrategia ha sido extendida al problema de segmentación de texturas, lo que implica algunas consideraciones básicas como el modelaje de las regiones a partir de un conjunto de características de textura y la extracción de la información de frontera cuando la textura es presente en la imagen.<br/>Finalmente, se ha llevado a cabo la extensión a la segmentación de imágenes teniendo en cuenta las propiedades de color y textura. En este sentido, el uso conjunto de técnicas no-paramétricas de estimación de la función de densidad para la descripción del color, y de características textuales basadas en la matriz de co-ocurrencia, ha sido propuesto para modelar adecuadamente y de forma completa las regiones de la imagen.<br/>La propuesta ha sido evaluada de forma objetiva y comparada con distintas técnicas de integración utilizando imágenes sintéticas. Además, se han incluido experimentos con imágenes reales con resultados muy positivos.<br>Image segmentation is an important research area in computer vision and many segmentation methods have been proposed. However, elemental segmentation techniques based on boundary or region approaches often fail to produce accurate segmentation results. Hence, in the last few years, there has been a tendency towards the integration of both techniques in order to improve the results by taking into account the complementary nature of such information. This thesis proposes a solution to the image segmentation integrating region and boundary information. Moreover, the method is extended to texture and colour texture segmentation.<br/>An exhaustive analysis of image segmentation techniques which integrate region and boundary information is carried out. Main strategies to perform the integration are identified and a classification of these approaches is proposed. Thus, the most relevant proposals are assorted and grouped in their corresponding approach. Moreover, characteristics of these strategies as well as the general lack of attention that is given to the texture is noted. The discussion of these aspects has been the origin of all the work evolved in this thesis, giving rise to two basic conclusions: first, the possibility of fusing several approaches to the integration of both information sources, and second, the necessity of a specific treatment for textured images.<br/>Next, an unsupervised segmentation strategy which integrates region and boundary information and incorporates three different approaches identified in the previous review is proposed. Specifically, the proposed image segmentation method combines the guidance of seed placement, the control of decision criterion and the boundary refinement approaches. The method is composed by two basic stages: initialisation and segmentation. Thus, in the first stage, the main contours of the image are used to identify the different regions present in the image and to adequately place a seed for each one in order to statistically model the region. Then, the segmentation stage is performed based on the active region model which allows us to take region and boundary information into account in order to segment the whole image. Specifically, regions start to shrink and expand guided by the optimisation of an energy function that ensures homogeneity properties inside regions and the presence of real edges at boundaries. Furthermore, with the aim of imitating the Human Vision System when a person is slowly approaching to a distant object, a pyramidal structure is considered. Hence, the method has been designed on a pyramidal representation which allows us to refine the region boundaries from a coarse to a fine resolution, and ensuring noise robustness as well as computation efficiency.<br/>The proposed segmentation strategy is then adapted to solve the problem of texture and colour texture segmentation. First, the proposed strategy is extended to texture segmentation which involves some considerations as the region modelling and the extraction of texture boundary information. Next, a method to integrate colour and textural properties is proposed, which is based on the use of texture descriptors and the estimation of colour behaviour by using non-parametric techniques of density estimation. Hence, the proposed strategy of segmentation is considered for the segmentation taking both colour and textural properties into account.<br/>Finally, the proposal of image segmentation strategy is objectively evaluated and then compared with some other relevant algorithms corresponding to the different strategies of region and boundary integration. Moreover, an evaluation of the segmentation results obtained on colour texture segmentation is performed. Furthermore, results on a wide set of real images are shown and discussed.
APA, Harvard, Vancouver, ISO, and other styles
47

Lin, Xiangbo. "Knowledge-based image segmentation using deformable registration: application to brain MRI images." Reims, 2009. http://theses.univ-reims.fr/exl-doc/GED00001121.pdf.

Full text
Abstract:
L'objectif de la thèse est de contribuer au recalage élastique d'images médicales intersujet-intramodalité, ainsi qu’à la segmentation d'images 3D IRM du cerveau dans le cas normal. L’algorithme des démons qui utilise les intensités des images pour le recalage est d’abord étudié. Une version améliorée est proposée en introduisant une nouvelle équation de calcul des forces pour résoudre des problèmes de recalages dans certaines régions difficiles. L'efficacité de la méthode est montrée sur plusieurs évaluations à partir de données simulées et réelles. Pour le recalage intersujet, une méthode originale de normalisation unifiant les informations spatiales et des intensités est proposée. Des contraintes topologiques sont introduites dans le modèle de déformation, visant à obtenir un recalage homéomorphique. La proposition est de corriger les points de déplacements ayant des déterminants jacobiens négatifs. Basée sur le recalage, une segmentation des structures internes est étudiée. Le principe est de construire une ontologie modélisant le connaissance a-priori de la forme des structures internes. Les formes sont représentées par une carte de distance unifiée calculée à partir de l'atlas de référence et celui déformé. Cette connaissance est injectée dans la mesure de similarité de la fonction de coût de l'algorithme. Un paramètre permet de balancer les contributions des mesures d'intensités et de formes. L'influence des différents paramètres de la méthode et des comparaisons avec d'autres méthodes de recalage ont été effectuées. De très bon résultats sont obtenus sur la segmentation des différentes structures internes du cerveau telles que les noyaux centraux et hippocampe<br>The research goal of this thesis is a contribution to the intra-modality inter-subject non-rigid medical image registration and the segmentation of 3D brain MRI images in normal case. The well-known Demons non-rigid algorithm is studied, where the image intensities are used as matching features. A new force computation equation is proposed to solve the mismatch problem in some regions. The efficiency is shown through numerous evaluations on simulated and real data. For intensity based inter-subject registration, normalizing the image intensities is important for satisfying the intensity correspondence requirements. A non-rigid registration method combining both intensity and spatial normalizations is proposed. Topology constraints are introduced in the deformable model to preserve an expected property in homeomorphic targets registration. The solution comes from the correction of displacement points with negative Jacobian determinants. Based on the registration, a segmentation method of the internal brain structures is studied. The basic principle is represented by ontology of prior shape knowledge of target internal structure. The shapes are represented by a unified distance map computed from the atlas and the deformed atlas, and then integrated into the similarity metric of the cost function. A balance parameter is used to adjust the contributions of the intensity and shape measures. The influence of different parameters of the method and comparisons with other registration methods were performed. Very good results are obtained on the segmentation of different internal structures of the brain such as central nuclei and hippocampus
APA, Harvard, Vancouver, ISO, and other styles
48

Lage, Danilo Meneses. "Visibilização de artérias coronárias epicárdicas em imagens ecocardiográficas tridimensionais com contraste de microbolhas." Universidade de São Paulo, 2010. http://www.teses.usp.br/teses/disponiveis/5/5131/tde-04112010-113505/.

Full text
Abstract:
Com os avanços tecnológicos das últimas décadas, a ecocardiografia surgiu como uma alternativa de diagnóstico por imagem de relativo baixo custo, que não faz uso de energia ionizante ou radioativa. Recentemente, o advento dos agentes de contraste por microbolhas e dos transdutores matriciais tornou possível a visualização tridimensional da anatomia das artérias coronárias. Neste projeto, é proposta a avaliação de métodos de segmentação capazes de visibilizar as artérias coronárias epicárdicas em Imagens de ecocardiografias tridimensionais com contraste de microbolhas. Esse é o primeiro passo para o desenvolvimento de ferramentas computacionais eficazes e eficientes na assistência não invasiva ao acompanhamento do quadro clínico de pacientes, do diagnóstico ao pós-operatório. Propõe-se, uma metodologia que facilite o acesso às coronárias a partir de imagens de ecocardiografia tridimensionais com aplicação de contraste por microbolhas. Dentre as metodologias estudadas, as técnicas baseadas na teoria Fuzzy Connectedness (FC) foram identificadas como as mais promissoras. Estudou-se, portanto, seis abordagens baseadas nessa teoria, três delas são descritas na literatura (Generalized FC GFC; Relative FC RFC; Dynamic Weighted FC DyWFC) e três proposições originais (Area of Search FC ASFC; Ultrasound-k FC USFC; Guided FC GuFC). Para avaliar a acurácia desses algoritmos, confeccionou-se um conjunto de imagens simuladas, composto por 360 imagens, e selecionou-se um conjunto de imagens de exames reais, composto de 10 imagens reais de pacientes com quadro de Cardiomiopatia Hipertrópica. Para as imagens simuladas, os métodos da literatura alcançaram acurácia de 85,5% para GFC, 89,5% para RFC e 92,0% para DyWFC. Enquanto isso, os métodos propostos alcançaram acurácia de 88,9% para ASFC, 91,7 % para USkFC e 95,2% para GuFC. Para as imagens reais, os métodos convergiram para uma segmentação satisfatória quanto à usabilidade na clínica médica. Esses resultados demonstraram, ainda, o melhor desempenho do método proposto GuFC ante os demais. Dessa forma, ele se torna um candidato para ingressar na etapa de segmentação de uma ferramenta computacional para visibilização das coronárias epicárdicas no futuro<br>With the technological advances of recent decades, echocardiography has emerged as a relatively low cost imaging diagnostic alternative, that does not use ionizing or radioactive energy. Lately, the advent of microbubble-based contrast agents and array transducers turned possible the visualization of three-dimensional coronary arteries anatomy. The present project proposes to evaluate segmentation methods able to deal with the visualization of the epicardial coronary arteries in microbubble-based three-dimensional echocardiography images. This is the first step towards the development of effective and efficient computational tools for diagnosis and prognosis assistance of cardiac pacient. We propose a methodology to facilitate the access to epicardial coronary arteries in tridimensional echocardiographic images. Among the studied approaches, Fuzzy Connectednessbased segmentation methods were identified as being the most promising. We studied six approaches based on this theory, three of them are described in the literature (Generalized FC GFC; Relative FC RFC; Dynamic Weighted FC DyWFC) and three original contributions (Area of Search FC ASFC; Ultrasound-k FC USFC; Guided FC GuFC). To evaluate the accuracy of these algorithms, a set composed of 360 simulated images were created. We also selected a set of 10 real images, composed of hypertrophic cardiomyopathy patients. For simulated images set, the methods of literature achieved accuracy of 85.5% for GFC, 89,5% for RFC and 92,0% for DyWFC, meanwhile, the proposed method achieved accuracy of 88.9% for ASFC, 91,7 % for USkFC and 95,2% for GuFC. Using the real images set, the methods converged to good results for clinical purposes. These results demonstrate that the proposed method GuFC has shown a better performance than the others, becoming a candidate to the segmentation step in a computational tool for coronary arteries visualization in the future
APA, Harvard, Vancouver, ISO, and other styles
49

Torres, Rafael Siqueira. "Segmentação semiautomática de conjuntos completos de imagens do ventrículo esquerdo." Universidade de São Paulo, 2017. http://www.teses.usp.br/teses/disponiveis/100/100131/tde-17112017-121645/.

Full text
Abstract:
A área médica tem se beneficiado das ferramentas construídas pela Computação e, ao mesmo tempo, tem impulsionado o desenvolvimento de novas técnicas em diversas especialidades da Computação. Dentre estas técnicas a segmentação tem como objetivo separar em uma imagem objetos de interesse, podendo chamar a atenção do profissional de saúde para áreas de relevância ao diagnóstico. Além disso, os resultados da segmentação podem ser utilizados para a reconstrução de modelos tridimensionais, que podem ter características extraídas que auxiliem o médico em tomadas de decisão. No entanto, a segmentação de imagens médicas ainda é um desafio, por ser extremamente dependente da aplicação e das estruturas de interesse presentes na imagem. Esta dissertação apresenta uma técnica de segmentação semiautomática do endocárdio do ventrículo esquerdo em conjuntos de imagens cardíacas de Ressonância Magnética Nuclear. A principal contribuição é a segmentação considerando todas as imagens provenientes de um exame, por meio da propagação dos resultados obtidos em imagens anteriormente processadas. Os resultados da segmentação são avaliados usando-se métricas objetivas como overlap, entre outras, comparando com imagens fornecidas por especialistas na área de Cardiologia<br>The medical field has been benefited from the tools built by Computing and has promote the development of new techniques in diverse Computer specialties. Among these techniques, the segmentation aims to divide an image into interest objects, leading the attention of the specialist to areas that are relevant in diagnosys. In addition, segmentation results can be used for the reconstruction of three-dimensional models, which may have extracted features that assist the physician in decision making. However, the segmentation of medical images is still a challenge because it is extremely dependent on the application and structures of interest present in the image. This dissertation presents a semiautomatic segmentation technique of the left ventricular endocardium in sets of cardiac images of Nuclear Magnetic Resonance. The main contribution is the segmentation considering all the images coming from an examination, through the propagation of the results obtained in previously processed images. Segmentation results are evaluated using objective metrics such as overlap, among others, compared to images provided by specialists in the Cardiology field
APA, Harvard, Vancouver, ISO, and other styles
50

Li, Zhongqiang. "Segmentation of textured images." Thesis, University of Central Lancashire, 1991. http://clok.uclan.ac.uk/20270/.

Full text
Abstract:
This study is dedicated to the problem of segmenting monochrome images into distinct homogeneous regions by texture properties. The principle of the approaches to texture segmentation adopted in this thesis is mapping a textured image into a grey level image so that conventional segmentation techniques by intensity can be applied. Three novel approaches to texture segmentation have been developed in this thesis. They are called the Local Feature Statistics Approach (LFS), the Local Spectral Mapping Approach (LSM) and the Multichannel Spatial Filtering Approach (MSF). In the LFS approach, a multiresolution scheme for extracting texture features is introduced. This scheme produces features which can describe texture characteristics at different resolution levels. The gradient vector at each resolution level is used as the local texture feature. Based on the population statistics of gradient magnitude and direction in a local observation window, two novel texture measures, named as the Linear Gradient Magnitude Enhancement Measure (LGME) and the Linear Gradient Direction Enhancement Measure (LGDE), are developed to enhance different texture characteristics. In the LSM approach, the new scheme for the extraction of local texture features is based on performing transformations on the power spectra of local regions. The power spectrum of a local region is divided into a number of rings or wedges, and local spectral vectors are formed by summing the energy in these rings or wedges as vector elements. Two new texture measures, named as the Linear Radial Feature Enhancement Measure (LRFE) and the Linear Angular Feature Enhancement Measure (LAFE), are developed to highlight different texture characteristics. The MSF approach is based on the Multichannel Spatial Filtering Model (MSFM) for the human visual cortex. It is assumed in this approach that a texture can be characterised by its principal spatial frequency components, and that these components can be captured by a number of narrowband spatial filters. A new class of filters, called the Gaussian-Smoothed Fan (GSF) filters, is developed to perform channel filtering operations. The passband characteristic of these GSF filters is flatter than that of the Gabor filters, thus their bandwidths are inherently better defined. Computational algorithms based on these three new approaches are implemented and applied to a set of textured images. Good segmentation results are obtained, with more than 92% of the pixel population of each of the test images (derived from Brodatzs texture album) being correctly classified by all the three approaches. By comparison, the newly-developed GSF filters used in the MSF approach have an important advantage over the Gabor filters in that they can produce better defined boundaries between texture regions.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!