To see the other types of publications on this topic, follow the link: TDMA Techniques.

Dissertations / Theses on the topic 'TDMA Techniques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 44 dissertations / theses for your research on the topic 'TDMA Techniques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Meyer, Nicholas Karl. "Water uptake of aerosols with a focus on seeded aerosols and instrumentation techniques." Thesis, Queensland University of Technology, 2008. https://eprints.qut.edu.au/26361/1/Nicholas_Meyer_Thesis.pdf.

Full text
Abstract:
This thesis focuses on the volatile and hygroscopic properties of mixed aerosol species. In particular, the influence organic species of varying solubility have upon seed aerosols. Aerosol studies were conducted at the Paul Scherrer Institut Laboratory for Atmospheric Chemistry (PSI-LAC, Villigen, Switzerland) and at the Queensland University of Technology International Laboratory for Air Quality and Health (QUT-ILAQH, Brisbane, Australia). The primary measurement tool employed in this program was the Volatilisation and Hygroscopicity Tandem Differential Mobility Analyser (VHTDMA - Johnson et al. 2004). This system was initially developed at QUT within the ILAQH and was completely re-developed as part of this project (see Section 1.4 for a description of this process). The new VHTDMA was deployed to the PSI-LAC where an analysis of the volatile and hygroscopic properties of ammonium sulphate seeds coated with organic species formed from the photo-oxidation of á-pinene was conducted. This investigation was driven by a desire to understand the influence of atmospherically prevalent organics upon water uptake by material with cloud forming capabilities. Of particular note from this campaign were observed influences of partially soluble organic coatings upon inorganic ammonium sulphate seeds above and below their deliquescence relative humidity (DRH). Above the DRH of the seed increasing the volume fraction of the organic component was shown to reduce the water uptake of the mixed particle. Below the DRH the organic was shown to activate the water uptake of the seed. This was the first time this effect had been observed for á-pinene derived SOA. In contrast with the simulated aerosols generated at the PSI-LAC a case study of the volatile and hygroscopic properties of diesel emissions was undertaken. During this stage of the project ternary nucleation was shown, for the first time, to be one of the processes involved in formation of diesel particulate matter. Furthermore, these particles were shown to be coated with a volatile hydrophobic material which prevented the water uptake of the highly hygroscopic material below. This result was a first and indicated that previous studies into the hygroscopicity of diesel emission had erroneously reported the particles to be hydrophobic. Both of these results contradict the previously upheld Zdanovksii-Stokes-Robinson (ZSR) additive rule for water uptake by mixed species. This is an important contribution as it adds to the weight of evidence that limits the validity of this rule.
APA, Harvard, Vancouver, ISO, and other styles
2

Meyer, Nicholas Karl. "Water uptake of aerosols with a focus on seeded aerosols and instrumentation techniques." Queensland University of Technology, 2008. http://eprints.qut.edu.au/26361/.

Full text
Abstract:
This thesis focuses on the volatile and hygroscopic properties of mixed aerosol species. In particular, the influence organic species of varying solubility have upon seed aerosols. Aerosol studies were conducted at the Paul Scherrer Institut Laboratory for Atmospheric Chemistry (PSI-LAC, Villigen, Switzerland) and at the Queensland University of Technology International Laboratory for Air Quality and Health (QUT-ILAQH, Brisbane, Australia). The primary measurement tool employed in this program was the Volatilisation and Hygroscopicity Tandem Differential Mobility Analyser (VHTDMA - Johnson et al. 2004). This system was initially developed at QUT within the ILAQH and was completely re-developed as part of this project (see Section 1.4 for a description of this process). The new VHTDMA was deployed to the PSI-LAC where an analysis of the volatile and hygroscopic properties of ammonium sulphate seeds coated with organic species formed from the photo-oxidation of á-pinene was conducted. This investigation was driven by a desire to understand the influence of atmospherically prevalent organics upon water uptake by material with cloud forming capabilities. Of particular note from this campaign were observed influences of partially soluble organic coatings upon inorganic ammonium sulphate seeds above and below their deliquescence relative humidity (DRH). Above the DRH of the seed increasing the volume fraction of the organic component was shown to reduce the water uptake of the mixed particle. Below the DRH the organic was shown to activate the water uptake of the seed. This was the first time this effect had been observed for á-pinene derived SOA. In contrast with the simulated aerosols generated at the PSI-LAC a case study of the volatile and hygroscopic properties of diesel emissions was undertaken. During this stage of the project ternary nucleation was shown, for the first time, to be one of the processes involved in formation of diesel particulate matter. Furthermore, these particles were shown to be coated with a volatile hydrophobic material which prevented the water uptake of the highly hygroscopic material below. This result was a first and indicated that previous studies into the hygroscopicity of diesel emission had erroneously reported the particles to be hydrophobic. Both of these results contradict the previously upheld Zdanovksii-Stokes-Robinson (ZSR) additive rule for water uptake by mixed species. This is an important contribution as it adds to the weight of evidence that limits the validity of this rule.
APA, Harvard, Vancouver, ISO, and other styles
3

Johnson, Graham Richard. "The Formation and Growth of Marine Aerosols and the Development of New Techniques for their In-situ Analysis." Thesis, Queensland University of Technology, 2005. https://eprints.qut.edu.au/16117/1/Graham_Johnson_Thesis.pdf.

Full text
Abstract:
Marine aerosols have attracted increasing attention over the past 15 years because of their potential significance for global climate modelling. The size distribution of these aerosols extends from super-micrometer sea salt mode particles down through 150 nm accumulation mode particles, 40 nm Aitken mode particles and nucleation mode particles which extend from 25 nm right down to clusters of a few molecules. The process by which the submicrometer modes form and grow and their composition have remained topics of debate throughout this time in large part because of the difficulties associated with determining their composition and relating it to proposed models of the formation process. The work compared the modality of marine aerosol influencing the South-east-Queensland region with that of other environmental aerosols in the region. The aerosol was found to be consistent with marine aerosols observed elsewhere with concentrations below 1000 cm-3 and frequently exhibiting the distinct bimodal structure associated with cloud processing, consisting of an Aitken mode at approximately 40 nm, an accumulation mode in the range 100-200 nm and a coarse mode attributed to sea salt between 600 and 1200 nm. This work included the development of two new techniques for aerosol research. The first technique measures aerosol density using a combination of aerosol size distribution and gravimetric mass concentration measurements. This technique was used to measure the density of a number of submicrometer aerosols including laboratory generated NaCl aerosol and ambient aerosol. The densities for the laboratory generated aerosols were found to be similar to those for the bulk materials used to produce them. The technique, extended to super-micrometer particle size range may find application in ambient aerosol research where it could be used to discriminate between periods when the aerosol is dominated by NaCl and periods when the density is more representative of crustal material or sulfates. The technique may also prove useful in laboratory or industrial settings for investigating particle density or in case where the composition is known, morphology and porosity. The second technique developed, integrates the existing physicochemical techniques of volatilisation and hygroscopic growth analysis to investigate particle composition in terms of both the volatilisation temperatures of the chemical constituents and their contribution to particle hygroscopic behaviour. The resulting volatilisation and humidification tandem differential mobility analyser or VH-TDMA, has proven to be a valuable research tool which is being used in ongoing research. Findings of investigations relating the composition of the submicrometer marine aerosol modes to candidate models for their formation are presented. Sea salt was not found in the numerically dominant particle type in coastal nucleation mode or marine Aitken and accumulation modes examined on the Southeast Queensland coast during periods where back trajectories indicated marine origin. The work suggests that all three submicrometer modes contain the same four volatile chemical species and an insoluble non-volatile residue. The volatility and hygroscopic behaviours of the particles are consistent with a composition consisting of a core composed of sulfuric acid, ammonium sulfate and an iodine oxide coated with a volatile organic compound. The volume fraction of the sulfuric acid like species in the particles shows a strong dependence on particle size.
APA, Harvard, Vancouver, ISO, and other styles
4

Johnson, Graham Richard. "The Formation and Growth of Marine Aerosols and the Development of New Techniques for their In-situ Analysis." Queensland University of Technology, 2005. http://eprints.qut.edu.au/16117/.

Full text
Abstract:
Marine aerosols have attracted increasing attention over the past 15 years because of their potential significance for global climate modelling. The size distribution of these aerosols extends from super-micrometer sea salt mode particles down through 150 nm accumulation mode particles, 40 nm Aitken mode particles and nucleation mode particles which extend from 25 nm right down to clusters of a few molecules. The process by which the submicrometer modes form and grow and their composition have remained topics of debate throughout this time in large part because of the difficulties associated with determining their composition and relating it to proposed models of the formation process. The work compared the modality of marine aerosol influencing the South-east-Queensland region with that of other environmental aerosols in the region. The aerosol was found to be consistent with marine aerosols observed elsewhere with concentrations below 1000 cm-3 and frequently exhibiting the distinct bimodal structure associated with cloud processing, consisting of an Aitken mode at approximately 40 nm, an accumulation mode in the range 100-200 nm and a coarse mode attributed to sea salt between 600 and 1200 nm. This work included the development of two new techniques for aerosol research. The first technique measures aerosol density using a combination of aerosol size distribution and gravimetric mass concentration measurements. This technique was used to measure the density of a number of submicrometer aerosols including laboratory generated NaCl aerosol and ambient aerosol. The densities for the laboratory generated aerosols were found to be similar to those for the bulk materials used to produce them. The technique, extended to super-micrometer particle size range may find application in ambient aerosol research where it could be used to discriminate between periods when the aerosol is dominated by NaCl and periods when the density is more representative of crustal material or sulfates. The technique may also prove useful in laboratory or industrial settings for investigating particle density or in case where the composition is known, morphology and porosity. The second technique developed, integrates the existing physicochemical techniques of volatilisation and hygroscopic growth analysis to investigate particle composition in terms of both the volatilisation temperatures of the chemical constituents and their contribution to particle hygroscopic behaviour. The resulting volatilisation and humidification tandem differential mobility analyser or VH-TDMA, has proven to be a valuable research tool which is being used in ongoing research. Findings of investigations relating the composition of the submicrometer marine aerosol modes to candidate models for their formation are presented. Sea salt was not found in the numerically dominant particle type in coastal nucleation mode or marine Aitken and accumulation modes examined on the Southeast Queensland coast during periods where back trajectories indicated marine origin. The work suggests that all three submicrometer modes contain the same four volatile chemical species and an insoluble non-volatile residue. The volatility and hygroscopic behaviours of the particles are consistent with a composition consisting of a core composed of sulfuric acid, ammonium sulfate and an iodine oxide coated with a volatile organic compound. The volume fraction of the sulfuric acid like species in the particles shows a strong dependence on particle size.
APA, Harvard, Vancouver, ISO, and other styles
5

Li, Binghao Surveying &amp Spatial Information Systems Faculty of Engineering UNSW. "Terrestial mobile user positioning using TDOA and fingerprinting techniques." Awarded by:University of New South Wales. School of Surveying and Spatial Information Systems, 2006. http://handle.unsw.edu.au/1959.4/25507.

Full text
Abstract:
Specialists are expecting the knowledge of location will trigger yet another revolution in mobile services. Location-base services (LBS) have attracted many researchers and enterprises and one of the key aspects of LBS is positioning technology. Considering a wider and more complex field - ubiquitous computing, location is the fundamental element. This work focuses on some aspects of the new techniques of terrestrial positioning systems. Wireless LAN is one of the most popular systems used for positioning for indoor environments and public places. We have investigated the trilateration and fingerprinting approaches and the results showed the advantages of fingerprinting. A novel method to generate the fingerprints database based on Universal Kriging (UK) was developed, which can not only significantly decrease the training time, but also increase the accuracy of estimates. In mobile phone positioning systems, most techniques suffer from the non-line-of-sight (NLOS) propagation. We investigated the specifics of NLOS error, and proposed a method to mitigate the errors. Furthermore, a new algorithm named WSMM (wireless signal map matching) was discussed. Simulations and experiments verified the idea, and the accuracy of positioning can be improved greatly. Since fingerprinting technique can utilize rather than suffer from the NLOS propagation, it was also applied in mobile phone positioning system. Experiments showed both the deterministic approach and probabilistic approach can provide better results comparing with other techniques in suburban area. To achieve a robust positioning system and provide more useful information of the user, multisensor combination and data fusion are necessary. As the first step of future research, a mulitsensor synchronization system was developed. This system can promisingly achieve synchronization with error less than 0.4 ms, which is suitable for most land applications. Hence the main findings of this thesis are: (1) a novel method of yielding fingerprint database for both wireless LAN (WLAN) and mobile phone systems when using the fingerprinting technique for positioning; (2) a database method to mitigate NLOS error for mobile phone positioning systems; (3) a low cost synchronization system for integration of multiple sensors.
APA, Harvard, Vancouver, ISO, and other styles
6

Aatique, Muhammad. "Evaluation of TDOA Techniques for Position Location in CDMA Systems." Thesis, Virginia Tech, 1997. http://hdl.handle.net/10919/9558.

Full text
Abstract:
The Federal Communications Commission (FCC) has adopted regulations requiring wireless communication service providers to provide position location (PL) information for a user requesting E-911 service. The Time Difference of Arrival (TDOA) technique is one of the most promising position location techniques for cellular-type wireless communication systems. The IS-95 Code Division Multiple Access (CDMA) system is a popular choice for the companies deploying new cellular and PCS systems in North America. Hence, the feasibility of TDOA techniques in CDMA systems is an important issue for position location in the wireless systems of the future. This thesis analyzes the performance of TDOA techniques in the CDMA systems. A comparison and assessment of different algorithms for finding the time difference estimates and for solving the hyperbolic equations generated by those estimates has been made. This research also considers a measure of accuracy for TDOA position location method which is shown to be more suitable for CDMA systems and more closely matches to the FCC requirements. Among the other contributions is a proposed method to perform cross-correlations to identify only the desired user's TDOA in a multiuser environment. This thesis also evaluates the feasibility and accuracy of TDOA techniques under varying system conditions that might be encountered in real situations. This includes varying conditions of Additive White Gaussian Noise (AWGN), Multiple Access Interference (MAI), power control and loading. The effect of the mobile position and of different arrangement of base stations on TDOA accuracy is also studied. Performance comparison in AWGN and Rayleigh fading channels is made. The feasibility of using increased power levels for the 911 user in combination with interference cancellation is also studied. The effect of using a single stage of parallel interference cancellation at neighboring cell sites has also been explored. Non-ideal situations such as imperfect power control in CDMA operation has also been investigated in the context of position location. This thesis also suggests amethod to correct TDOA estimation errors in CDMA. It is shown that this improvement can give greatly improved performance even under worst-case situations. Performance comparison of results with and without that modification has also been made under various conditions.<br>Master of Science
APA, Harvard, Vancouver, ISO, and other styles
7

Tas, Volkan. "Optimal Use of TDOA Geo-Location Techniques Within the Mountainous Terrain of Turkey." Thesis, Monterey, California. Naval Postgraduate School, 2012. http://hdl.handle.net/10945/17467.

Full text
Abstract:
Emitter location finding enables important functionality for both military and civilian applications. GPS is the most recognized and widely used positioning system, but it is a receiver location system that functions in a markedly different manner from emitter location. Many geo-location techniques predate and have been proposed as an alternative to GPS. Some of the more commonly used and exploited of these techniques are angle of arrival, time of arrival, frequency difference of arrival, and time difference of arrival (TDOA). This thesis is primarily focused on TDOA. These techniques are important for military applications. Location finding is a part of electronic warfare support, which is one of the main braches of electronic warfare. Because these techniques are platform independent, they can be used with any system or platform, such as UAVs, manned aircraft, ground locations, etc. In Turkey it is vitally important for the army conducting search and destroy operations against terrorists to locate emitters associated with these terrorists. The simulation developed in this thesis provides a better understanding of the accuracy of TDOA based geolocation systems. Combinations of receivers and techniques are explored to determine the optimal solutions. The factors of noise and distance have a linear effect on accuracy. The best combination of receivers is determined with consideration to using a combination of fixed and airborne platforms. The best distribution for highest accuracy is determined and discussed.
APA, Harvard, Vancouver, ISO, and other styles
8

Fiammengo, Martina. "Sleep mode scheduling technique for energy saving in TDM-PONs." Thesis, KTH, Skolan för informations- och kommunikationsteknik (ICT), 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-31062.

Full text
Abstract:
Nowadays energy efficiency of telecommunication networks is receiving more attention than in the past for natural reasons. The situation is critical especially for access networks that typically include many end-user devices that consume a lot of energy. This thesis proposes a novel sleep mode technique for TDM-PONs that turns off the ONUs  (placed at the customer premises) when certain traffic conditions are verified. The objective is to achieve an improved energy efficiency without impacting too much the Quality of Service perceived by end-users. The whole operation is managed at the OLT (placed at the provider central office) and the length of the sleep time periods is computed employing a statistical method. An approximated version has been implemented in hardware for proof of concept. The obtained results show that the proposed sleep mode technique has good performances for  some test cases while it should be avoided for others.
APA, Harvard, Vancouver, ISO, and other styles
9

Thevenin, Mathieu. "Conception et validation d'un processeur programmable de traitement du signal à faible consommation et à faible empreinte silicium : application à la vidéo HD sur téléphone mobile." Phd thesis, Université de Bourgogne, 2009. http://tel.archives-ouvertes.fr/tel-00504704.

Full text
Abstract:
Les capteurs CMOS sont de plus en plus présents dans les produits de grande consommation comme les téléphones portables. Les images issues de ces capteurs nécessitent divers traitements numériques avant d'être affichées. Aujourd'hui, seuls des composants dédiés sont utilisés pour maintenir un niveau de consom- mation électrique faible. Toutefois leur flexibilité est fortement limitée et elle ne permet pas l'intégration de nouveaux algorithmes de traitement d'image. Ce manuscrit présente la conception et la validation de l'archi- tecture de calcul eISP entièrement programmable et originale capable de supporter la vidéo HD 1080p qui sera intégrée dans les futures générations de téléphones portables.
APA, Harvard, Vancouver, ISO, and other styles
10

Ruggieri, Vito Giovanni. "Analyse morphologique des bioprothèses valvulaires aortiques dégénérées par segmentation d’images TDM." Rennes 1, 2012. https://ecm.univ-rennes1.fr/nuxeo/site/esupversions/2be5652f-691e-4682-a0a0-e8db55bb95d9.

Full text
Abstract:
Le but de cette étude est d’évaluer la faisabilité de l’analyse tomodensitométrique 3D des bioprothèses aortiques pour faciliter leur évaluation morphologique durant le suivi et d’aider à la sélection des cas et à l'amélioration de la planification d’une procédure valve-in-valve. Le principal défi concernait le rehaussement des feuillets valvulaires, en raison d’images très bruitées. Un scanner synchronisé était réalisé chez des patients porteurs d’une bioprotèse aortique dégénérée avant réintervention (images in-vivo). Différentes méthodes pour la réduction du bruit étaient proposées. La reconstruction tridimensionnelle des bioprothèses était réalisée en utilisant des méthodes de segmentation de régions par "sticks". Après ré-opération ces méthodes étaient appliquées aux images scanner des bioprothèses explantées (images ex-vivo) et utilisées comme référence. La réduction du bruit obtenue par le filtre stick modifié montrait de meilleurs résultats, en rapport signal/bruit, en comparaison aux filtres de diffusion anisotrope. Toutes les méthodes de segmentation ont permis une reconstruction 3D des feuillets. L’analyse qualitative a montré une bonne concordance entre les images obtenues in-vivo et les altérations des bioprothèses. Les résultats des différentes méthodes étaient comparés par critères volumétriques et discutés. Les images scanner des bioprothèses aortiques nécessitent un traitement de débruitage et de réduction des artéfacts de façon à permettre le rehaussement des feuillets prothétiques. La méthode de segmentation de régions par sticks semble représenter une approche pertinente pour caractériser morphologiquement la dégénérescence des bioprothèses<br>The aim of the study was to assess the feasibility of CT based 3D analysis of degenerated aortic bioprostheses to make easier their morphological assessment. This could be helpful during regular follow-up and for case selection, improved planning and mapping of valve-in-valve procedure. The challenge was represented by leaflets enhancement because of highly noised CT images. Contrast-enhanced ECG-gated CT scan was performed in patients with degenerated aortic bioprostheses before reoperation (in-vivo images). Different methods for noise reduction were tested and proposed. 3D reconstruction of bioprostheses components was achieved using stick based region segmentation methods. After reoperation, segmentation methods were applied to CT images of the explanted prostheses (ex-vivo images). Noise reduction obtained by improved stick filter showed best results in terms of signal to noise ratio comparing to anisotropic diffusion filters. All segmentation methods applied to in-vivo images allowed 3D bioprosthetic leaflets reconstruction. Explanted bioprostheses CT images were also processed and used as reference. Qualitative analysis revealed a good concordance between the in-vivo images and the bioprostheses alterations. Results from different methods were compared by means of volumetric criteria and discussed. ECG-gated CT images of aortic bioprostheses need a preprocessing to reduce noise and artifacts in order to enhance prosthetic leaflets. Stick region based segmentation seems to provide an interesting approach for the morphological characterization of degenerated bioprostheses
APA, Harvard, Vancouver, ISO, and other styles
11

Fall, Bouna. "Evaluation des performances d'un système de localisation de véhicules de transports guidés fondé sur l'association d'une technique radio ULB et d'une technique de retournement temporel." Thesis, Valenciennes, 2013. http://www.theses.fr/2013VALE0028/document.

Full text
Abstract:
En transports guidés, la localisation précise des trains s’avère vitale pour une exploitation nominale du système de transport. Dans un environnement de propagation tel que celui d’une emprise ferroviaire, un capteur de localisation efficace est complexe à concevoir et à valider lorsqu’il doit opérer en présence de nombreux obstacles fixes et mobiles constitués par l’infrastructure et les trains. Afin de concevoir un tel capteur, nous proposons dans ce travail de thèse l’emploi de techniques innovantes dites de diversité spectrale que l’on retrouve également sous la dénomination de radio Ultra Large Bande (ULB). Dans ce travail, cette dernière est également associée à la technique de Retournement Temporel (RT) afin de tirer partie de cet environnement de propagation complexe. L’objectif visé est d’obtenir une localisation fiable et robuste des véhicules ferroviaires par focalisation de signaux ULB en direction des antennes sol ou trains. Des études théoriques alliées à des simulations ont été effectuées portant sur les propriétés de focalisation d’énergie de la technique de retournement temporel en tenant compte de plusieurs paramètres liés aux configurations antennaires, aux canaux de propagation rencontrés et à l’électronique utilisée. L’apport du retournement temporel sur la précision du système de localisation Ultra Large Bande a été quantifié en comparant le système de localisation ULB conventionnel, sans retournement temporel puis, en associant le RT. Les résultats théoriques et de simulations de la solution proposée ont été validés par des expérimentations menées en chambre anéchoïque ainsi qu’en environnement indoor<br>In guided transport, the precise location of trains is vital for nominal operation of the transport system. In a propagation environment such as a railway line, an effective location sensor is complex to design and validate since it must operate in the presence of many fixed and mobile obstacles constituted by the infrastructure and the trains. In this thesis, to design such a sensor, we propose the use of so-called spectral diversity techniques also found under the name of Ultra Wideband radio (UWB). In this work, the latter is also associated with the Time Reversal (TR) technique to take advantage of the complex propagation environment. The objective is to obtain a reliable and robust location of rail vehicles by focusing UWB signals to antennas or ground trains. Theoretical studies combined with simulations were performed on the properties of energy focusing of TR technique taking into account several parameters related to antennal configurations, propagation channels and the railway environment. The contribution of TR on the accuracy of the positioning system was quantified by comparing the conventional UWB positioning system alone and then, combining it with TR. The theoretical results and simulations of the proposed solution have been validated by experiments carried out in an anechoic chamber and in indoor environment
APA, Harvard, Vancouver, ISO, and other styles
12

Wojak, Julien. "Analyse d'images multimodales TEP-TDM du thorax : Application à l'oncologie : segmentation de tumeurs, d'organes à risque et suivi longitudinal pour la radiothérapie." Paris, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00567100.

Full text
Abstract:
En oncologie du thorax, les modalités d'imagerie de tomodensitométrie (TDM) et d'imagerie d'émission de positons (TEP) sont souvent utilisées conjointement, pour le diagnostic ou pour l'élaboration de plans de traitement. En effet, le développement d'appareils d'acquisition combinant ces deux modalités permet leur utilisation conjointe possible en routine clinique sans une difficulté préalable de recalage. Le premier objectif est de proposer des méthodes de segmentation automatiques de tumeurs ou ganglions à l'aide des deux modalités. La modalité TDM étant anatomiquement plus précise les segmentation sont réalisées dans cette modalité en utilisant l'imagerie TEP comme guide pour la localisation de la tumeur. Les organes à risque, devant être protégés des irradiations, nécessitent aussi d'être contourés. Un autre objectif est de proposer des algorithmes permettant leur segmentation. Ils s'appuient sur une connaissance a priori forte des distributions d'intensités des différents organes dans les images TDM et de connaissances a priori de formes des organes à segmenter. Un dernier objectif est de proposer une méthodologie pour la segmentation de tumeurs dans le cadre du suivi longitudinal des patients dans des images préalablement recalées. L'ensemble des méthodes de segmentation a été testé sur différents jeux de données, et lorsque des segmentations manuelles expertes sont disponibles, des résultats quantitatifs sont présentés, montrant l'intérêt des approches proposées et la précision des résultats obtenus<br>In oncological thoracic imaging, computerized tomography (CT) and positron emission tomography (PET) are widely used jointly, for diagnosis or treatment planing. The development of combined scanners enables the acquisition of pairs of CT-PET volumes, allowing their joint exploitation in clinical routine, without the prerequisite for complex registration. One goal of this thesis work was to propose a segmentation method jointly exploiting PET and CT image information. The proposed methodology therefore focuses on a detailed segmentation of the CT images, using PET information to guide the tumor segmentation. The framework of variational segmentation methods is used to design our algorithms and the specific constraints based on PET information. In addition to target structures for radiotherapy (tumors, nodules), organs at risk which need to be preserved from radiations, must be segmented. An additional goal of this thesis is to provide segmentation methods for these organs. The methods rely on strong a priori knowledge on the non-parametric intensity distributions and on the shapes of the different organs. A final goal of the thesis is to propose a methodological framework for the segmentation of tumors in the context of longitudinal follow up of patients with registered images. The proposed segmentation methods were tested on multiple data sets. When manual tracing is available, quantitive comparisons of the segmentations are presented, demonstrating the performance and accuracy of the proposed segmentation framework
APA, Harvard, Vancouver, ISO, and other styles
13

Moussallem, Mazen. "Optimisation de la délimitation automatique des tumeurs pulmonaires à partir de l'imagerie TEP/TDM pour les planifications dosimétriques des traitements par radiothérapie." Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00864905.

Full text
Abstract:
L'un des aspects les plus critiques dans les planifications dosimétriques des traitements par radiothérapie est la délinéation des limites de la tumeur. Cette délinéation se fait généralement sur les images anatomiques de tomodensitométrie (TDM). Mais récemment, il est recommandé de faire cette délinéation pour les cancers broncho-pulmonaires non à petites cellules (CBNPC) sur les images fonctionnelles de Tomographie par Émission de Positon (TEP) pour prendre en compte les caractéristiques biologiques de la cible. Jusqu'à ce jour, aucune technique de segmentation ne s'est révélée satisfaisante pour les images TEP en application clinique. Une solution pour ce problème est proposée dans cette étude. Méthodes : Les optimisations de notre méthode ont consisté principalement à faire l'ajustement des seuils directement à partir des corps des patients au lieu de le faire à partir du fantôme. Résultats : Pour les lésions de grands axes supérieurs à 20 mm, notre technique de segmentation a montré une bonne estimation des mesures histologiques (la moyenne de différence de diamètre entre données mesurées et déterminées avec notre technique = +1,5 ± 8,4 %) et une estimation acceptable des mesures TDM. Pour les lésions de grands axes inférieurs ou égaux à 20 mm, cette méthode a montré un écart avec les mesures dérivées des données histologiques ou bien des données TDM. Conclusion : Cette nouvelle méthode d'ajustement montre une bonne précision pour la délimitation des lésions de grands axes compris entre 2 et 4,5 cm. Néanmoins, elle n'évalue pas correctement les lésions les plus petites, cela peut être dû à l'effet du volume partiel
APA, Harvard, Vancouver, ISO, and other styles
14

Batuman, Emrah. "Comparison And Evaluation Of Three Dimensional Passive Source Localization Techniques." Master's thesis, METU, 2010. http://etd.lib.metu.edu.tr/upload/3/12612040/index.pdf.

Full text
Abstract:
Passive source localization is the estimation of the positions of the sources or emitters given the sensor data. In this thesis, some of the well known methods for passive source localization are investigated and compared in a stationary emitter sensor framework. These algorithms are discussed in detail in two and three dimensions for both single and multiple target cases. Passive source localization methods can be divided into two groups as two-step algorithms and single-step algorithms. Angle-of-Arrival (AOA) based Maximum Likelihood (ML) and Least Squares (LS) source localization algorithms, Time- Difference-of-Arrival (TDOA) based ML and LS methods, AOA-TDOA based hybrid ML methods are presented as conventional two step techniques. Direct Position Determination (DPD) method is a well known technique within the single step approaches. In thesis, a number of variants of DPD technique with better computational complexity (the proposed methods do not need eigen-decomposition in the grid search) are presented. These are the Direct Localization (DL) with Multiple Signal Classification (MUSIC), DL with Deterministic ML (DML) and DL with Stochastic ML (SML) methods. The evaluation of these algorithms is done by considering the Cramer Rao Lower Bound (CRLB). Some of the CRLB expressions given in two dimensions in the literature are presented for threedimensions. Extensive simulations are done and the effects of different parameters on the performances of the methods are investigated. It is shown that the performance of the single step algorithms is good even at low SNR. DL with MUSIC algorithm performs as good as the DPD while it has significant savings in computational complexity. AOA, TDOA and hybrid algorithms are compared in different scenarios. It is shown that the improvement achieved by single-step techniques may be acceptable when the system cost and complexity are ignored. The localization algorithms are compared for the multiple target case as well. The effect of sensor deployments on the location performance is investigated.
APA, Harvard, Vancouver, ISO, and other styles
15

Pospíšil, Jan. "Lokalizace v rámci technologie LoRaWAN." Master's thesis, Vysoké učení technické v Brně. Fakulta elektrotechniky a komunikačních technologií, 2019. http://www.nusl.cz/ntk/nusl-400889.

Full text
Abstract:
The diploma thesis in theoretical part focuses on LPWAN in general, meaning the low power wireless device falling into IoT category with a focus on LoRaWAN. The second half of the theoretical part focuses on describing localization techniques and principles in general and selection of one suitable technique for implementation in LoRaWAN. The practical part focuses on the proper HW customizations to enable the localization in this network. There are also described all the steps needed to build the whole working LoRaWAN network. The TDoA localization algorithm is described, the functionality is verified by simulation and also by testing under real conditions. In the end, the results are explained, the shortcomings of the technology are described and finally a suggestion for improvement is provided.
APA, Harvard, Vancouver, ISO, and other styles
16

Anet, Neto Luiz. "Étude des potentialités des techniques de modulation multiporteuse pour les futurs réseaux d'accès optique WDM et TDM PON." Limoges, 2012. http://aurore.unilim.fr/theses/nxfile/default/cab79f38-79d8-4a40-b758-d014d6d0ee3e/blobholder:0/2012LIMO4021.pdf.

Full text
Abstract:
Despite its success in radio-frequency applications, OFDM has only recently started to draw the attention of the optical community owing principally to the outstanding advancements in electronics and the increasing demands in terms of bit-rates in the last miles of the network. OFDM appears as one possible solution to cost-effectively provide the long-awaited flexibility that lacks on today’s somewhat "rigid" passive optical networks (PON). It may also allow their evolution towards higher bit-rates, longer transmission distances and increased number of subscribers per PON tree. Here, we focus on the IMDD approach, which can manage to keep the simplicity and cost-effectiveness at the optical plane by transferring the "hard work" to the digital signal processing domain. We focus this work on two main axes. In the first one, we study the influence of the dispersive IMDD channel frequency response characterized by the interplay between fiber chromatic dispersion and the parasite phase modulation of the light source (chirp) and the ways of optimizing the system’s throughput by means of bit and power loading algorithms. Secondly, we evaluate the IMDD OFDM approach under different architectures. Those architectures characterize distinct solutions to share the network ressources between the subscribers, namely time, wavelength and frequency multiplexing<br>Malgré son succès dans le domaine des radio-fréquences, l’OFDM n’a que récemment commencé à attirer l’attention de la communauté optique grâce à une remarquable évolution de l’électronique et aux demandes de débit de plus en plus élévées dans les réseaux d’accès. OFDM apparaît comme un très fort candidat pour fournir la flexibilité tant attendue dans les réseaux d’accès optiques "rigides" d’aujourd’hui ayant aussi le potentiel de permettre une évolution vers des débits, portées et nombre d’abonnés plus élévés. Dans cette thèse, nous nous concentrons sur une approche de modulation en intensité et détection directe (IMDD) qui permet de conserver la simplicité sur le plan optique en transférant la complexité de la transmission au domaine du traitement numérique du signal. Ce travail se base sur deux axes principaux. Dans le premier, nous étudions l’influence de la réponse fréquentielle du canal, caracterisée par l’interaction entre la dispersion chromatique de la fibre optique et la modulation parasite en phase provenant de la source optique et les moyens d’optimiser le débit du système avec des algorithmes d’allocation de puissance et modulation. Deuxièmement, nous évaluons l’approche IMDD OFDM sous différentes architectures et techniques de partage des ressources du réseau entre les abonnées, à savoir les multiplexages en temps, longueur d’onde et fréquence
APA, Harvard, Vancouver, ISO, and other styles
17

Fetita, Catalin Iulian. "Analyse morphofonctionnelle des voies aériennes en TDM spiralée volumique." Paris 5, 2000. http://www.theses.fr/2000PA055021.

Full text
Abstract:
Enjeu majeur de l'imagerie pulmonaire numérique, l'analyse quantitative des voies aériennes en tomodensitométrie (TDM) spiralée volumique nécessite de disposer d'outils de segmentation, modélisation, description, représentation et visualisation 3D de l'arbre bronchique. Dans ce contexte d'aide au diagnostic fondée sur la vision par ordinateur, cette thèse développe deux méthodes originales et automatiques, l'une par approche hybride 2D/3D, l'autre par modélisation purement tridimensionnelle, aboutissant à la bronchographie TDM virtuelle, nouvelle fonctionnalité clinique de navigation 3D intelligente au sein du réseau bronchique. La méthode hybride 2D/3D consiste tout d'abord en une segmentation 2D des lumières bronchiques effectuée sur l'ensemble des coupes axiales. Fondée sur la morphologie mathématique, elle repose sur une extraction des contours bronchiques par ligne de partage des eaux filtrée conditionnellement à un marquage bronchique par cout de connexion. La topologie 3D de l'empilement des segmentations 2D ainsi obtenues est ensuite décrite sous forme d'une structure arborescente, orientée et multivaluée dont l'optimalité est établie. Enfin, une procédure de restauration et de filtrage de l'empilement, conditionnellement à cette structure, aboutit à la reconstruction 3D de l'arbre bronchique. L'approche tridimensionnelle repose sur une modélisation markovienne de type diffusif-agrégatif à partir de fonctions de potentiel caractérisant les propriétés topologiques et structurales du réseau bronchique. L'initialisation du schéma itératif de reconstruction 3D exploite le concept original de cout de connexion sous contrainte topographique. Dans chaque cas, l'arbre bronchique 3D est visualise en utilisant une technique de rendu de volume. En raison de la similitude des vues 3D ainsi créées avec les bronchogrammes classiques, cette technique est appelée bronchographie TDM virtuelle. Les performances des deux méthodes développées ont été évaluées qualitativement et quantitativement, en termes de précision de reconstruction et de robustesse vis-a-vis des artefacts, à partir d'un système de scores établi par rapport à un arbre bronchique de référence. Cette évaluation a démontré, pour les deux méthodes, une précision supérieure à 97% et une robustesse supérieure à 96%, en moyenne.
APA, Harvard, Vancouver, ISO, and other styles
18

Ruggieri, Vito Giovanni. "Analyse morphologique des bioprothèses valvulaires aortiques dégénérées par segmentation d'images TDM." Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00768495.

Full text
Abstract:
Le but de cette étude est d'évaluer la faisabilité de l'analyse tomodensitométrique 3D des bioprothèses aortiques pour faciliter leur évaluation morphologique durant le suivi et d'aider à la sélection des cas et à l'amélioration de la planification d'une procédure valve-in-valve. Le principal défi concernait le rehaussement des feuillets valvulaires, en raison d'images très bruitées. Un scanner synchronisé était réalisé chez des patients porteurs d'une bioprotèse aortique dégénérée avant réintervention (images in-vivo). Différentes méthodes pour la réduction du bruit étaient proposées. La reconstruction tridimensionnelle des bioprothèses était réalisée en utilisant des méthodes de segmentation de régions par "sticks". Après ré-opération ces méthodes étaient appliquées aux images scanner des bioprothèses explantées (images ex-vivo) et utilisées comme référence. La réduction du bruit obtenue par le filtre stick modifié montrait de meilleurs résultats, en rapport signal/bruit, en comparaison aux filtres de diffusion anisotrope. Toutes les méthodes de segmentation ont permis une reconstruction 3D des feuillets. L'analyse qualitative a montré une bonne concordance entre les images obtenues in-vivo et les altérations des bioprothèses. Les résultats des différentes méthodes étaient comparés par critères volumétriques et discutés. Les images scanner des bioprothèses aortiques nécessitent un traitement de débruitage et de réduction des artéfacts de façon à permettre le rehaussement des feuillets prothétiques. La méthode de segmentation de régions par sticks semble représenter une approche pertinente pour caractériser morphologiquement la dégénérescence des bioprothèses.
APA, Harvard, Vancouver, ISO, and other styles
19

Krippel, Martin. "Návrh systému pro precizní lokalizační služby." Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2016. http://www.nusl.cz/ntk/nusl-255311.

Full text
Abstract:
The aim of this term project was to analyze wireless indoor localization. It contains analysis of some wireless localization techniques such as Time of Arrival or Time Difference of Arrival. The paper also describes the system of SEWIO Company. Main part of the master&#8217;s thesis is description, design and implementation of the Kalman filter. The Kalman filter is used to improve two-dimensional positional data and synchronization of anchors (devices for finding a position of an object in SEWIO system). There are described a few system models for the Kalman filter.
APA, Harvard, Vancouver, ISO, and other styles
20

Gaber, Abdo Nasser Ali Verfasser], Abbas S. [Akademischer Betreuer] Omar, and Christian [Akademischer Betreuer] [Diedrich. "Wireless indoor positioning based on TDOA and DOA estimation techniques using IEEE 802.11 standards / Abdo Nasser Ali Gaber. Betreuer: Abbas S. Omar ; Christian Diedrich." Magdeburg : Universitätsbibliothek, 2015. http://d-nb.info/1072146673/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

FALL, Bouna. "Evaluation des performances d'un système de localisation de véhicules de transports guidés fondé sur l'association d'une technique radio ULB et d'une technique de retournement temporel." Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2013. http://tel.archives-ouvertes.fr/tel-00973788.

Full text
Abstract:
En transports guidés, la localisation précise des trains s'avère vitale pour une exploitation nominale du système de transport. Dans un environnement de propagation tel que celui d'une emprise ferroviaire, un capteur de localisation efficace est complexe à concevoir et à valider lorsqu'il doit opérer en présence de nombreux obstacles fixes et mobiles constitués par l'infrastructure et les trains. Afin de concevoir un tel capteur, nous proposons dans ce travail de thèse l'emploi de techniques innovantes dites de diversité spectrale que l'on retrouve également sous la dénomination de radio Ultra Large Bande (ULB). Dans ce travail, cette dernière est également associée à la technique de Retournement Temporel (RT) afin de tirer partie de cet environnement de propagation complexe. L'objectif visé est d'obtenir une localisation fiable et robuste des véhicules ferroviaires par focalisation de signaux ULB en direction des antennes sol ou trains. Des études théoriques alliées à des simulations ont été effectuées portant sur les propriétés de focalisation d'énergie de la technique de retournement temporel en tenant compte de plusieurs paramètres liés aux configurations antennaires, aux canaux de propagation rencontrés et à l'électronique utilisée. L'apport du retournement temporel sur la précision du système de localisation Ultra Large Bande a été quantifié en comparant le système de localisation ULB conventionnel, sans retournement temporel puis, en associant le RT. Les résultats théoriques et de simulations de la solution proposée ont été validés par des expérimentations menées en chambre anéchoïque ainsi qu'en environnement indoor.
APA, Harvard, Vancouver, ISO, and other styles
22

Igreja, Iury Higor Aguiar da. "Locally perturbative multiscale methods for ionic solute transport in clayly soils." Laboratório Nacional de Computação Científica, 2010. http://www.lncc.br/tdmc/tde_busca/arquivo.php?codArquivo=206.

Full text
Abstract:
This work aims at developing computational models capable of furnishing more realistic and less costly computationally for the problem of electrokinetic remediation of polluted clayey soils. Innovative results are obtained by improving the multiscale models previously developed by Lima and co-workers through the construction of perturbations of the local microscopic problems in conjuction with more realistic boundary conditions at the electrodes and with the development of precise estimates for the assymptotic behavior of the macroscopic solution. Considering the aliance of such techniques within the framework of the homogenization method of periodic structures we discretize the macroscopic model by the finite element method numerical simulations of an electroosmose experiment capable of predicting more realistic scenarios of electrokinetic remediation.<br>Este trabalho objetiva o desenvolvimento de modelos computacionais capazes de construir simulações numéricas mais realistas e menos custosas computacionalmente para o problema de descontaminação de solos argilosos por técnicas de eletrocinética. Resultados inovadores são obtidos aprimorando-se os modelos multi-escala desenvolvidos anteriormente por Lima e colaboradores via construção de soluções perturbativas dos problemas locais microscópicos aliada à condições de contorno mais realistas nos eletrodos e ao desenvolvimento de estimativas precisas para o comportamento assintótico da solução macroscópica. Por intermédio da conjunção destas técnicas imersas no contexto da teoria de homogeneização de estruturas periódicas discretizamos o modelo macroscópico pelo método dos elementos finitos e construimos simulações numéricas de um experimento de eletroosmose capazes de predizer cenários mais realistas em eletrorremediação de solos.
APA, Harvard, Vancouver, ISO, and other styles
23

Schmutz, Hugo. "Apprentissage semi-supervisé, segmentation d'images TEP/TDM et prédiction de la réponse tumorale à l'immunothérapie." Electronic Thesis or Diss., Université Côte d'Azur, 2023. https://theses.hal.science/tel-04531885.

Full text
Abstract:
L'objectif de cette thèse est de prédire la réponse à l'immunothérapie de patients atteints du cancer du poumon non à petites cellules (CPNPC). Pour ce faire, nous proposons une méthode basée sur l'apprentissage profond, qui accélère la collecte et la standardisation de biomarqueurs d'imagerie 18F-FDG PET/CT. Cette méthode segmente directement les tumeurs sur les images et permet d'en extraire les biomarqueurs. En outre, il est très fastidieux d'obtenir de large jeux de données annotées dans le cadre de la segmentation d'image médicale. Cependant, les données non annotées s'obtiennent à moindre coup. Cette remarque nous a fait nous tourner vers les méthodes d'apprentissage semi-supervisées et plus particulièrement, vers les méthodes d'apprentissage semi supervisées dites emph{sans danger} pour atténuer le risque de possible de dégradation des performances causé par l'introduction de données non étiquetées. Ensuite, les biomarqueurs extraits des images 18F-FDG PET/CT sont combinés avec des biomarqueurs cliniques et biologiques hétérogènes acquis dans la pratique courante des soins pour prédire les résultats des patients atteints de CPNPC.Pour ce faire, nous proposons une modification simple du cadre d'apprentissage semi-supervisé, appelé DeSSL, et fournissons des garanties théoriques à la plupart des méthodes SSL d'apprentissage profond. En effet, la plupart des méthodes d'apprentissage profond SSL minimisent une estimation biaisée du risque due à l'inclusion de données non étiquetées, même de manière asymptotique. Nous proposons de débiaiser simplement l'estimation du risque en utilisant des données étiquetées. Notre modification est simple à mettre en œuvre et applicable à la plupart des méthodes SSL profondes. Nous comparons plusieurs méthodes SSL avec leurs équivalents après application de la méthode et prouvons que le débiaisage peut rivaliser avec les techniques SSL profondes classiques dans divers contextes et même donner de bons résultats lorsque la méthode SSL traditionnelle échoue, en particulier sur différents ensembles de données médicales. Nous étendons en outre l'estimateur débiaisé à un scenario ou l'absence des annotations est due à leur propre valeur. Nous proposons une nouvelle approche pour résoudre le problème de l'estimation du mécanisme des données manquantes et une nouvelle méthode de débiaisage applicable à n'importe quelle méthode discriminative. La performance de cette méthode est démontrée dans différentes situations, y compris sur deux jeux de données médicaux pour lesquels nous concevons des situations de données manquantes pseudo-réalistes. Nous proposons ensuite une adaptation de DeSSL pour la segmentation des images médicales. Comme DeSSL, la méthode, DeSegSSL, peut être appliquée à la plupart des méthodes discriminatives profondes pour la segmentation semi-supervisées. De plus, DeSegSSL bénéficie de garanties théoriques. Nous avons prouvé que DeSegSSL est un estimateur plus précis du risque que le cas complet et qu'il bénéficie de bornes d'erreur de généralisation dérivées de la complexité de Rademacher.Finalement, nous développons des modèles simples et interprétables pour prédire les réponses à l'immunothérapie des patients atteints de CPNC par une sélection de variables rigoureuse et des modèles simples tels que la régression logistique. Nous prouvons que la combinaison de biomarqueurs hétérogènes trouvés donne une base puissante pour prédire la réponse à l'immunothérapie<br>The overall objective of this thesis is to provide an end-to-end pipeline to predict the response to immunotherapy in NSCLC patients. We aim to standardise and facilitate the collection of 18F-FDG PET/CT imaging biomarkers for the response to immunotherapy by leveraging segmentation models. Encouraged by the lack of segmented scans (labelled data), semi-supervised learning methods are considered and in particular, emph{safe} semi-supervised learning methods to alleviate the possible risk of performance degradation caused by the introduction of unlabelled data. Then, the extracted biomarkers from the 18F-FDG PET/CT scans are combined with heterogeneous clinical and biological biomarkers acquired in current care practice to predict NSCLC patients' outcomes to immunotherapy.We propose a simple modification of the semi-supervised learning framework, called DeSSL, and provide theoretical guarantees to most of deep learning SSL methods. Indeed, most deep-learning SSL methods minimise a biased estimate of the risk by the inclusion of unlabelled data, even asymptotically. We propose to simply debias the estimate of the risk using labelled data. Our modification is straightforward to implement and applicable to most deep SSL methods. We compare several state-of-the-art SSL methods with their debiasing counterparts and prove that debiasing can compete with classic deep SSL techniques in various classic settings and even performs well when traditional SSL fails, in particular on different medical datasets. We further extent the debiased estimator to the self-masked missing non-at-random. We propose a novel approach to address the issue of estimating the missing-data mechanism and using inverse propensity weighting to debias any SSL algorithm. The performance of this method is shown on different datasets including two medical datasets for which we design pseudo-realistic missing data scenarios.We adapt DeSSL for the segmentation of medical images. The method, DeSegSSL, can be applied to most deep discriminative method for the semi-supervised segmentation methods. Additionally, DeSegSSL comes with theoretical guarantees, we proved that DeSegSSL is a more accurate estimator of the risk than the complete case baseline and it benefits from generalisation error bounds derived from Rademacher complexity. We demonstrate experimentally on the subset of PET/CT-positive malignant lesions of autoPET citep{gatidis2022whole} that the debiasing method does not hurt the performance of the biased methods on the pseudo-label and the mean teacher methods. In the scenario with fewer, the debiasing method improves the performance of the biased method. In terms of estimation of the volume and the number of lesions, the debiasing method improves in almost every case over the biased counterparts.Finally, we develop simple and interpretable models for predicting immunotherapy's outcome by leveraging a rigorous features selection method and simple models such as logistic regression. We prove that the combination of multimodal biomarkers provides a powerful model for predicting the outcome of NSCLC patients treated with immunotherapy. We prospectively collected a dataset of patients with metastatic NSCLC, treated with either pembrolizumab or nivolumab in monotherapy. For all patients of the exploratory cohort, a total of 27 baseline quantitative features were analysed (12 clinical, 6 biological and 9 PET/CT parameters), such as the patient's age, ECOG performance status, PDL1 expression, neutrophil-to-lymphocyte blood ratio, number and metabolism of tumour lesions on PET/CT and tMTV
APA, Harvard, Vancouver, ISO, and other styles
24

Taquet, Jonathan. "Techniques avancées pour la compression d'images médicales." Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00629429.

Full text
Abstract:
La compression d'images médicales et biologiques, en particulier sur les modalités d'imagerie telles que la tomodensitométrie (TDM), l'imagerie par résonance magnétique (IRM) et les lames virtuelles en anatomo-pathologie (LV), est un enjeu économique important, notamment pour leur archivage et pour leur transmission. Cette thèse dresse un panorama des besoins et des solutions existantes en compression, et cherche à proposer, dans ce contexte, de nouveaux algorithmes de compression numérique efficaces en comparaison aux algorithmes de référence standardisés. Pour les TDM et IRM, les contraintes médico-légales imposent un archivage de très bonne qualité. Ces travaux se sont donc focalisés sur la compression sans perte et presque sans perte. Il est proposé de i) fusionner le modèle prédictif hiérarchique par interpolation avec le modèle prédictif DPCM adaptatif afin de fournir une représentation scalable en résolution efficace pour la compression sans perte et surtout presque sans perte, ii) s'appuyer sur une optimisation pour la compression sans perte d'une décomposition en paquets d'ondelettes, spécifique au contenu de l'image. Les résultats de ces deux contributions montrent qu'il existe encore une marge de progression pour la compression des images les plus régulières et les moins bruitées. Pour les LV, la lame physique peut être conservée, la problématique concerne donc plus le transfert pour la consultation à distance que l'archivage. De par leur contenu, une approche basée sur l'apprentissage des spécificités structurelles de ces images semble intéressante. Cette troisième contribution vise donc une optimisation hors-ligne de K transformées orthonormales optimales pour la décorrélation des données d'apprentissage (K-KLT). Cette méthode est notamment appliquée pour réaliser un apprentissage concernant des post-transformées sur une décomposition en ondelettes. Leur application dans un modèle de compression scalable en qualité montre que l'approche peut permettre d'obtenir des gains de qualité intéressants en terme de PSNR.
APA, Harvard, Vancouver, ISO, and other styles
25

Desseroit, Marie-Charlotte. "Caractérisation et exploitation de l'hétérogénéité intra-tumorale des images multimodales TDM et TEP." Thesis, Brest, 2016. http://www.theses.fr/2016BRES0129/document.

Full text
Abstract:
L’imagerie multi-modale Tomographie par émission de positons (TEP)/ Tomodensitométrie(TDM) est la modalité d’imagerie la plus utilisée pour le diagnostic et le suivi des patients en oncologie. Les images obtenues par cette méthode offrent une cartographie à la fois de la densité des tissus (modalité TDM) mais également une information sur l’activité métabolique des lésions tumorales (modalité TEP). L’analyse plus approfondie de ces images acquises en routine clinique a permis d’extraire des informations supplémentaires quant à la survie du patient ou à la réponse au(x) traitement(s). Toutes ces nouvelles données permettent de décrire le phénotype d’une lésion de façon non invasive et sont regroupées sous le terme de Radiomics. Cependant, le nombre de paramètres caractérisant la forme ou la texture des lésions n’a cessé d’augmenter ces dernières années et ces données peuvent être sensibles à la méthode d’extraction ou encore à la modalité d’imagerie employée. Pour ces travaux de thèse, la variabilité de ces caractéristiques a donc été évaluée sur les images TDM et TEP à l’aide d’une cohorte test-retest : pour chaque patient, deux examens effectués dans les mêmes conditions, espacés d’un intervalle de l’ordre de quelques jours sont disponibles. Les métriques reconnues comme fiables à la suite de cette analyse sont exploitées pour l’étude de la survie des patients dans le cadre du cancer du poumon. La construction d’un modèle pronostique à l’aide de ces métriques a permis, dans un premier temps, d’étudier la complémentarité des informations fournies par les deux modalités. Ce nomogramme a cependant été généré par simple addition des facteurs de risque. Dans un second temps, les mêmes données ont été exploitées afin de construire un modèle pronostique à l’aide d’une méthode d’apprentissage reconnue comme robuste : les machines à vecteurs de support ou SVM (support vector machine). Les modèles ainsi générés ont ensuite été testés sur une cohorte prospective en cours de recrutement afin d’obtenir des résultats préliminaires sur la robustesse de ces nomogrammes<br>Positron emission tomography (PET) / Computed tomography (CT) multi-modality imaging is the most commonly used imaging technique to diagnose and monitor patients in oncology. PET/CT images provide a global tissue density description (CT images) and a characterization of tumor metabolic activity (PET images). Further analysis of those images acquired in clinical routine supplied additional data as regards patient survival or treatment response. All those new data allow to describe the tumor phenotype and are generally grouped under the generic name of Radiomics. Nevertheless, the number of shape descriptors and texture features characterising tumors have significantly increased in recent years and those parameters can be sensitive to exctraction method or whether to imaging modality. During this thesis, parameters variability, computed on PET and CT images, was assessed thanks to a test-retest cohort : for each patient, two groups of PET/CT images, acquired under the same conditions but generated with an interval of few minutes, were available. Parameters classified as reliable after this analysis were exploited for survival analysis of patients in the context of non-small cell lug cancer (NSCLC).The construction of a prognostic model with those metrics permitted first to study the complementarity of PET and CT texture features. However, this nomogram has been generated by simply adding risk factors and not with a robust multi-parametric analysis method. In the second part, the same data were exploited to build a prognostic model using support vector machine (SVM) algorithm. The models thus generated were then tested on a prospective cohort currently being recruited to obtain preliminary results as regards the robustness of those nomograms
APA, Harvard, Vancouver, ISO, and other styles
26

Lollini, Emanuele. "Analysis of multi-station technique for noise reduction in Deep Space Doppler tracking." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2022. http://amslaurea.unibo.it/25914/.

Full text
Abstract:
Precision measurements of spacecraft range-rate enabled by two-way microwave links are used in navigation and in radio science experiments as planetary geodesy. The final accuracies in the observables depend almost linearly on the Doppler noise in the link. Among all the types of noise that enter a Doppler measurement, the most important are thermal noise, spacecraft antenna buffeting and ground antenna mechanical noise. Several effects at different time scales are responsible for the antenna mechanical noise, such as wind loading, bulk motion due to irregularities in the supporting azimuth ring, unmodeled subreflector motion and long-term differential thermal expansion. Therefore, it is not always simple to prevent and relieve this source of noise. The following thesis is aimed at improve the Doppler measurements exploiting a noise-cancellation technique proposed by John W. Armstrong et al. and elaborated by Virginia Notaro et al. from the mechanical and aerospace engineering department at the Sapienza University. The Time-Delay Mechanical Noise Cancellation (TDMC) technique consists in a combination of Doppler measurements given by a two-way antenna and an additional one which should be stiffer, smaller and placed in a site with good tropospheric conditions. The antenna considered for the two-way link is the DSS 25 in Goldstone, CA from NASA; for the three-way antenna has been taken the 12-m Atacama Pathfinder Experiment (APEX) in Chajnantor, Chile. The simulation is performed for a 1000 s integration time.
APA, Harvard, Vancouver, ISO, and other styles
27

Zhu, Wenwu. "Segmentation et recalage d'images TDM multi-phases de l'abdomen pour la planification chirurgicale." Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAD011/document.

Full text
Abstract:
La fusion d’images TDM de phase artérielles et veineuses est cruciale afin d’assurer une meilleure planification chirurgicale. Cependant, le recalage non-rigide d’images abdominales est encore un challenge à cause de la respiration qui fait glisser les viscères abdominaux le long de la paroi abdominale, créant ainsi un champ de déformation discontinu. L’objectif de cette thèse est de fournir un outil de recalage précis pour les images TDM multi-phases de l’abdomen.Comme la zone de glissement dans l’abdomen est difficile à segmenter, nous avons d’abord implémenté deux outils de segmentation interactifs permettant une délinéation en 10 minutes de la paroi abdominale et du diaphragme. Pour intégrer ces zones de glissement comme a priori, nous réalisons le recalage sur de nouvelles images dans lesquelles la paroi abdominale et les viscères thoraciques ont été enlevés. Les évaluations sur des données de patient ont montré que notre approche fournit une précision d’environ 1 mm<br>The fusion of arterial and venous phase CT images of the entire abdominal viscera is critical for a better diagnosis, surgi-cal planning and treatment, since these two phase images contain complementary information. However, non-rigid regis-tration of abdominal images is still a big challenge due to the breathing motion, which causes sliding motion between the abdominal viscera and the abdo-thoracic wall. The purpose of this thesis is to provide an accurate registration method for abdominal viscera between venous and arterial phase CT images.In order to remove the sliding motion effect, we decide to separate the image into big motion and less motion regions, and perform the registration on new images where abdo-thoracic wall and thoracic viscera are removed. The segmentation of these sliding interfaces is completed with our fast interactive tools within 10 minitues. Two state-of-the-art non-rigid registration algorithms are then applied on these new images and compared to registration obtained with original images. The evaluation using four abdominal organs (liver, kidney, spleen) and several vessel bifurcations shows that our approach provides a much higher accuracy within 1 mm
APA, Harvard, Vancouver, ISO, and other styles
28

Evennou, Frédéric. "Techniques et technologies de localisation avancées pour terminaux mobiles dans les environnements indoor." Phd thesis, Université Joseph Fourier (Grenoble), 2007. http://tel.archives-ouvertes.fr/tel-00136064.

Full text
Abstract:
Autant le GPS tend à s'imposer pour la localisation à l'extérieur des bâtiments, autant la situation est beaucoup plus ouverte pour la localisation à l'intérieur des bâtiments. De nombreux réseaux WiFi sont déployés dans les bâtiments. Ils diffusent des informations de puissance du signal permettant de remonter à la position d'un mobile. La technique du fingerprinting par puissance WiFi permet de localiser le mobile. Cependant, l'utilisation de cette technique de localisation requière une base de données correspondant à la couverture radio WiFi dans l'environnement.<br />L'utilisation d'une technique de localisation basée sur des mesures temporelles est moins contraignante que le fingerprinting. L'émission d'impulsions radio très brèves confère à la technologie 802.15.4a un fort pouvoir séparateur des multi-trajets. Le phénomène de multi-trajets est la principale contrainte au déploiement d'une technologie de localisation par mesures temporelles. La détection du premier trajet est très importante.<br />Des estimateurs comme le filtre de Kalman ou le filtre particulaire sont nécessaires pour limiter les effets des multi-trajets, des bruits de mesure, etc. Ces filtres peuvent aussi intégrer des informations de cartographie. Bien souvent, l'exploitation d'une seule technologie est insuffisante. La fusion d'informations de localisation est une étape supplémentaire pour améliorer la localisation. Des architectures de fusion robustes permettent de corriger les défauts de chacune des technologies pour conduire à un système plus robuste et plus précis en toutes circonstances.<br />Ce travail présente une approche innovante pour la localisation WiFi avec l'exploitation de cartographie dans l'estimateur tout en gardant une faible complexité suivant la plate-forme de déploiement visée. L'exploration des capacités de la localisation par ULB est proposée dans un second temps, avant d'aborder une réflexion sur les méthodes de fusion multi-capteurs.
APA, Harvard, Vancouver, ISO, and other styles
29

Laaraiedh, Mohamed. "Contribution à l'Étude des Techniques Hybrides de Localisation dans les Réseaux Sans-fil Hétérogènes." Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00624436.

Full text
Abstract:
Les avancements récents dans les technologies sans fil ont vu l'émergence de techniques de localisation qui constitue une base utile et rentable pour offrir des nouveaux services. Ces services topo-dépendants ont été de plus en plus bénéfiques pour les opérateurs et les entreprises de télécommunications. Divers services topo-dépendants peuvent être offerts 'a l'utilisateur tels que le suivi, la publicité, la sécurité, et la gestion. Les réseaux sans fil eux-mêmes peuvent bénéficier de l'information de localisation pour améliorer les performances de leurs différentes couches. Le routage, la synchronisation et l'annulation d'interférences sont quelques exemples o'u l'information de localisation peut être fructueuse. Un système de localisation doit être capable d'exécuter deux tâches principales : la mesure des paramètres topo-dépendants (RSSI, TOA, et TDOA) et l'estimation de la position en utilisant des estimateurs appropriés. L'objectif principal de cette thèse est l'étude de différentes techniques d'estimation de la position: algébriques et géométriques. Les techniques algébriques étudiées sont les moindres carrés, le maximum de vraisemblance, et la programmation semi-définie. La technique géométrique RGPA proposée est basée sur l'analyse par intervalles et la représentation géométrique des paramètres topo-dépendants. L'accent est mis sur la fusion de différents paramètres topo-dépendants et son influence sur la précision de positionnement. L'estimation et la mesure des paramètres topo-dépendants sont également étudiées en utilisant une campagne de mesures ULB afin d'avoir une compréhension complète du domaine de localisation.
APA, Harvard, Vancouver, ISO, and other styles
30

Kossonou, Kobenan Ignace. "Étude d'un système de localisation 3-D haute précision basé sur les techniques de transmission Ultra Large Bande à basse consommation d'énergie pour les objets mobiles communicants." Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2014. http://tel.archives-ouvertes.fr/tel-01019504.

Full text
Abstract:
Les systèmes de localisations existants présentent des insuffisances au niveau desapplications en environnement indoor. Ces insuffisances se traduisent soit par la non-disponibilité des signaux (le GPS) dans ce type d'environnement, soit par leur manque de précision quand ils sont prévus à cet effet. Ces limites ont motivé la recherche de nouvelles techniques. Les transmissions Ultra-Large Bande (ULB) de par leur singularité en matière de précision et de faible puissance d'émission, s'avèrent être la meilleure réponse à la problématique ci-dessus. Nous avons donc choisi cette technique pour mettre au point un procédé de localisation endogène permettant d'assurer, avec précision, la continuité des services de localisation dans les environnements indoor. Ce procédé s'appuie sur la localisation en trois dimensions (3-D). Il utilise la technique temporelle de différenciation du temps d'arrivée (TDOA). Cette technique permet de mieux tirer profit de la bonne résolution temporelle de l'ULB et de pallier au problème de synchronisation entre l'émetteur et le récepteur. Deux techniques de transmission ULB ont été étudiées : la technique d'accès multiples par séquence directe (DS-CDMA) et la technique d'accès multiples par sauts temporels (TH-CDMA). Une autre étape importante de notre étude a été de développer un algorithme non-itératif de localisation en 3-D pour réduire le temps de calcul. En effet, l'utilisation d'un algorithme non-itératif permet d'optimiser les performances du système en termes de temps de calcul voire de coûts de consommation énergétique. Après l'étude théorique des différents blocs du système, le système a été tout d'abord simulé dans le canal Gaussien (AWGN) et les canaux IEEE.802.15.4a indoor. Il a été ensuite testé dans différents environnements réels de types laboratoires. Les résultats obtenus démontrent que l'utilisation des techniques de transmission basées sur la technologie radio impulsionnelle ULB permet d'obtenir un système de localisation en 3-D avec une précision centimétrique pour les applications indoor.
APA, Harvard, Vancouver, ISO, and other styles
31

Sayyah, Jahromi Mohammad Reza Information Technology &amp Electrical Engineering Australian Defence Force Academy UNSW. "Efficient broadband antenna array processing using the discrete fourier form transform." Awarded by:University of New South Wales - Australian Defence Force Academy. School of Information Technology and Electrical Engineering, 2005. http://handle.unsw.edu.au/1959.4/38690.

Full text
Abstract:
Processing of broadband signals induced on an antenna array using a tapped delay line filter and a set of steering delays has two problems. Firstly one needs to manipulate large matrices to estimate the filter coefficients. Secondly the use of steering delays is not only cumbersome but implementation errors cause loss of system performance. This thesis looks at both of these problems and presents elegant solutions by developing and studying a design method referred to as the DFT method, which does not require steering delays and is computationally less demanding compared to existing methods. Specifically the thesis studies and compares the performance of a time domain element space beamformer using the proposed method and that using an existing method, and develops the DFT method when the processor is implemented in partitioned form. The study presented in the thesis shows that the processors using the DFT method are robust to look direction errors and require less computation than that using the existing method for comparable performance. The thesis further introduces a broadband beamformer design which does not require any steering delays between the sensors and the tapped delay line section as is presently the case. It has the capability of steering the array in an arbitrary direction with a specified frequency response in the look direction while canceling unwanted uncorrelated interferences. The thesis presents and compares the performance of a number of techniques to synthesize an antenna pattern of a broadband array. These techniques are designed to produce isolated point nulls as well as broad sector nulls and to eliminate the need for the steering delays. Two of the pattern synthesis techniques presented in the thesis allow optimization against unwanted interferences in unknown directions. The techniques allow formulation of a beamforming problem such that the processor is not only able to place nulls in specified directions but also able to cancel directional interferences in unknown directions along with a specified frequency response in the look direction over a band of interest. The thesis also presents a set of directional constraints such that one does not need steering delays and an array can be constrained in an arbitrary direction with a specified frequency response. The constraints presented in the thesis are simple to implement. Based on these constraints a pattern synthesis technique for broadband antenna array is also presented.
APA, Harvard, Vancouver, ISO, and other styles
32

Guinin, Maxime. "Segmentation 3D des organes à risque du tronc masculin à partir d'images anatomiques TDM et IRM à l'aide de méthodes hybrides." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMR019/document.

Full text
Abstract:
Le cancer de la prostate est une cause majeure de décès dans le monde. La radiothérapie externe est une des techniques utilisée pour traiter ce cancer. Pour ce faire, la segmentation de la prostate et de ses organes à risque (OAR) associés (le rectum, la vessie et les têtes fémorales) est une étape majeure dans l’application du traitement. L’objectif de cette thèse est de fournir des outils afin de segmenter la prostate et les OAR de manière automatique ou semi-automatique. Plusieurs approches ont été proposées ces dernières années pour répondre à ces problématiques. Les OAR possédant un contraste relativement bon dans l’image, nous nous sommes orientés vers une approche semi-automatique de leur segmentation, consistant en une sur-segmentation de l’image en petites régions homogènes appelées superpixels. L’utilisateur de la méthode choisit ensuite de labelliser quelques superpixels dans les OAR comme des germes. Enfin, la méthode segmente les OAR grâce à une diffusion sur le graphe (à partir des germes) construit par des superpixels. Quant à la segmentation de la prostate, un sous-volume de l’image appelé VOI (Volume Of Interest), dans lequel se trouve la prostate, est tout d’abord défini. À l’intérieur de ce VOI, la segmentation de la prostate est réalisée. Un dictionnaire composé des caractéristiques de textures extraites sur chaque patch du VOI est d’abord construit. La sélection de caractéristiques du dictionnaire sous contraintes parcimonieuses permet ensuite de trouver celles qui sont le plus informatives. Enfin, basé sur ces caractéristiques sélectionnées, une propagation de label de patch sous contrainte parcimonieuse est appliquée pour segmenter la prostate à deux échelles, superpixels et pixels. Notre méthode a été évaluée sur des images TDM du Centre Henri Becquerel et IRM du challenge ISBI 2013 avec des résultats prometteurs<br>Prostate cancer is a leading cause of death worldwide. External radiotherapy is one of the techniques used to this disease. In order to achieve this, the segmentation of the prostate and its associated organs at risk (OAR) (rectum, bladder and femoral heads) is a major step in the application of the treatment. The objective of this thesis is to provide tools to segment prostate and OAR automatically or semi-automatically. Several approaches have been proposed in recent years to address these issues. As OAR have a relatively good contrast in the image, we have focused on a semi-automatic approach to segment them, consisting of an over-segmentation of the image into small homogeneous regions called superpixels. Then, the user labels some superpixels in the OAR as germs. Finally, the OAR segmentation is performed by a graph diffusion (from germs) constructed by superpixels. Regarding the prostate segmentation, a sub-volume of the image called VOI (Volume Of Interest), in which the prostate is located, is first defined. The prostate segmentation is performed within this VOI. A dictionary composed of the texture characteristics extracted on each patch of the VOI is first constructed. Then, the selection of characteristics of the dictionary under parsimonious constraints allows to find the most informative ones. Finally, based on these selected characteristics, patch label propagation under parsimonious constraint is applied to segment the prostate at two scales, superpixels and pixels. Our method was evaluated with promising results on TDM images of the Henri Becquerel Center and IRM of the 2013 ISBI challenge
APA, Harvard, Vancouver, ISO, and other styles
33

Groheux, David. "Etude des paramètres physiques et biologiques à la base de l'imagerie TEP-TDM au 18FDG dans le cancer du sein et évaluation du rôle de cette technique dans le bilan initial et dans la mesure de la réponse précoce à la chimiothérapie néoadjuvante." Paris 7, 2012. http://www.theses.fr/2012PA077182.

Full text
Abstract:
La majorité des cancers du sein présente une bonne fixation du 18FDG. La captation dépend néanmoins de différentes caractéristiques de la tumeur que nous élucidons. Elle est plus élevée en cas de grade SBR élevé, d'absence d'expression des récepteurs hormonaux, de triple négativité, de mutation de p53. Le type histologique lobulaire infiltrant peut être source de faux-négatifs. En permettant la découverte d'adénopathies locorégionales extra-axillaires (N3) et de métastases à distance, la TEP-TDM au 18FDG est paru utile pour le bilan initial avec un rendement significatif à partir du stade clinique IIB (AJCC). Aussi, le résultat est fortement corrélé à la survie. Nous montrons que la TEP-TDM peut se substituer avantageusement au bilan d'imagerie conventionnel. Effectuée de base, puis après seulement 2 cycles de chimiothérapie, la TEP pourrait prédire précocement la réponse pathologique finale au traitement néoadjuvant. Cette évaluation doit être envisagée séparément pour les 3 grands groupes de cancer du sein. Pour une tumeur triple-négative, la réponse histologique complète pCR doit être visée car synonyme de survie prolongée. Ce travail montre qu'une diminution du SUVmax de moins de 42% après 2 cycles de chimiothérapie est corrélée à une absence de pCR et à une moins bonne survie. De même, pour les tumeurs surexprimant HER2, une diminution limitée du SUVmax est associée à une faible probabilité de pCR. Pour les tumeurs RO- positives/HER2-négatives, l'étude de la variation du TLG (total lésion glycolysis), après délimitation adaptée du volume, est parue plus performante que le SUVmax pour prédire la réponse, souvent limitée dans ce sous-type<br>The majority of breast tumours are FDG-avid. In the first part of this thesis, we studied the factors that influence uptake. 18FDG uptake is high in tumors with higher SBR grade, in oestrogen receptor-negative and in triple-negative tumors, or in case of p53 mutation. On the other hand, lobular carcinoma bas lower uptake and can be source of false-negative examination. Imaging with 18FDG PET-CT can evidence loco-regional extra-axillary lymph nodes (N3 disease) or distant metastases. In the present work, thé yield was deemed high enough in patients with stage IIB or higher to justify its use in clinical practice. Also, PET findings were strongly correlated to prognosis. Ï8FDG PET-CT would be a useful substitute to conventional imaging. When performed at baseline and after two courses of chemotherapy, PET imaging could early predict the outcome of neoadjuvant treatment and pathologic response. Such evaluation should have criteria specifie to a given subtype of breast cancer. In patients with triple-negative tumors, pathologic complete response (pCR) should be the aim, as it is strongly correlated to survival. We shows that less than 42% decrease in tumor SUVmax after two cycles of chemotherapy predicts absence of pCR and a high risk of relapse. For tumors with HER2 overexpression, limited metabolic response was also associated with low probability of achieving pCR. As regards oestrogen receptor-positive tumors without HER2 overexpression, PET parameters based on variation in TLG (total lesion glycolysis) were found to be better than SUVmax in predicting pathologic response, which is often limited in this subtype
APA, Harvard, Vancouver, ISO, and other styles
34

Dillenseger, Jean-Philippe. "Imagerie préclinique multimodale chez le petit animal : qualification des instruments et des méthodes (IRM, µTDM et µTEMP)." Thesis, Strasbourg, 2017. http://www.theses.fr/2017STRAD026/document.

Full text
Abstract:
L’imagerie préclinique se pratique majoritairement sur des modèles animaux murins principalement des souris (61%), elle représente une étape indispensable en recherche préclinique car elle suit les deux premières recommandations de la règle des 3R (réduction, raffinement et remplacement). Pour donner une signification biologique aux mesures extraites des images acquises in vivo chez la souris, il est nécessaire d’évaluer les performances des instruments utilisés mais également des procédures expérimentales en jeu. La qualification des appareils nécessite l’usage de fantômes spécifiques, et l’évaluation des méthodes impose de tester les procédures sur des individus non pathologiques, avant le passage aux expérimentations proprement dites. L’objectif de ce travail a été de développer des outils et des méthodes permettant de qualifier les instruments d’imagerie et certaines procédures in vivo. La nécessité de quantification, à partir d’images réalisées chez le petit animal, nous amène à considérer les instruments d’imagerie préclinique comme des outils métrologiques ; ce qui amène à intégrer le principe d’incertitude de mesure dans l’expression des résultats<br>Preclinical imaging is mostly performed on mouse animal models (61%). It is a necessary step in preclinical research, in compliance the first two recommendations of the 3Rs rules (reduction, refinement and replacement). In order to give a biological significance to measurements extracted from in vivo-acquired mouse images, it is necessary to evaluate instruments performances but also experimental procedures involved. The qualification of apparatuses requires the use of specific phantoms while the evaluation of methods requires procedures tests on non-pathological animals before experimentations. The scope of this work was to develop tools and methods to qualify imaging instruments and in vivo procedures. The need for quantification in small animal imaging, leads us to consider preclinical imaging instruments as metrological tools; which means integrating measurement uncertainty into
APA, Harvard, Vancouver, ISO, and other styles
35

Lian, Chunfeng. "Information fusion and decision-making using belief functions : application to therapeutic monitoring of cancer." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2333/document.

Full text
Abstract:
La radiothérapie est une des méthodes principales utilisée dans le traitement thérapeutique des tumeurs malignes. Pour améliorer son efficacité, deux problèmes essentiels doivent être soigneusement traités : la prédication fiable des résultats thérapeutiques et la segmentation précise des volumes tumoraux. La tomographie d’émission de positrons au traceur Fluoro- 18-déoxy-glucose (FDG-TEP) peut fournir de manière non invasive des informations significatives sur les activités fonctionnelles des cellules tumorales. Les objectifs de cette thèse sont de proposer: 1) des systèmes fiables pour prédire les résultats du traitement contre le cancer en utilisant principalement des caractéristiques extraites des images FDG-TEP; 2) des algorithmes automatiques pour la segmentation de tumeurs de manière précise en TEP et TEP-TDM. La théorie des fonctions de croyance est choisie dans notre étude pour modéliser et raisonner des connaissances incertaines et imprécises pour des images TEP qui sont bruitées et floues. Dans le cadre des fonctions de croyance, nous proposons une méthode de sélection de caractéristiques de manière parcimonieuse et une méthode d’apprentissage de métriques permettant de rendre les classes bien séparées dans l’espace caractéristique afin d’améliorer la précision de classification du classificateur EK-NN. Basées sur ces deux études théoriques, un système robuste de prédiction est proposé, dans lequel le problème d’apprentissage pour des données de petite taille et déséquilibrées est traité de manière efficace. Pour segmenter automatiquement les tumeurs en TEP, une méthode 3-D non supervisée basée sur le regroupement évidentiel (evidential clustering) et l’information spatiale est proposée. Cette méthode de segmentation mono-modalité est ensuite étendue à la co-segmentation dans des images TEP-TDM, en considérant que ces deux modalités distinctes contiennent des informations complémentaires pour améliorer la précision. Toutes les méthodes proposées ont été testées sur des données cliniques, montrant leurs meilleures performances par rapport aux méthodes de l’état de l’art<br>Radiation therapy is one of the most principal options used in the treatment of malignant tumors. To enhance its effectiveness, two critical issues should be carefully dealt with, i.e., reliably predicting therapy outcomes to adapt undergoing treatment planning for individual patients, and accurately segmenting tumor volumes to maximize radiation delivery in tumor tissues while minimize side effects in adjacent organs at risk. Positron emission tomography with radioactive tracer fluorine-18 fluorodeoxyglucose (FDG-PET) can noninvasively provide significant information of the functional activities of tumor cells. In this thesis, the goal of our study consists of two parts: 1) to propose reliable therapy outcome prediction system using primarily features extracted from FDG-PET images; 2) to propose automatic and accurate algorithms for tumor segmentation in PET and PET-CT images. The theory of belief functions is adopted in our study to model and reason with uncertain and imprecise knowledge quantified from noisy and blurring PET images. In the framework of belief functions, a sparse feature selection method and a low-rank metric learning method are proposed to improve the classification accuracy of the evidential K-nearest neighbor classifier learnt by high-dimensional data that contain unreliable features. Based on the above two theoretical studies, a robust prediction system is then proposed, in which the small-sized and imbalanced nature of clinical data is effectively tackled. To automatically delineate tumors in PET images, an unsupervised 3-D segmentation based on evidential clustering using the theory of belief functions and spatial information is proposed. This mono-modality segmentation method is then extended to co-segment tumor in PET-CT images, considering that these two distinct modalities contain complementary information to further improve the accuracy. All proposed methods have been performed on clinical data, giving better results comparing to the state of the art ones
APA, Harvard, Vancouver, ISO, and other styles
36

Ke, Chyuan-Jen, and 柯全真. "Research on Symbol and Carrier Synchronization Techniques for TDMA Systems." Thesis, 1994. http://ndltd.ncl.edu.tw/handle/17877645139549946316.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Perrotta, Annalisa, Luigi Palopoli, Salvatore Marano, and Rango Floriano De. "Proposal of new techniques for the efficient energy management in TDMA MAC protocols over Manets." Thesis, 2014. http://hdl.handle.net/10955/397.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Ming-ChunTsai and 蔡明君. "FPGA-Based Wireless Positioning System Using TDOA Technique." Thesis, 2011. http://ndltd.ncl.edu.tw/handle/34345890481971238054.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Chen, Chih-Yuan, and 陳志源. "Evaluation of TDOA Techniques for Position Location in Mode S System." Thesis, 2003. http://ndltd.ncl.edu.tw/handle/35803919865659594665.

Full text
Abstract:
碩士<br>國立臺灣大學<br>電機工程學研究所<br>91<br>The airport surface is a terminology used in the civil aviation. Takeoff, terminal, en route, approach, landing, missed approach and surface constitute all phases of flight. The meaning of the airport surface is the aircraft movement among runways and gates. The traffic conditions of an airport are complicate and congested. The involved vehicles include airports and different kind of cars, whose sizes, speeds are quite different. In case of careless, accidents are easily occurred. The aircraft collision on the ground often causes fatal tragedy. Currently the navigation and surveillance of airport surface mainly rely on the eyes of the pilot and controller, respectively. Under the bad weather and low visibility, the safety of the airport is highly suspected. One of the new aviation technologies is to enhance the safety of the airport surface via the electronic equipment and computer software. This research used two similar positioning systems. The basic principle is to use the estimation of TDOA (Time Difference Of Arrival) and then locate the vehicles on the airport surface by using the similar principle of hyperbolic positioning technology. By using the information of vehicle position, the crews of the airport could arrange the path planning of the vehicle to improve the safety of the airport surface.
APA, Harvard, Vancouver, ISO, and other styles
40

LU, JIAN-KUN, and 呂建坤. "Signal processing in two-wavelength interferometry using FDM and TDM techniques." Thesis, 1993. http://ndltd.ncl.edu.tw/handle/74072815801445738781.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Wu, Chi-Lin, and 巫季霖. "A Study on Time Difference of Arrival (TDOA) Location Technique with Genetic Algorithm." Thesis, 2014. http://ndltd.ncl.edu.tw/handle/u9cr7d.

Full text
Abstract:
碩士<br>國立虎尾科技大學<br>光電與材料科技研究所<br>102<br>With the development of communication technology, radio position is combined with a number of emerging technologies, which is widely applied in many fields, such as civilian facilities, wireless network management, interference location, transportation systems and seismic exploration. Generally speaking, Radio Direction Finder System mainly includes four components, direction-finding antenna, processing unit, receiver(s), and a positioning display. A node receiver plays an important role for the accuracy of positioning. If the system can provide reliably and accurately received data, the accuracy of positioning can be improved significantly. However, it needs some changes in physical levels and it may impact the structure of the current system and increase cost. Thus, for most of positing systems, to process signals after receive data is very essential. Utilizing positioning algorithms to increase the accuracy of positing is currently main research directions. The principle of wireless positioning utilizes received signal features to calculate transmission time, transmission distance and orientation of signals, followed by acquiring the location of target by means of computation. Compared to AOA (Angle of Arrival) and TOA (Time-Of-Arrival) techniques, the request for synchronization with receiving station is lower, the implementation is easier and the accuracy is higher for TDOA (Time Difference of Arrival). In the study, a TDOA positioning calculation method based on genetic algorithm is proposed. Based on positioning, the arrival time differences of the signals received by multiple sensors are defined, and the possible range of transmission source is reduced in combination with the renovation mechanism of the genetic algorithm to search for the most possible location of the target. As for experimental setting, MATLAB is used to simulate correlated functions, such that the expansibility of positioning is increased and the calculation complexity of the algorithm is reduced. In addition to the test for positioning range, and comparison for numbers of stations and traditional positioning algorithms, the applicability in real environments is also studied. From the results, it is evident that the positioning accuracy of this method is good, which may be used to adjust appropriate positioning condition in terms of environments and is easy in computation. Finally, the researcher makes a conclusion based on the results of the study and makes some suggestions for further research.
APA, Harvard, Vancouver, ISO, and other styles
42

jin, yuh-chuan, and 金郁川. "a new symbol time synchronization technique for short-burst TDM transmissions." Thesis, 1997. http://ndltd.ncl.edu.tw/handle/09587688742791529558.

Full text
Abstract:
碩士<br>國立中正大學<br>電機工程學系<br>85<br>Two key elements in the design of a demodulator are symbol time synchronization and offset frequency synchronization. PACS( Personal Access Communication Service)is a low-power microcell mobile phone system proposed by Bellcore. This system features short-burst TDM transmission at 1.8 GHz. Bellcore has proposed a method of implementing the PACS demodulator which has been patented. The Bellcore method obtains (1) symbol synchronization, (2) an estimate of the offset frequency,and (3) the quality measure, i.e., an estimate of the channel(path) quality simultaneouslyafter a predetermined set of computation. We develop a new method which obtainsa symbol time synchronization and a frequency offset estimation through separatecalculations, whith symbol time estimation preceeding frequency offset synchronization.However the total of the two calculation does not exceed the one data burst limit. Furthermore, the amount of computation in this new method is comparable to that Bellcore method. This thesis addresses the problem of symbol time synchronization for a PACSmodem. A prefilter-square-DFT combination was able to determine the proper sampingpoint within 30 symbols. This, in conjunction with the 30 symbol periods required for the frequency offset estimation algorithm, is able to complete the time and freuency synchronization within one burst of 64 symbols, as required by the PACS specifications. Analysis, computer simulation results and hardware architectureare presented.
APA, Harvard, Vancouver, ISO, and other styles
43

Han, Hsu Sheng, and 許聖翰. "Heating Gelation Mechanism of Tilapia Surimi Studied by DSC, TSRM, TDM, and SH Dying Techniques." Thesis, 2001. http://ndltd.ncl.edu.tw/handle/49178498107614014963.

Full text
Abstract:
碩士<br>國立海洋大學<br>食品科學系<br>89<br>Three tilapia surimi were prepared to prossessing special forms of AM, including free AM (type I), Ca++-bridged AM (type Ⅱ), and TGase-induced crosslinked AM. All of them were used as model surimi samples for cooking gelation mechanism studies. Four analytical techniques were adopted to study stepwise AM sol-gel transition of surimi during dynamic heating to form fish-gels. Among them, TSRM was used to measure the texture phase changes. DSC and a new technique, thermal dialtometer (TDM) were cooperatively used to study the denaturation-aggregation (gelling) temperatures of surimi AM subunits. A SH dying technique was adopted to study the possible occurances of heat swelling prior to unfolding (denaturation) of M-head in AM. It was found that a rapid initial heating rate (>10℃/min) from ambient to ~60℃ was required for all instrumentational analysis, to prevent any unpredictable non-denaturation AM change taking place to give analysis complications. A three-phase transition pattern of heat gelation (gelling-resolution of gel-gelling) was found for all three surimi. The heat-induced denaturation occurances of AM subunits in each surimi could be revealed in greater details by TDM, however not by the conventional tool, DSC. Whereas, SH dying technique effectively revealed that a heat-swelling prior to denaturation of M-head was existing, and the occurring temperature of M-head swelling was correlated well to its TSRM gel-resolution phase transition in each surimi. The three-phase transitions of surimi cooking could then be explained by the comparisons of TSRM, DSC, TDM, and SH dying analysis results: 1. Low temperature gelling phases were caused by M-tail denaturation. Same free M-tail (Td: 43℃) for type I and Ⅱ AM / lower Td (30~40℃) for TGase induced crosslinked AM were found. 2. Phase of gel-resolution at intermediate temperature was caused by M-head swelling, 42~49℃ (type I AM), 45~54℃ (type Ⅱ AM), and 45~57℃ (type Ⅲ AM). Swelling temperatures were increasing with the increasing of bonding existing in the AM. 3. High temperature gelling phases were caused by denaturations of M-head and F-A of AM. The occurring temperatures were > 49℃ (type I AM), > 54℃ (type Ⅱ AM), and > 57℃ (type Ⅲ AM).
APA, Harvard, Vancouver, ISO, and other styles
44

Rivard, Marie-Pier. "Favoriser le développement de stratégies de compréhension en lecture d'étudiants du collégial ayant des troubles d'apprentissage ou un TDA/H." Mémoire, 2012. http://www.archipel.uqam.ca/4979/1/M12406.pdf.

Full text
Abstract:
Cette étude porte sur l'enseignement de stratégies compensatoires en lecture comme mesure de soutien spécifique chez les étudiants dyslexiques et/ou ayant un trouble déficitaire de l'attention avec ou sans hyperactivité de niveau collégial. Nous avons entrepris cette recherche avec l'objectif que les étudiants au collégial, plus précisément les étudiants présentant un trouble d'apprentissage, puissent développer des stratégies compensatoires en lecture, avec le soutien d'un spécialiste, notamment le conseiller en adaptation scolaire. Pour ce faire, nous avons mis en place un atelier de lecture axé sur le modèle socio-constructiviste et inspiré de l'approche Reading Apprenticeship. Le conseiller en adaptation scolaire a travaillé individuellement auprès de cinq étudiants, à raison de deux périodes de 45 minutes par semaine durant cinq semaines, soit l'équivalent du tiers d'une session complète au niveau collégial. Les résultats montrent que les participants de notre étude ont développé des stratégies cognitives et métacognitives à la suite de l'atelier inspiré de l'approche R.A. Les stratégies s'étant le plus développées sont les stratégies de lecture globales comprenant les stratégies de prédiction, de prévision, de planification, d'intention de lecture, de questionnement et d'activation des connaissances antérieures. Dans un deuxième temps, nos résultats montrent que l'enseignement de stratégies compensatoires en compréhension de lecture entraîne des effets positifs sur la réussite de certains cours de formation générale et permet aux étudiants ayant des troubles d'apprentissage d'aborder la lecture de façon plus positive. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : éducation, stratégies de lecture, troubles d'apprentissage, jeune adulte, collégial.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography