To see the other types of publications on this topic, follow the link: Interrogation Technique.

Dissertations / Theses on the topic 'Interrogation Technique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 45 dissertations / theses for your research on the topic 'Interrogation Technique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Hwang, Nick H. "The Need for Interrogation Reform in the United States." Scholarship @ Claremont, 2014. http://scholarship.claremont.edu/cmc_theses/907.

Full text
Abstract:
This paper examines the methodology of interrogation in the United States, specifically the usage of the accusatorial Reid technique. Following a description of the Reid technique and its origins, the topic turns to an examination of how the usage of the method results in unacceptably high rates of false confessions and wrongful convictions. The next section discusses the recent increase in discovery and documentation of how often such mistakes occur, as well as the dire consequences which often involve the wrongful imprisonment or even execution of innocents. With the need for reform clearly established, the following sections discuss potential alternatives to the Reid technique as well as potential adjustments that can be made to provide better safeguards against false confessions. The paper then explains how suggested changes have all been empirically shown to reduce the rates of false confessions without compromising the investigative process, and recommends that the rest of the United States follow the example of the few states which have already passed legislation mandating such modifications.
APA, Harvard, Vancouver, ISO, and other styles
2

El, kanawati Wassila. "Caractérisation élémentaire par interrogation neutronique avec la technique de la particule associée." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00769397.

Full text
Abstract:
Le système EURITRACK, basé sur la technique de la particule associée, vise à détecter des explosifs et des drogues dans les conteneurs maritimes avec des neutrons de 14 MeV produits par la réaction D(T,)n. La particule alpha et le neutron sont émis environ à 180° l'un de l'autre. Les réactions induites par le neutron produisent des rayonnements gamma qui sont détectés en coïncidence avec la particule alpha pour déterminer la direction et le temps de vol neutronique, et ainsi remonter à l'origine des rayonnements gamma dans le conteneur. La composition chimique est obtenue par déconvolution du spectre gamma en signatures élémentaires (C, O, N, Fe,...). Les rapports des nombres de coups du carbone, de l'oxygène et de l'azote sont convertis en proportions chimiques, afin de distinguer les matières organiques bénignes et illicites, via des facteurs calculés par simulation Monte Carlo et validés expérimentalement. Ils prennent en compte la modération neutronique et l'atténuation photonique dans les marchandises transportées. L'application à la caractérisation élémentaire des déchets radioactifs est aussi étudiée par simulation, avec des écrans et collimateurs pour limiter le bruit dû à l'émission radiologique des colis.
APA, Harvard, Vancouver, ISO, and other styles
3

El, Kanawati Wassila. "Caractérisation élémentaire par interrogation neutronique avec la technique de la particule associée." Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENY024/document.

Full text
Abstract:
Le système EURITRACK, basé sur la technique de la particule associée, vise à détecter des explosifs et des drogues dans les conteneurs maritimes avec des neutrons de 14 MeV produits par la réaction D(T,)n. La particule alpha et le neutron sont émis environ à 180° l'un de l'autre. Les réactions induites par le neutron produisent des rayonnements gamma qui sont détectés en coïncidence avec la particule alpha pour déterminer la direction et le temps de vol neutronique, et ainsi remonter à l'origine des rayonnements gamma dans le conteneur. La composition chimique est obtenue par déconvolution du spectre gamma en signatures élémentaires (C, O, N, Fe,…). Les rapports des nombres de coups du carbone, de l'oxygène et de l'azote sont convertis en proportions chimiques, afin de distinguer les matières organiques bénignes et illicites, via des facteurs calculés par simulation Monte Carlo et validés expérimentalement. Ils prennent en compte la modération neutronique et l'atténuation photonique dans les marchandises transportées. L'application à la caractérisation élémentaire des déchets radioactifs est aussi étudiée par simulation, avec des écrans et collimateurs pour limiter le bruit dû à l'émission radiologique des colis
The EURITRACK inspection system, based on the associated particle technique, aims at detecting explosives and narcotics in cargo containers with 14 MeV neutrons produced by the D(T,)n reaction. Alpha particle and neutron are emitted almost back to back. Reactions induced by fast neutrons produce gamma rays which are detected in coincidence with the alpha particle to determine the neutron direction. Neutron time-of-flight allows to determine gamma-ray origin inside the container. Information concerning material composition is obtained by unfolding the gamma spectrum into elemental signatures using a database of elemental spectra (C, O, N, Fe…). Carbon, oxygen, and nitrogen count ratios are converted into chemical proportions to distinguish illicit and benign organic materials. Conversion factors based on Monte Carlo simulations have been calculated and validated experimentally, taking into account neutron slowing down and photon attenuation in cargo materials. Application to the elemental characterisation of radioactive wastes is also studied by numerical simulation, with shields and collimators to limit the background due to waste radiations
APA, Harvard, Vancouver, ISO, and other styles
4

Deyglun, Clément. "Détection de matière nucléaire par interrogation neutronique avec la technique de la particule associée." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENY058.

Full text
Abstract:
Cette thèse étudie la détection de matière nucléaire avec la technique de la particule associée pour l’inspection de bagages abandonnés ou de conteneurs maritimes dans le domaine de la sécurité. Le principe consiste à mesurer, avec des scintillateurs plastique, les coïncidences entre particules de fissions induites par des neutrons de 14 MeV produits par un générateur basé sur la réaction 2H(3H,n)4He et équipé d’un détecteur alpha à localisation pour déterminer le temps d’émission et la direction du neutron opposé. La détection d’au moins trois particules de fission en coïncidence avec la particule qui permet de discriminer les matières nucléaires des matériaux bénins. Le système d’acquisition et les outils de simulation ont été qualifiés en passif avec des sources radioactives puis en actif avec le générateur et diverses cibles, validant les estimations de performances de systèmesd’inspection de bagages abandonnés ou de conteneurs maritimes réalisées par simulation numérique avec le code MCNP-PoliMi. Il est ainsi possible de détecter en quelques minutes, quelques kg d’uranium au centre d’un container rempli d’une matrice fer mêmesi l’échantillon est masqué par du plomb, à l’aide du signal des neutrons prompts de fission. La détection est plus difficile dans les matrices organiques en raison de la diffusion des neutrons interrogateurs et de fission sur les noyaux d’hydrogène. Par ailleurs, l’utilisation de scintillateurs plastiques à la place des compteurs gazeux à 3He a été évaluée pour caractériser le plutonium dans les colis de déchets radioactifs par mesure passive des coïncidences. La détection des neutrons de fission est beaucoup plus rapide,ce qui permet de minimiser le bruit accidentel dû aux réactions (,n). Les scintillateurs sont cependant plus sensibles aux rayonnements gamma et à la diaphonie entre détecteurs voisins, ce qui nécessite d’exploiter les coïncidences de multiplicité 3 avec un traitement des données spécifique pour limiter la diaphonie
This thesis investigates the detection of Special Nuclear Materials (SNM) by neutroninterrogation with the Associated Particle Technique (APT). 14 MeV neutrons areproduced from the 3H(2H,n)α fusion reaction in a sealed tube neutron generatorembedding a position-sensitive alpha detector. The alpha detector determines thedirection of the nearly opposite neutron and its time of flight. The detection of at leastthree prompt fission particles in coincidence with the tagged neutron signs the presenceof SNM. The acquisition system and simulation tools have been qualified in passive modewith radioactive sources and active mode with the generator and various targets,validating the simulation of inspection systems with MCNP-PoliMi. Calculations showthat the detection of a few kilograms of shielded SNM with the ATP is possible in ironcargo container, with the prompt fission neutrons signal. Detection is more difficult inorganic matrices due to tagged- and prompt fission neutrons scattering on hydrogennuclei. Furthermore, the use of plastic scintillators instead of 3He counters was studied tocharacterize the plutonium in the radioactive waste by passive coincidences measurement.Measurements at fast time scales of fast-neutrons instead of the long time scales ofthermal-neutrons reduce random coincidences that can occur with high (,n) reactionrate. The scintillators are however sensitive to gamma rays and cross-talk betweenadjacent detectors. Therefore, we used data-analysis algorithms to minimize cross-talkcontribution to measured three-fold coincidences
APA, Harvard, Vancouver, ISO, and other styles
5

NUNES, LUIZ CARLOS DA SILVA. "ANALYSIS OF THE DEMODULATION TECHNIQUE BASED ON FIXED FILTERS IN THE INTERROGATION OF FIBER BRAGG GRATING SENSORS." PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO, 2004. http://www.maxwell.vrac.puc-rio.br/Busca_etds.php?strSecao=resultado&nrSeq=5385@1.

Full text
Abstract:
COORDENAÇÃO DE APERFEIÇOAMENTO DO PESSOAL DE ENSINO SUPERIOR
DEUTSCHER AKADEMISCHER AUSTAUSCHDIENST
A análise da técnica de demodulação usada para interrogar sensores a rede de Bragg em fibras ópticas baseadas em filtros fixos foi realizada teoricamente e experimentalmente. Diferentes configurações de sistemas foram analisadas modificando a posição espectral dos filtros, assim como os níveis de potência óptica obtidos nos fotodetectores. Foram realizadas medidas com o tempo de integração que variavam de 0.01 a 1s e estimado o limite de baixa freqüência. Comparação entre os resultados experimentais e simulados mostram boa concordância, e extrapolações indicam que seria possível chegar a uma faixa de medida da ordem de 7 nanômetros, com incertezas equivalentes menores que 2 picometros, na medida da posição de pico do sensor. Foi feita uma análise da possibilidade de utilização desta técnica para medida simultânea de pressão e temperatura com uma única rede sensora. Na realização experimental foi usado um transdutor de pressão que transferia uma força transversal à fibra, proporcional à pressão atuante, gerando birrefringência na região da rede de Bragg. Foi possível obter valores de pressão com a faixa dinâmica de 400 psi com incerteza máxima de 4 psi e simultaneamente temperaturas com variação de 28 a 50 graus Celsius com incerteza máxima de 0.1 graus Celsius. Adicionalmente, foram estudados os efeitos gerados em uma multiplexação temporal (TDM) de sensores a rede de Bragg quando os sensores se encontram superpostos na mesma posição espectral. Nesta análise é confrontada a técnica de demodulação utilizando dois filtros fixos com a técnica baseada na posição espectral. Os resultados indicam que a técnica baseada em filtros fixos apresenta vantagem, permitindo um número significativamente maior de sensores. E também, foi analisado o distúrbio provocado no espectro da rede sensora quando a fonte de luz usada para interrogar a rede tem uma modulação espectral que varia com a temperatura. Finalmente, foi apresentado um sistema de multiplexação (TDM/WDM), completamente polarizado, capaz de interrogar dezenas de sensores a rede de Bragg escrito em fibras de alta birrefringência. O sistema de multiplexação consistiu em uma chave óptica integrada, baseada em um interferômetro de Mach-Zehnder com configuração X-Y, e em um espectrômetro com um CCD linear como elemento de detecção.
The analysis of a demodulation system for fiber Bragg grating sensors based on two fixed spectral filters has been carried out both theoretically and experimentally. Different system configurations were analyzed by modifying the spectral position of the filters as well as the optical power-level of the signal reaching the two photo-detectors. Measurements with integration times that varied from 0.01 to 1 second have been compared with the low frequency limit predicted for long-term operation. Comparisons between simulated and experimental results show good agreement, and extrapolations indicate that it should be possible to achieve a dynamic range of the order of 7 nanometers, with uncertainties equivalent to less than 2 picometers, in measurements of the sensor peak position. Applications based on this system were carried out. An analysis of simultaneous measurement of temperature and pressure with only one FBG sensor using transducer of pressure to transfer a lateral force to the fiber, proportional to the applied pressure, generating birefringence at grating Bragg region has been realized. The proposed system allowed to measure pressure range of 400 psi with uncertain of 4 psi and simultaneously temperature range of 22 Celsius Degree with uncertain of 0.1 Celsius Degree. In addiction, generated effects in the temporal multiplexing (TDM) of fiber Bragg grating sensors when the sensor spectra are fully overlapped have been analyzed. In this study, it is compared the demodulation technique based on two fixed filters with the conventional technique based on the peak position. The results show that the technique based on fixed filters presents advantage to conventional, allowing a greatest sensor number. It was also analyzed the generated disturbance in the Bragg grating sensor spectrum when the source used to interrogate the sensor has a residual modulation which changes with the temperature. And finally, a polarized multiplexing system (TDM/WDM) able to interrogate a large number of Bragg grating sensors written in high-birefringent polarization-maintaining fibers has been realized. It is based on integrated-optic switch Mach- Zehnder interferometer in X-Y configuration and a CCD line array spectrometer.
APA, Harvard, Vancouver, ISO, and other styles
6

Aceituno, Roberto. "Psychiatrie, psychanalyse, histoire : Eléments pour une discussion sur le discours psychiatrique et psychanalytique. Vers une interrogation critique sur l'actualité de leurs "limites"." Paris 7, 2000. http://www.theses.fr/2000PA070126.

Full text
Abstract:
Dans cette thèse est visée la question sur l'historicité du discours psychiatrique et psychanalytique, à partir de deux axes thématiques : d'abord, celui qui concerne l'histoire conceptuelle de la psychiatrie durant le XIXème siècle - de Pinel à Freud -, et ensuite la continuité ou la rupture introduite par la psychanalyse par rapport à ce parcours-là. La première partie introduit une discussion sur les options assumées par Michel Foucault (L'Histoire de la folie à l'âge classique) et par quelques-uns de ses critiques (notamment Marcel Gauchet et Gladys Swain) au sujet de la naissance de la psychiatrie moderne (Pinel). Dans ce contexte, nous approchons ensuite les "figures de l'altérité" dans l'histoire de la psychiatrie au XIXème, à partir de la problématique de l'identité et de la différence. En reprenant finalement dans cette section les deux problèmes signalés auparavant, afin de discuter la place de la clinique et de la théorie psychanalytique dans ce parcours disciplinaire, comme discours sur le sujet et son historicité, ainsi que la question du récit dans la théorie freudienne. Dans la deuxième partie, nous analysons "l'actualité" du savoir psychiatrique et psychanalytique, par rapport au parcours présenté précédemment. Notamment, on analyse la place des "pathologies limites" (états-limites), considérées à la fois comme des expressions d'une certaine constante disciplinaire, et comme expressions de la subjectivité contemporaine par rapport à son statut socio-culturel. Surtout, on reprend la question sur l'historicité du sujet dans la clinique psychiatrique et psychanalytique, à partir d'une analyse de quelques paris de la psychanalyse américaine - représentés par Otto Kernberg - ainsi que par rapport à la perspective lacanienne sur la question de la structure et l'histoire. Deux chapitres conclusifs sont présentés finalement, concernant la clinique comme discours "actuel" et la nécessité de l'histoire pour le présent et pour l'avenir de la psychanalyse
The thesis discusses the discursive historicity of the psychiatric and psychoanalytic disciplines from two standpoints : the first, developed in the first section, refers to the history of psychiatry during the 19th century, from Pinel to Freud, and to the continuity/rupture introduced by psychoanalysis in that period. This section opens with a discussion on the options taken by Michel Foucault (History of madness in classic times) and by some of his critics (specifically, Gladys Swain and Marcel Gauchet) concerning the birth of modern psychiatry (Pinel). It is followed by an exposition on the "figures of altership" in the history of 19th century psychiatry, beginning in the problem of identity and difference. Both aspects are returned to at the end of this section in the discussion about the place of psychoanalytic clinical practice and theory as a discourse about the Subject and his historicity, as well as in a discussion of a status of speech in Freudian theory. In the second section, the "present" of psychiatric and psychoanalytic knowledge is analysed in its relation to the period described before. The place of "borderlines disorders" is analysed specifically, considered as an expression of both a disciplinary constancy and contemporary subjectivity in its social-cultural dimension. Specifically, the issue of the historicity of the subject in psychiatric and psychoanalytic clinical practice is returned to through a questioning of the views of American psychoanalysis - represented by O. Kernberg - and its counterpart in the Lacanian perspective on structure and history. The thesis ends with two concluding chapters on clinical practice as a contemporary discourse and the need of history in the present and future of psychoanalysis
APA, Harvard, Vancouver, ISO, and other styles
7

Carrel, Frédérick. "Etude et développement d’une technique de dosage des actinides dans les colis de déchets radioactifs par interrogation photonique ou neutronique active et spectrométrie des gamma retardés." Caen, 2007. http://www.theses.fr/2007CAEN2022.

Full text
Abstract:
Un stockage adapté des colis de déchets radioactifs nécessite une estimation exacte de leur activité alpha. L’objectif de cette thèse réside dans le développement d’une méthode active non destructive, basée sur le processus de fission et permettant l’identification des actinides (235U, 238U, 239Pu) qui constituent les principaux émetteurs alpha contenus dans un colis de déchets. La technique étudiée repose sur une détection des gamma retardés qui sont émis par les produits de fission, eux-mêmes créés à l’aide d’un faisceau de particules incidentes. Les performances envisageables à l’aide de cette méthode ont été étudiées après une Interrogation Neutronique ou Photonique Active (INA ou IPA). Trois objectifs majeurs ont été fixés dans le cadre de cette thèse. En premier lieu, nous avons mesuré un nombre important de taux de production de produits de photofission, afin de pallier au manque de données disponibles dans la littérature. Nous avons ensuite étudié les performances expérimentales de notre méthode dans l’optique d’identifier ou de différencier un actinide d’intérêt (239Pu en fission, 235U en photofission) présent dans un mélange irradié. Enfin, nous avons évalué les possibilités d’application de notre technique sur différents types de colis maquette en INA et en IPA (colis maquette avec matrice EVA en fission, fût prébétonné de 220 litres et colis CEDRA en photofission)
An accurate estimation of the alpha-activity of a nuclear waste package is necessary to select the best mode of storage. The main purpose of this work is to develop a non-destructive active method, based on the fission process and allowing the identification of actinides (235U, 238U, 239Pu). These three elements are the main alpha emitters contained inside a package. Our technique is based on the detection of delayed gammas emitted by fission products. These latter are created by irradiation with the help of a neutron or photon beam. Performances of this method have been investigated after an Active Photon or Neutron Interrogation (INA or IPA). Three main objectives were fixed in the framework of this thesis. First, we measured many yields of photofission products to compensate the lack of data in the literature. Then, we studied experimental performances of this method to identify a given actinide (239Pu in fission, 235U in photofission) present in an irradiated mixture. Finally, we assessed the application of this technique on different mock-up packages for both types of interrogation (118 l mock-up package containing EVA in fission, 220 l mock-up package with a wall of concrete in photofission)
APA, Harvard, Vancouver, ISO, and other styles
8

Antoni, Rodolphe. "Optimisation des mesures d'interrogation neutronique active par couplage d'une méthode de correction des effets de matrice." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENY014.

Full text
Abstract:
La masse fissile dans les fûts de déchets radioactifs remplis de résidus métalliques compactés (coques et embouts des combustibles usés) produits à l'usine de retraitement de La Hague est mesurée par interrogation neutronique active, sut l'atelier de compactage de coques et embouts (ACC). Dans le futur, des déchets anciens de cette nature mélangés à des résines échangeuses d'ions seront traités dans cette installation. Ces résines ont pour effet d'augmenter la propriété de modération des neutrons dans la matrice du fût, en comparaison des déchets mesurés actuellement. Dans ce contexte, une méthode de correction des effets de matrice basée sur l'utilisation de la mesure associée d'un moniteur de fût (compteur proportionnel à 3He) a été étudiée. La faisabilité de la méthode a dans un premier temps été étudiée sur la maquette R&D PROMETHEE 6, permettant de mettre en évidence d'une part une bonne corrélation entre le signal du moniteur et les effets de matrice et d'autre part une capacité du code de transport de particule MCNP a reproduire les performances expérimentales de la méthode. Par la suite, les performances finales de l'implantation de cette méthode sur le poste industriel 0-2 en entrée d'ACC ont été évaluées par simulation numérique. Les résultats des calculs concluent à une estimation de la masse fissile résiduelle avec une erreur d'environ un facteur 2, alors que celle-ci pourrait atteindre 2 décades sans la méthode de correction. Par ailleurs, l'analyse des résultats expérimentaux sur la mesure des fûts de la production courante en présence d'un moniteur de fût, établit une corrélation satisfaisante entre des propriétés physiques connues de la matrice pour ce type de déchets (modération et absorption) et le signal du moniteur, démontrant ainsi la fiabilité de l'approche proposée. En conséquence, cette méthode de correction sera implantée sur le poste industriel peut être préconisée pour d'autres dispositifs d'interrogation neutronique active
The fissile mass in radioactive waste drums filled with compacted metallic residues (spent fuel hulls and nozzles) produced at AREVA La Hague reprocessing plant is measured by neutron interrogation with the Differential Die-away measurement Technique, on the waste compaction facility (ACC). In the future, old hulls and nozzles mixed with ion-exchange resins will be measured. The ion-exchange resins increase neutron moderation in the matrix, compared to the waste measured in the current process. In this context, a matrix effect correction method based on a drum monitor (3He proportional counter) has been studied. The feasibility of the method was first performed with the R&D measurement cell PROMETHEE 6, showing a good correlation between the monitor signal and the matrix effect correction, and the capability of MCNP simulations to reproduce experiments and to estimate the performances of the proposed correction. Therefore, the industrial implementation of the method and the assessment of its final performances have been studied by numerical simulation. Calculations demonstrate that the method allows keeping the highest error on the measured fissile mass below roughly a factor of 2, while the matrix effect without correction ranges on 2 orders of magnitude. In addition, the analysis of experimental data from the current process shows a good correlation between known physical properties of the matrix (moderation and absorption) and the monitor signal, demonstrating the reliability of the proposed approach. According to these satisfactory results, this correction method will be implemented on the industrial station. More generally, this method could be applied to similar waste measurement systems
APA, Harvard, Vancouver, ISO, and other styles
9

Brady, Geoffrey Phillip. "Fibre Bragg grating sensors : interrogation and multiplexing techniques." Thesis, University of Kent, 1996. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.309781.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Wilson, Alan. "Interrogation techniques for short gauge length optical fibre sensors." Thesis, Cranfield University, 1998. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.266987.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Guan, Yanlin. "Interactive and immersive surface interrogation techniques over triangulated surfaces." Diss., Mississippi State : Mississippi State University, 2003. http://library.msstate.edu/etd/show.asp?etd=etd-04142003-173417.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Hervás, Peralta Javier. "Design of photonic sensors based on cavities and new interrogation techniques." Doctoral thesis, Universitat Politècnica de València, 2019. http://hdl.handle.net/10251/119754.

Full text
Abstract:
[ES] Los sensores ópticos son dispositivos fotónicos sensibles a determinadas magnitudes que se usan precisamente para medir, ya sea de forma absoluta o relativa, esas magnitudes. Medir la temperatura, la presión, la tensión, la humedad o la presencia de un determinado gas son algunas de las funcionalidades que llevan a cabo estos sensores. A lo largo de las últimas décadas multitud de sensores y técnicas de interrogación han sido desarrolladas, lo que ha tenido un increíble impacto en multitud de áreas. Uno de los ejemplos más claro es la arquitectura civil, donde los sensores fotónicos juegan un papel fundamental en la monitorización del estado de las estructuras. A pesar de los buenos resultados conseguidos por los sensores ópticos hasta la fecha, las técnicas de interrogación desarrolladas hasta ahora muestran algunas desventajas. Tiempos de medida altos, baja resolución o una gran complejidad son algunas de ellas. En esta tesis doctoral se presenta el diseño y caracterización de diversos sensores fotónicos basados en las ya conocidas redes de difracción de Bragg así como la implementación de nuevas técnicas de interrogación de dichos sensores para intentar eliminar o reducir esas desventajas. Las técnicas de interrogación desarrolladas en este trabajo se basan en la fotónica de microondas, donde la interacción entre las señales ópticas y eléctricas se usa para detectar en este caso los cambios en una determinada magnitud. Las técnicas desarrolladas en este trabajo buscan ser lo más versátiles y escalables posibles para así poder adaptarse a los requerimientos de diferentes escenarios. Encontramos así técnicas que permiten interrogar a miles de sensores con una gran resolución y sensibilidad así como también técnicas de interrogación de sensores puntuales con una enorme sensibilidad y simplicidad tanto en la interrogación como en el sistema usado para ello. También están presentes los resultados obtenidos mediante la colaboración con el instituto de investigación sueco ACREO para el desarrollo de un sensor de campo eléctrico basado en fibras polarizadas donde se han fabricado varias redes de difracción de Bragg.
[CAT] Els sensors òptics son dispositius fotònics sensibles a determinades magnituds que s'usen precisament per a mesurar, ja siga de forma absoluta o relativa, aquestes magnituds. Mesurar la temperatura, la pressió, la tensió, la humitat o la presència d'un determinat gas són algunes de les funcionalitats que realitzen aquestos sensors. Al llarg de les últimes dècades multitud de sensors i tècniques d'interrogació han sigut desenvolupades, i això ha tingut un impacte increïble a multitud d'àrees. Un dels exemples més clar es l'arquitectura civil, on aquestos sensors juguen un paper fonamental en la monitoratge de l'estat de les estructures. Encara que els resultats aconseguits han sigut bons, les tècniques d'interrogació desenvolupades fins ara mostren alguns desavantatges. Temps de mesurament alt, baixa resolució o una gran complexitat són algun d'ells. A aquesta tesi doctoral es presenta el disseny i caracterització de diversos sensors fotònics basats en les ja conegudes xarxes de difracció de Bragg així com l'implementació de noves tècniques d'interrogació per a intentar eliminar o reduir aquestos inconvenients. Les tècniques d'interrogació desenvolupades en aquest treball es basen en la fotònica de microones, on l'interacció entre les senyals òptiques i elèctriques s'usa per a detectar en aquest cas els canvis en una determinada magnitud. Les tècniques desenvolupades en aquest treball busquen ser el més versàtils i escalables possibles per a poder adaptar-se als requeriments dels diferents escenaris. Trobem així tècniques que permeten interrogar milers de sensors amb una gran resolució i sensitivitat però també tècniques que permeten interrogar sensors puntuals amb una increïble sensitivitat mostrant una gran simplicitat en el seu disseny. També estan presents els resultats obtinguts mitjançant la col¿laboració amb l'institut d'investigació suec ACREO per al desenvolupament d'un sensor de camp eléctric basat en FBGs i en fibres polaritzades.
[EN] Optical sensors are photonic devices sensitive to different magnitudes that are used precisely to measure, in an absolute or a relative way, these magnitudes. These optical sensors are nowadays used to measure temperature, pressure, strain, humidity or the presence of a particular gas. In the past few decades a multitude of photonic sensors and different interrogation techniques have been developed, which had a great impact in dozens of different fields. One of the best examples is civil architecture, in which photonic sensors play a fundamental role in order to monitor the condition of the structures. Despite of the good results showed by photonic sensors, the interrogation techniques used show different drawbacks. A large measurement time, low resolution or great complexity are some of them. In this doctoral thesis the design and characterization of a set of different photonic sensors based on the already known fiber Bragg gratings, along with the implementation of new interrogation techniques, are used in order to eliminate or at least reduce these problems. The interrogation techniques developed in this work are based on Microwave Photonics techniques, in which the interaction between optical and electrical signals is used to detect in this case the changes in a particular magnitude. The techniques showed in this work have been designed in order to be as versatile and scalable as possible to have the opportunity to adapt to any requirement in different scenarios. In this work techniques that are able to interrogate hundreds or even thousands of sensors with great sensitivity and resolution can be found in addition to techniques that are developed to interrogate individual sensors with an enormous sensitivity. The work carried out in collaboration with the Swedish research institute ACREO, based on the development of an electric field sensor based on poled fibers together with FBGs is also present.
Hervás Peralta, J. (2019). Design of photonic sensors based on cavities and new interrogation techniques [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/119754
TESIS
APA, Harvard, Vancouver, ISO, and other styles
13

Akbarinia, Reza. "Techniques d'accès aux données dans des systèmes pair-à-pair." Nantes, 2007. http://www.theses.fr/2007NANT2060.

Full text
Abstract:
Le but de cette thèse est de développer des nouvelles techniques d'accès aux données pour être utilisées par un service de traitement de requêtes dans des environnements P2P. En particulier, nous nous concentrons sur la conception de nouvelles techniques pour répondre à deux types de requêtes importants: les requêtes garantissant la currency des données (en français, la propriété des données d’être courantes, c. -à-d. à jour par rapport aux dernières modifications) et les requêtes top-k. Pour améliorer la disponibilité de données, la plupart des systèmes P2P s’appuient sur la réplication des données, mais sans garantir la currency. Cependant, pour beaucoup d'applications (par ex. Gestion d'agenda), la possibilité d'obtenir les données courantes est très importante. Donc, le service de traitement de requête doit traiter ce problème là. Le second problème que nous abordons est celui des requêtes top-k. Dans un système à grande échelle P2P, les requêtes top-k sont très utiles, par ex. Elles peuvent réduire le trafic du réseau significativement. Il existe des techniques efficaces pour l'exécution de requêtes top-k dans les systèmes distribués, mais elles ne conviennent pas aux systèmes P2P, en particulier aux DHTs. Dans cette thèse, nous donnons d’abord une vue d'ensemble des réseaux P2P actuels, et comparons leurs propriétés du point de vue du traitement de requêtes. Ensuite, nous proposons une solution complète au problème de la recherche d'une réplique courante dans les DHTs. Enfin, nous proposons de nouvelles solutions pour le traitement de requêtes top-k dans les systèmes P2P structuré, c. -à-d. Les DHTs, ainsi que les systèmes non structurés. Nous proposons également de nouveaux algorithmes pour traiter les requêtes top-k sur les listes triées, qui est un modèle très général. Nous avons validé nos solutions par une combinaison d'implémentation et de simulation ; Les résultats montrent de très bonnes performances, en termes du coût de communication et de temps de réponse
The goal of this thesis is to contribute to the development of new data access techniques for query processing services in P2P environments. We focus on novel techniques for two important kinds of queries: queries with currency guarantees and top-k queries. To improve data availability, most P2P systems rely on data replication, but without currency guarantees. However, for many applications which could take advantage of a P2P system (e. G. Agenda management), the ability to get the current data is very important. To support these applications, the query processing service must be able to efficiently detect and retrieve a current, i. E. Up-to-date, replica in response to a user requesting a data. The second problem which we address is supporting top-k queries which are very useful in large scale P2P systems, e. G. They can reduce the network traffic significantly. However, efficient execution of these queries is very difficult in P2P systems because of their special characteristics, in particular in DHTs. In this thesis, we first survey the techniques which have been proposed for query processing in P2P systems. We give an overview of the existing P2P networks, and compare their properties from the perspective of query processing. Second, we propose a complete solution to the problem of current data retrieval in DHTs. We propose a service called Update Management Service (UMS) which deals with updating replicated data and efficient retrieval of current replicas based on timestamping. Third, we propose novel solutions for top-k query processing in structured, i. E. DHTs, and unstructured P2P systems. We also propose new algorithms for top-k query processing over sorted lists which is a general model for top-k queries in many centralized, distributed and P2P systems, especially in super-peer networks. We validated our solutions through a combination of implementation and simulation and the results show very good performance, in terms of communication and response time
APA, Harvard, Vancouver, ISO, and other styles
14

Beyer, Bradford. "False Confessions from the Viewpoint of Federal Polygraph Examiners." ScholarWorks, 2016. https://scholarworks.waldenu.edu/dissertations/3085.

Full text
Abstract:
While confessions are a powerful form of evidence, innocent people sometimes confess to crimes they did not commit. Many researchers have studied false confessions through laboratory experiments with university students or by focusing on proven cases of false confession. These approaches have led many researchers to form a conceptual framework that law enforcement interrogative methods are a key cause of false confessions. A gap exists in the literature as few researchers have queried law enforcement about false confessions or consulted with officers who specialize in interrogation. For this study, a qualitative case study approach was used to explore the experiences of 13 federal law enforcement polygraph examiners who specialize in interrogation. Telephone interviews were conducted regarding their approach to criminal interrogation, their experiences with false confessions, and the circumstances when false confessions were elicited. NVivo software was used to organize the data. Common themes in interview responses were identified and reduced to a simplified format that could be understood in the context of the research questions. The themes identified that participants conduct themselves professionally, they treat criminal subjects respectfully, they avoid unethical interrogative practices, and false confessions result from individual subject characteristics and police misconduct. No participants reported eliciting a false confession. These findings suggest that false confession researchers may have a biased view of how law enforcement officers interrogate due to their overreliance on laboratory experimentation and their focus on false confession cases. This study promotes positive social change by increasing truthful confessions, decreasing false confessions, and providing a more accurate view of what occurs during real world criminal interrogations.
APA, Harvard, Vancouver, ISO, and other styles
15

Rezgui, Yacine. "Intégration des systèmes d'informations techniques pour l'exploitation des ouvrages." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1994. http://tel.archives-ouvertes.fr/tel-00523175.

Full text
Abstract:
La gestion de l'information technique et administrative produite durant le cycle de vie d'un projet de construction est envisageable via une description structurée des données. Cette description destinée à l'utilisateur mais aussi à l'ordinateur peut s'exprimer selon un langage (tel EXPRESS) qui devrait permettre l'inter-opérabilité des systèmes informatiques qui la mettent en oeuvre. Ces derniers manipulent ainsi une structure unique et non ambiguë de données, assurant de la sorte l'intégrité et la cohérence de l'information produite et manipulée. La description de cette structure est communément appelée "Modèle de Données". Le document est le support favori de description d'un projet d'ingénierie. Il constitue la base conceptuelle et réglementaire de tout processus industriel. L'analyse des documents produits durant le cycle de vie d'un projet révèle l'importance de leur cadre descriptif, législatif et juridique, comme en témoigne l'exemple du Cahier des Clauses Techniques Particulières (CCTP). Le CCTP est un des documents essentiels issu des études détaillées d'un projet. Il se distingue notamment par son volume, et par la pertinence de son contenu : il définit les conditions particulières d'exécution des ouvrages et complète leur description faite au travers des plans techniques. La consultation des entrepreneurs impose la répartition des corps d'état en lots de travaux. Les conséquences essentielles d'une telle démarche concernent la coordination de l'exécution des ouvrages et les responsabilités postérieures à leur achèvement. Tous ces détails et notamment tous ceux portant sur les limites de prestations entre lots doivent être judicieusement traités par le lot en question. Ainsi, le souci actuel des professionnels du bâtiment est de pouvoir produire au moment utile et opportun pour un prescripteur donné, un descriptif de qualité, compatible avec ceux précédemment approuvés, et fidèle à la description réelle du projet, fournie par un modèle de données du bâtiment. Cette thèse se propose de démontrer la possibilité de génération de pièces écrites via un modèle de données supportant la description formelle, physique et performancielle d'un projet de construction. Il s'agit de proposer une structure logique de document, à partir de laquelle est dérivée la définition type du CCTP de référence (DTD CCTP) en langage SGML. Les éléments de la DTD sont ensuite instanciés afin de produire la version balisée du CCTP. Une telle mise en oeuvre permet entre autres la génération du sommaire, des listes de références ainsi que des liens hypertexte internes et externes au document. Nous proposons par la suite un modèle d'association permettant l'indexation des concepts du modèle de données du bâtiment par des items documentaires du CCTP balisé. C'est au travers des instances de ce modèle qu'est produit le CCTP projet, moyennant tous les contrôles de cohérences internes et externes au document. Cette approche assure une qualité maximale des pièces descriptives d'un projet et contribue à la diminution des risques d'erreurs liés au processus complexe de conception / réalisation / maintenance d'une opération de construction. En guise de conclusion, nous proposons une généralisation de cette approche à tout type de document "projet".
APA, Harvard, Vancouver, ISO, and other styles
16

Kouomou, Choupo Anicet. "Améliorer la recherche par similarité dans une grande base d'images fixes par des techniques de fouille de données." Rennes 1, 2006. https://tel.archives-ouvertes.fr/tel-00524418.

Full text
Abstract:
Les images fixes peuvent, entre autre, être décrites au niveau pixel par des descripteurs visuels globaux de couleur, de texture ou de forme. La recherche par le contenu exploite et combine alors ces descripteurs dont le coût de calcul est d'autant plus important que la taille de la base d'images est grande. Les résultats de la recherche sont ensuite classés en fonction de leur similarité à la requête soumise et présentés à l'utilisateur sous forme de liste ordonnée. Un sous-ensemble de descripteurs pourrait cependant suffire à répondre à une recherche par similarité beaucoup plus rapidement, tout en gardant une qualité acceptable des résultats de recherche. Nous proposons pour cela une méthode de sélection automatique des descripteurs visuels qui exploite les règles d'association pour élaborer des stratégies d'exécution réduisant le temps de la recherche par le contenu dans de grandes bases d'images fixes. Dans cette thèse, nous présentons également comment une recherche par le contenu peut être adaptée pour proposer des résultats intermédiaires qui sont fusionnés de façon progressive avec l'avantage pour l'utilisateur, d'une part, de ne pas attendre que toute la base ait été parcourue avant de fournir un résultat et, d'autre part, de lui permettre de stopper la requête en cours d'exécution. Les expérimentations conduites sur des bases d'images réelles montrent que notre méthode améliore notablement les temps de réponse. Elles confirment aussi l'intérêt de la combinaison des descripteurs globaux pour la recherche d'images par le contenu.
APA, Harvard, Vancouver, ISO, and other styles
17

Baker, Natasha Távora. "The Question of Torture in the Bush Administration's War on Terror." Thesis, Boston College, 2010. http://hdl.handle.net/2345/1347.

Full text
Abstract:
Thesis advisor: Marc Landy
This thesis serves to clarify and concretize the controversy surrounding the debate on torture as it pertains to the War on Terror during the Bush Administration years. It argues that policy and rhetoric decisions made at the top of the political food chain contributed to the instances of abuse and torture that occurred in the various arenas of the war (i.e. Afghanistan, Iraq, Guantanamo, and CIA “black sites”). Such an argument is made through an analysis of what defines interrogation and torture, what techniques were in fact authorized, what factors went into determining which techniques to use, and what influence these techniques had on abuses that occurred. This thesis concludes with policy updates based on lessons learned and briefly addresses the efforts made by the Obama Administration in regards to torture, interrogation, and terrorism
Thesis (BA) — Boston College, 2010
Submitted to: Boston College. College of Arts and Sciences
Discipline: Political Science Honors Program
Discipline: College Honors Program
Discipline: Political Science Honors
APA, Harvard, Vancouver, ISO, and other styles
18

Farooq, Omer. "The Effect of Elaborative Interrogation on the Synthesis of Ideas from Multiple Sources of Information." Kent State University / OhioLINK, 2018. http://rave.ohiolink.edu/etdc/view?acc_num=kent1523279186272151.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Guarnieri, Ambra. "Interrogating cross-cultural dialogue : histories and techniques of representation in post-colonial literature (1954-2001)." Thesis, SOAS, University of London, 2017. http://eprints.soas.ac.uk/24960/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Faessel, Nicolas. "Indexation et interrogation de pages web décomposées en blocs visuels." Thesis, Aix-Marseille 3, 2011. http://www.theses.fr/2011AIX30014/document.

Full text
Abstract:
Cette thèse porte sur l'indexation et l'interrogation de pages Web. Dans ce cadre, nous proposons un nouveau modèle : BlockWeb, qui s'appuie sur une décomposition de pages Web en une hiérarchie de blocs visuels. Ce modèle prend en compte, l'importance visuelle de chaque bloc et la perméabilité des blocs au contenu de leurs blocs voisins dans la page. Les avantages de cette décomposition sont multiples en terme d'indexation et d'interrogation. Elle permet notamment d'effectuer une interrogation à une granularité plus fine que la page : les blocs les plus similaires à une requête peuvent être renvoyés à la place de la page complète. Une page est représentée sous forme d'un graphe acyclique orienté dont chaque nœud est associé à un bloc et étiqueté par l'importance de ce bloc et chaque arc est étiqueté la perméabilité du bloc cible au bloc source. Afin de construire ce graphe à partir de la représentation en arbre de blocs d'une page, nous proposons un nouveau langage : XIML (acronyme de XML Indexing Management Language), qui est un langage de règles à la façon de XSLT. Nous avons expérimenté notre modèle sur deux applications distinctes : la recherche du meilleur point d'entrée sur un corpus d'articles de journaux électroniques et l'indexation et la recherche d'images sur un corpus de la campagne d'ImagEval 2006. Nous en présentons les résultats
This thesis is about indexing and querying Web pages. We propose a new model called BlockWeb, based on the decomposition of Web pages into a hierarchy of visual blocks. This model takes in account the visual importance of each block as well as the permeability of block's content to their neighbor blocks on the page. Splitting up a page into blocks has several advantages in terms of indexing and querying. It allows to query the system with a finer granularity than the whole page: the most similar blocks to the query can be returned instead of the whole page. A page is modeled as a directed acyclic graph, the IP graph, where each node is associated with a block and is labeled by the coefficient of importance of this block and each arc is labeled by the coefficient of permeability of the target node content to the source node content. In order to build this graph from the bloc tree representation of a page, we propose a new language : XIML (acronym for XML Indexing Management Language), a rule based language like XSLT. The model has been assessed on two distinct dataset: finding the best entry point in a dataset of electronic newspaper articles, and images indexing and querying in a dataset drawn from web pages of the ImagEval 2006 campaign. We present the results of these experiments
APA, Harvard, Vancouver, ISO, and other styles
21

Fankam, Nguemkam Chimène. "OntoDB2 : un système flexible et efficient de base de données à base ontologique pour le web sémantique et les données techniques." Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aéronautique, 2009. https://tel.archives-ouvertes.fr/tel-00452533.

Full text
Abstract:
Le besoin d'expliciter la sémantique des données dans différents domaines scientifiques (biologie, médecine, géographie, ingénierie, etc. ) s'est traduit par la définition de données faisant référence à des ontologies, encore appelées données à base ontologique. Avec la multiplication des ontologies de domaine, et le volume important de données à manipuler, est apparu le besoin de systèmes susceptibles de gérer des données à base ontologique de grande taille. De tels systèmes sont appelés des systèmes de gestion de Bases de Données à Base Ontologique (BDBO). Les principales limitations des systèmes de gestion de BDBO existants sont (1) leur rigidité, due à la prise en compte des constructions d'un unique formalisme d'expression d'ontologies, (2) l'absence de support pour les données non standard (spatiales, temporelles, etc. ) et, (3) leur manque d'efficacité pour gérer efficacement les données de grande taille. Nous proposons dans cette thèse un nouveau système de gestion de BDBO permettant (1) de supporter des ontologies basées sur différents formalismes d'ontologies, (2) l'extension de son formalisme d'ontologie pour répondre aux besoins spécifiques des applications, et (3) une gestion originale des données facilitant le passage à grande échelle. Le système que nous proposons dans cette thèse, ontodb2, se fonde sur l'existence d'un ensemble de constructions communes aux différents formalismes d'expression d'ontologies, susceptible de constituer une ontologie noyau, et sur les techniques de gestion des modèles pour permettre l'extension flexible de ce noyau. Nous proposons également une approche originale de gestion des données à base ontologique. Cette approche part du fait que les données à base ontologique peuvent se classifier en données canoniques (instances de classes primitives) et noncanoniques (instances de classes définies). Les instances de classes définies peuvent, sous certaines hypothèses, s'exprimer en termes d'instances de classes primitives. Nous proposons donc de ne représenter que les données canoniques, en transformant sous certaines conditions, toute donnée non-canonique en donnée canonique. Enfin, nous proposons d'exploiter l'interpréteur de requêtes ontologiques pour permettre (1) l'accès aux données non-canoniques ainsi transformées et, (2) d'indexer et pré-calculer les raisonnements en se basant sur les mécanismes du SGBD support. L'ensemble de ces propositions est validé (1) à travers une implémentation sur le SGBD PostgreSQL basée sur les formalismes d'ontologies PLIB, RDFS et OWL Lite, (2) des tests de performances sur des ensembles de données issus de la géographie et du Web
The need to represent the semantics of data in various scientific fields (medicine, geography, engineering, etc…) has resulted in the definition of data referring to ontologies, also called ontology-based data. With the proliferation of domain ontologies, and the increasing volume of data to handle, has emerge the need to define systems capable of managing large size of ontology-based data. Such systems are called Ontology Based DataBase (OBDB) Management Systems. The main limitations of existing OBDB systems are (1) their rigidity, (2) lack of support for non standard data (spatial, temporal, etc…) and (3) their lack of effectiveness to manage large size data. In this thesis, we propose a new OBDB called OntoDB2, allowing (1) the support of ontologies based on different ontology models, (2) the extension of its model to meet specific applications requirements, and (3) an original management of ontology-based data facilitating scalability. Onto DB2 is based on the existence of a kernel ontology, and model-based techniques to enable a flexible extension of this kernel. We propose to represent only canonical data by transforming, under certain conditions, any given non-canonical data to its canonical representation. We propose to use the ontology query language to (1) to access non-canonical data thereby transform and, (2) index and pre-calculate the reasoning operations by using the mechanisms of the underlying DBMS
APA, Harvard, Vancouver, ISO, and other styles
22

Manolescu, Goujot Ioana Gabriela. "Techniques d'optimisation pour l'interrogation des sources de données hétérogènes et distribuées." Versailles-St Quentin en Yvelines, 2001. http://www.theses.fr/2001VERS0027.

Full text
Abstract:
Cette thèse traite plusieurs aspects du traitement de requêtes dans un système relationnel d'intégration de données de type "peer-to-peer". Un tel système permet de partager des ressources hétérogènes et distribuées entre plusieurs sites autonomes et distants. Une resource est une collection de données, ou un programme, que son propriétaire veut partager avec d'autres utilisateurs. Des ressources différentes peuvent avoir des formats différents, p. Ex. , relationnel ou XML : elles seront toutes modéliséees comme des relations. Elles peuvent aussi avoir des capacités de traitement de requêtes très différentes : certaines peuvent évaluer des requêtes, d'autres permettrent uniquement d'accéder à leurs données, tandis que les ressources restreintes permettent d'obtenir des tuples uniquement en fournissant des valeurs pour certains attributs. Cette thèse apporte les contributions suivantes : 1. Modélisation : nous montrons comment utiliser le concept de tables à patterns d'accès pour modéliser des données relationelles, objet, ou XML, ainsi que des programmes. Nous étudions la faisabilité d'une requête SQL sur des tables à patterns d'accès, pour une sémantique de multi-ensemble. 2. Optimisation : nous décrivons l'espace de recherche de l'optimiseur pour des requêtes sur des tables à patterns d'accès. Nous en estimons la taille de manière analytique et experimentale, et décrivons deux algorithmes d'optimisation. 3. Exécution : nous proposons un opérateur BindJoin efficace pour les appels de programmes et les transferts de données volumineuses. Le BindJoin inclut un cache pour éviter des calculs ou des transferts redondants, et peut utiliser la présence des duplicatas pour améliorer son taux de sortie. 4. Translation : nous décrivons une extension de ce système relationnel, lui fournissant une interface utilisateur XML. En particulier, nous proposons une méthode de translation d'une requête XML sur cette interface vers une requête SQL sur les sources de données.
APA, Harvard, Vancouver, ISO, and other styles
23

Philipsson, Anders. "Interrogative Clauses and Verb Morphology in L2 Swedish : Theoretical Interpretations of Grammatical Development and Effects of Different Elicitation Techniques." Doctoral thesis, Stockholm : Centre for Research on Bilingualism, Stockholm University, 2007. http://urn.kb.se/resolve?urn=urn:nbn:se:su:diva-6847.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Voglozin, W. Amenel. "Le résumé linguistique de données structurées comme support pour l'interrogation." Phd thesis, Université de Nantes, 2007. http://tel.archives-ouvertes.fr/tel-00481049.

Full text
Abstract:
Le travail présenté dans cette thèse traite de l'utilisation des résumés de données dans l'in- terrogation. Dans le contexte des résumés linguistiques du modèle SaintEtiQ sur lequel se focalise cette thèse, un résumé est une description du contenu d'une table relationnelle. Grâce à la définition de variables linguistiques, il est possible d'utiliser des termes du langage pour caractériser les données structurées de la table. En outre, l'organisation des résumés en hié- rarchie offre divers niveaux de granularité. Nous nous intéressons à fournir une application concrète aux résumés déjà construits. D'une part, nous étudions les possibilités d'utilisation des résumés dans une interrogation à but descriptif. L'objectif est de décrire entièrement des données dont certaines caractéristiques sont connues. Nous proposons une démarche de re- cherche de concepts et une instanciation de cette démarche. Ensuite, une étude des systèmes d'interrogation flexible, dont certains ont, ainsi que SaintEtiQ, la théorie des sous-ensembles flous comme base, nous permet d'enrichir la démarche proposée par des fonctionnalités plus avancées. D'autre part, nous avons intégré les résumés linguistiques de SaintEtiQ au SGBD PostgreSQL. L'objectif est d'aider le SGBD à identifier des enregistrements. Nous présen- tons un état de l'art des techniques d'indexation, ainsi que le détail de l'implémentation des résumés en tant que méthode d'accès dans PostgreSQL.
APA, Harvard, Vancouver, ISO, and other styles
25

DAUZET, LUCIEN. "La Formation technique en mécanique : 1975-1985 : interrogations complémentaires et contrastées sur les corrélations d'une formation professionnelle avec une culture générale et une correspondance à l'emploi." Lyon 2, 1989. http://www.theses.fr/1989LYO20055.

Full text
Abstract:
L'informatisation des moyens de production dans les industries de la mecanique induit des qualifications nouvelles. Ces qualifications font appel a une maind'oeuvre dont la formation doit s'adapter aux technologies en perpetuelle evolution. Des lors les besoins en formation interrogent l'ensemble des filieres d'enseignement, depuis la formation initiale jusqu'a la formation continue. Des observations en lycee professionnel, en entreprise, en allemagne et au japon constituent une analyse de terrain completee par un regard historiquement et conjoncturellement elargi
Computerization of productive means in industries of the mechanics sector implies acquiring new qualifications by the workers. Such qualifications call upon a labour force whose training must permanently adjust to ever advancing technologies. Therefore the whole body of the teaching network, starting from initial training up to recurrent education, is questionned by training needs. Analyses conducted in a french technical school, and in various enterprises in japan and west germany provide for field observation. These are supported by an historical approach, itself widened conjoncturally by on the basis of unesco, ocde and the european council's recommandations and strategies on adult education
APA, Harvard, Vancouver, ISO, and other styles
26

Stjärneblad, Sebastian. "Kriget mot terrorismen - Paradigmskifte av rättfärdiga metoder i modern krigföring?" Thesis, Malmö högskola, Fakulteten för kultur och samhälle (KS), 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:mau:diva-21934.

Full text
Abstract:
Syftet med denna studie är att analytiskt granska och undersöka de legala aspekter som uppstått i samband med kriget mot terrorismen. Bush-administrationens juridiska argumentation kring praktikerna indefinite detentions och enhanced interrogation techniques står i fokus. Genom att använda en juridisk metod undersöks det huruvida argumentationen är förenlig med internationell rätt för att fastställa praktikernas legala status. Vidare utrönas det genom detta förfarande huruvida praktikerna kan uppnå en juridisk kodifiering internationellt och på sätt bringa ett paradigmskifte av rättfärdiga metoder inom den moderna krigsföringen. Den juridiska analysen påvisar att praktikerna ej är förenliga med internationell rätt och strider mot regleringar inom både den humanitära rätten och mänskliga rättigheter. Slutsatsen är att den amerikanska juridiska argumentationen av indefinite detentions och enhanced interrogation techniques ej kan uppnå någon juridisk kodifiering internationellt och således ej heller bringa något paradigmskifte av rättfärdiga metoder inom den moderna krigsföringen.
The purpose of this study is to analytically review and examine the legal aspects arising in connection with the war on terrorism. The Bush-administration’s legal arguments on the practices indefinite detentions and enhanced interrogation techniques are in focus. By using a legal method it will be examined whether the arguments is consistent with international law to determine the practices legal status. Furthermore, it is ascertained thru this procedure whether the practices can achieve a legal codification internationally and in that way bring a paradigmatic shift of righteous methods in modern warfare. The legal analysis demonstrates that the practices are inconsistent with international law and in conflict with regulations in both humanitarian law and human rights. The conclusion is that the American legal reasoning regarding indefinite detentions and enhanced interrogation techniques cannot achieve any legal codification internationally and thus not bring any paradigmatic shift of righteous methods in modern warfare.
APA, Harvard, Vancouver, ISO, and other styles
27

Delacroix, Quentin. "Un système pour la recherche plein texte et la consultation hypertexte de documents techniques." Clermont-Ferrand 2, 1999. http://www.theses.fr/1999CLF2A001.

Full text
Abstract:
Ce travail est motivé par les difficultés que rencontrent les utilisateurs et producteurs d'informations dans leurs activités au sein de l'entreprise. Une étude réalisée au sein du groupe des labo d'électricité de France a permis de préciser les contraintes liées au traitement des informations et des documents. L'analyse des techniques et outils les plus utilisés pour rechercher et consulter informations et documents montre que les solutions actuelles ne sont pas complètement adaptées aux exigences industrielles. Un modèle des données/informations de l'entreprise qui considère leurs caractéristiques matérielles, organisationnelles et temporelles est présenté. Les fonctionnalités du système que nous proposons pour faciliter l'accès aux informations sont exposées. Le système RECITAL tient compte aussi bien des attentes et besoins des utilisateurs et producteurs d'informations que des préoccupations des administrateurs de systèmes informatiques. RECITAL est basé sur une architecture trois-tiers utilisant les techniques et standards de l'internet/intranet. Le 1er tiers est composé de clients universels (butineurs Web) utilisés par les acteurs de l'entreprise. Le 2d tiers est le système RECITAL lui-même. Il assure la localisation des informations, la conversion éventuelle des documents vers les formats universels (par ex HTML) et l'association des documents en générant automatiquement des liens hypertextes. Le 3e tiers regroupe les systèmes de stockage de l'entreprise. Les composants de cette architecture peuvent être répartis sur les différents sites de l'entreprise. Les principaux processus de RECITAL que sont l'indexation, la recherche plein texte et l'hypertextualisation de documents sont détaillés. Ils s'appuient sur la reconnaissance de chaînes de caractères (pattern matching). Les fonctionnalités essentielles et innovantes du système proposé sont illustées en utilisant une maquette de RECITAL. Ainsi, l'association automatique (linkage) des versions successives d'un même document et le respect des permissions d'accès aux documents lors de la recherche interactive d'informations et de la génération dynamique de liens hypertextes sont montrées
APA, Harvard, Vancouver, ISO, and other styles
28

Silva, Junior Marco Aurélio Jucá da. "Interrogação de sensores a fibra óptica através de métodos computacionais." Universidade Federal de Juiz de Fora (UFJF), 2018. https://repositorio.ufjf.br/jspui/handle/ufjf/8002.

Full text
Abstract:
Submitted by Geandra Rodrigues (geandrar@gmail.com) on 2018-11-12T16:13:04Z No. of bitstreams: 1 marcoaureliojucadasilvajunior.pdf: 2424952 bytes, checksum: 8217d429e23695cdfd64e035686f02db (MD5)
Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2018-11-23T11:04:13Z (GMT) No. of bitstreams: 1 marcoaureliojucadasilvajunior.pdf: 2424952 bytes, checksum: 8217d429e23695cdfd64e035686f02db (MD5)
Made available in DSpace on 2018-11-23T11:04:13Z (GMT). No. of bitstreams: 1 marcoaureliojucadasilvajunior.pdf: 2424952 bytes, checksum: 8217d429e23695cdfd64e035686f02db (MD5) Previous issue date: 2018-09-11
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
Sensores a fibra óptica tornaram-se uma alternativa popular aos sensores eletrônicos tradicionais devido às suas inúmeras vantagens. Um desafio importante no emprego de sensores ópticos é a interrogação do sensor, isto é, recuperar o valor da medição a partir da saída do sensor. Este trabalho visa a apresentar uma forma simples e eficaz de interrogar um sensor baseado em grade de Bragg em fibra (FBG) utilizando filtros ópticos e métodos computacionais convenientes. Como exemplo, foi escolhido um sensor de temperatura, embora o sistema de interrogação possa lidar com qualquer medição, sendo calibrado adequadamente. Esse sistema de interrogação é capaz de fornecer o valor preciso da temperatura sem medir diretamente o deslocamento do comprimento de onda de ressonância ou realizar qualquer cálculo de Fourier. Os métodos foram implementados e o treinamento realizado utilizando dados simulados. Resultados de simulação são apresentados e comparados a um método tradicional de interrogação. O sistema proposto neste trabalho mostrou um desempenho excelente ao identificar a temperatura a partir da saída do sensor e mostrou maior precisão em relação ao método tradicional apresentado.
Optical fiber sensors have become a popular alternative to traditional electronic sensors due to their numerous advantages. An important challenge in deploying optical sensors is the interrogation of the sensor, that is, recovering the measurement value from the sensor output. This work aims to present a simple yet effective way of interrogating a fiber Bragg grating (FBG) sensor using optical filters and suitable computational methods. As an example, a temperature sensor was analyzed, although the interrogation system is able to deal with any measurement, by calibrating it suitably. This interrogation system is capable of giving the precise temperature value without directly measuring the resonance wavelength shift or performing any Fourier calculations. The methods were implemented and the training was accomplished using simulated data. Simulation results are presented and compared to a traditional method of interrogation. The system proposed in this work showed excellent performance in identifying the temperature from the sensor output and showed higher precision than the traditional method presented.
APA, Harvard, Vancouver, ISO, and other styles
29

Dupuis, Arnaud. "Intégration et pondération d'indices visuels : application à la segmentation, au groupement et à la recherche d'images." Compiègne, 2004. http://www.theses.fr/2004COMP1516.

Full text
Abstract:
Les travaux présentés dans ce mémoire ont pour but d'étudier un système de segmentation automatisé en vue d'une application à la recherche d'images de type multimédia dans une base de données. Pour cela, nous avons, dans un premier temps, étudié les principaux algorithmes de segmentation disponibles dans la littérature. Cette étude nous a conduit à analyser la problématique liée à la multiplication des informations utiles à la segmentation. Ainsi, la conception d'un algorithme de segmentation pour images multimédia impose d'intégrer un large panel d'informations telles que les couleurs, les textures, les contours, etc. Toutefois, ces informations présentent des aspects discriminants (au sens de la segmentation), variables en fonction de l'image. Partant de ce constat, nous avons, dans un deuxième temps, étudié des méthodes d'intégration d'informations, susceptibles de répondre à cette problématique. Puis, nous avons proposé un système itératif d'intégration d'indices visuels basé sur une analyse en composantes principales et utilisant un ensemble de matrices d'affinités inter-régions comme données initiales. De nombreux tests nous ont permis de vérifier les capacités d'adaptation et de sélection de notre système en fonction de l'image. Afin d'évaluer notre méthode de segmentation, nous l'avons comparé à d'autres algorithmes en utilisant la mesure d'erreur BCE qui offre la possibilité de comparer les résultats fournis automatiquement avec des segmentations obtenues manuellement. Enfin, la dernière partie de ce mémoire, propose d'utiliser le résultat de segmentation comme une signature propre à chaque image que nous intégrons au sein d'un système de recherche dans une base. L'algorithme de recherche utilise un principe de sélection et de pondération des informations similaire à celui proposé dans la méthode segmentation. Les tests effectués ont permis de présenter des résultats encourageants
The purpose of the work presented in this thesis is to study an automated multimedia image segmentation system with a view to image retrieval. Thus, in a first time, we have studied the main segmentation algorithms available in the literature. This study led us to analyze the problems related to the multiplication of information useful for segmentation. Thus, the design of the multimedia image segmentation algorithm requires introducing much information such as colours, textures, contours, etc. However, this information presents different discriminating aspects depending on the image. Then, in a second time, we have studied some methods of information combination, likely to answer these problems. Then, we proposed an iterative system of visual cue combination based on a principal components analysis, the latter using a set of inter-region affinity matrices as initial data. Many tests enabled us to check the adaptation and selection capacities of our system depending on the image. So, to access our segmentation method, we have compared it with other algorithms by using the BCE error measure making it possible to compare the results provided automatically with human segmentations. To finish, the last part of this work, proposes to use the result of segmentation as a specific signature to each image which we integrate in an image retrieval system. This algorithm uses a principle similar to the one employed for segmentation to select and weight the relevant information. The tests carried out made it possible to have encouraging results
APA, Harvard, Vancouver, ISO, and other styles
30

Camacho, Rodriguez Jesus. "Efficient techniques for large-scale Web data management." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112229/document.

Full text
Abstract:
Le développement récent des offres commerciales autour du cloud computing a fortement influé sur la recherche et le développement des plateformes de distribution numérique. Les fournisseurs du cloud offrent une infrastructure de distribution extensible qui peut être utilisée pour le stockage et le traitement des données.En parallèle avec le développement des plates-formes de cloud computing, les modèles de programmation qui parallélisent de manière transparente l'exécution des tâches gourmandes en données sur des machines standards ont suscité un intérêt considérable, à commencer par le modèle MapReduce très connu aujourd'hui puis par d'autres frameworks plus récents et complets. Puisque ces modèles sont de plus en plus utilisés pour exprimer les tâches de traitement de données analytiques, la nécessité se fait ressentir dans l'utilisation des langages de haut niveau qui facilitent la charge de l'écriture des requêtes complexes pour ces systèmes.Cette thèse porte sur des modèles et techniques d'optimisation pour le traitement efficace de grandes masses de données du Web sur des infrastructures à grande échelle. Plus particulièrement, nous étudions la performance et le coût d'exploitation des services de cloud computing pour construire des entrepôts de données Web ainsi que la parallélisation et l'optimisation des langages de requêtes conçus sur mesure selon les données déclaratives du Web.Tout d'abord, nous présentons AMADA, une architecture d'entreposage de données Web à grande échelle dans les plateformes commerciales de cloud computing. AMADA opère comme logiciel en tant que service, permettant aux utilisateurs de télécharger, stocker et interroger de grands volumes de données Web. Sachant que les utilisateurs du cloud prennent en charge les coûts monétaires directement liés à leur consommation de ressources, notre objectif n'est pas seulement la minimisation du temps d'exécution des requêtes, mais aussi la minimisation des coûts financiers associés aux traitements de données. Plus précisément, nous étudions l'applicabilité de plusieurs stratégies d'indexation de contenus et nous montrons qu'elles permettent non seulement de réduire le temps d'exécution des requêtes mais aussi, et surtout, de diminuer les coûts monétaires liés à l'exploitation de l'entrepôt basé sur le cloud.Ensuite, nous étudions la parallélisation efficace de l'exécution de requêtes complexes sur des documents XML mis en œuvre au sein de notre système PAXQuery. Nous fournissons de nouveaux algorithmes montrant comment traduire ces requêtes dans des plans exprimés par le modèle de programmation PACT (PArallelization ConTracts). Ces plans sont ensuite optimisés et exécutés en parallèle par le système Stratosphere. Nous démontrons l'efficacité et l'extensibilité de notre approche à travers des expérimentations sur des centaines de Go de données XML.Enfin, nous présentons une nouvelle approche pour l'identification et la réutilisation des sous-expressions communes qui surviennent dans les scripts Pig Latin. Notre algorithme, nommé PigReuse, agit sur les représentations algébriques des scripts Pig Latin, identifie les possibilités de fusion des sous-expressions, sélectionne les meilleurs à exécuter en fonction du coût et fusionne d'autres expressions équivalentes pour partager leurs résultats. Nous apportons plusieurs extensions à l'algorithme afin d’améliorer sa performance. Nos résultats expérimentaux démontrent l'efficacité et la rapidité de nos algorithmes basés sur la réutilisation et des stratégies d'optimisation
The recent development of commercial cloud computing environments has strongly impacted research and development in distributed software platforms. Cloud providers offer a distributed, shared-nothing infrastructure, that may be used for data storage and processing.In parallel with the development of cloud platforms, programming models that seamlessly parallelize the execution of data-intensive tasks over large clusters of commodity machines have received significant attention, starting with the MapReduce model very well known by now, and continuing through other novel and more expressive frameworks. As these models are increasingly used to express analytical-style data processing tasks, the need for higher-level languages that ease the burden of writing complex queries for these systems arises.This thesis investigates the efficient management of Web data on large-scale infrastructures. In particular, we study the performance and cost of exploiting cloud services to build Web data warehouses, and the parallelization and optimization of query languages that are tailored towards querying Web data declaratively.First, we present AMADA, an architecture for warehousing large-scale Web data in commercial cloud platforms. AMADA operates in a Software as a Service (SaaS) approach, allowing users to upload, store, and query large volumes of Web data. Since cloud users support monetary costs directly connected to their consumption of resources, our focus is not only on query performance from an execution time perspective, but also on the monetary costs associated to this processing. In particular, we study the applicability of several content indexing strategies, and show that they lead not only to reducing query evaluation time, but also, importantly, to reducing the monetary costs associated with the exploitation of the cloud-based warehouse.Second, we consider the efficient parallelization of the execution of complex queries over XML documents, implemented within our system PAXQuery. We provide novel algorithms showing how to translate such queries into plans expressed in the PArallelization ConTracts (PACT) programming model. These plans are then optimized and executed in parallel by the Stratosphere system. We demonstrate the efficiency and scalability of our approach through experiments on hundreds of GB of XML data.Finally, we present a novel approach for identifying and reusing common subexpressions occurring in Pig Latin scripts. In particular, we lay the foundation of our reuse-based algorithms by formalizing the semantics of the Pig Latin query language with extended nested relational algebra for bags. Our algorithm, named PigReuse, operates on the algebraic representations of Pig Latin scripts, identifies subexpression merging opportunities, selects the best ones to execute based on a cost function, and merges other equivalent expressions to share its result. We bring several extensions to the algorithm to improve its performance. Our experiment results demonstrate the efficiency and effectiveness of our reuse-based algorithms and optimization strategies
APA, Harvard, Vancouver, ISO, and other styles
31

Hernell, Maria, Lovisa Mettou, and Josefin Olsson. "Tala är silver, tiga är guld : Om målsägande flickors utrymme och möjlighet till fritt berättande i förhör om misstänkta sexuella brott. En jämförelsestudie av förhörsledares språk ur ett genusperspektiv." Thesis, Örebro University, School of Law, Psychology and Social Work, 2010. http://urn.kb.se/resolve?urn=urn:nbn:se:oru:diva-10885.

Full text
Abstract:

The purpose of this study is to analyze the interrogation transcripts of interviews with girls between the age of 11 and 16 who are alleged victims of sexual crimes. The examination is done from a gender perspective, by comparing six interrogations by male interrogators and eight interrogations by female interrogators. The study has used linguistic indicators relating to the interrogation methodological guidelines, in order to highlight how the interrogators give girls the opportunity and space to share their experience of the alleged sexual offense. Text material is categorized based on themes and analyzed in detail to find any gender-specific patterns of hearing leaders and if the girls are given space and opportunity for a free storytelling. The results show that in several themes, differences between the male and the female interrogators can be discerned. It has emerged that male interrogators in this study have a greater use of social support, that there are various techniques used by men and women between how the names of sexual words are created and that the female interrogation leaders questioning on average are longer and have a higher frequency of issues. In other dimensions, that has been investigated the differences are not significant.

APA, Harvard, Vancouver, ISO, and other styles
32

Prevost, Raphaël. "Méthodes variationnelles pour la segmentation d'images à partir de modèles : applications en imagerie médicale." Phd thesis, Université Paris Dauphine - Paris IX, 2013. http://tel.archives-ouvertes.fr/tel-00932995.

Full text
Abstract:
La segmentation d'images médicales est depuis longtemps un sujet de recherche actif. Cette thèse traite des méthodes de segmentation basées modèles, qui sont un bon compromis entre généricité et capacité d'utilisation d'informations a priori sur l'organe cible. Notre but est de construire un algorithme de segmentation pouvant tirer profit d'une grande variété d'informations extérieures telles que des bases de données annotées (via l'apprentissage statistique), d'autres images du même patient (via la co-segmentation) et des interactions de l'utilisateur. Ce travail est basé sur la déformation de modèle implicite, une méthode variationnelle reposant sur une représentation implicite des formes. Après avoir amélioré sa formulation mathématique, nous montrons son potentiel sur des problèmes cliniques difficiles. Nous introduisons ensuite différentes généralisations, indépendantes mais complémentaires, visant à enrichir le modèle de forme et d'apparence utilisé. La diversité des applications cliniques traitées prouve la généricité et l'efficacité de nos contributions.
APA, Harvard, Vancouver, ISO, and other styles
33

Raye, Julie Knowles. "An electromagnetic interrogation technique utilizing pressure-dependent polarization." 2002. http://www.lib.ncsu.edu/theses/available/etd-05242002-121956/unrestricted/etd.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Kotek, Tomáš. "Taktika výslechu." Master's thesis, 2018. http://www.nusl.cz/ntk/nusl-389091.

Full text
Abstract:
76 Abstract: Interrogation tactics This thesis is focused on the interrogation management tactic, ie, in brief, how interrogator should conduct an interrogation to be both legal and successful. My aim in this work was to address the basic complexity of interrogation management and describe the basic procedures and techniques by which interrogator can obtain true testimony from the majority of interrogated groups. Due to the limited scope of this work, I could not incorporate specific areas of interrogation situations (questioning of juvenile, sick, etc.), so I focused mainly on interviews with the three main groups of people interrogated, which are interviews of people who can testify and want to, who want to, but can not and who do not want to testify, though they can, especially in situations where these persons are witnesses or subjects accused. In the first chapter of this thesis I deal with questioning from a general point of view of law, psychology and criminology, wherein most of the views and theories mentioned can be related to almost all specific interrogation situations. In this chapter I provided the psychological aspect of the interrogation a little more space than I originally intended, but I think it is substantiated. The psychological side of the interrogation situation is very complicated...
APA, Harvard, Vancouver, ISO, and other styles
35

Rahimi, Somayyeh. "Free Spectral Range Matched Interrogation Technique for Wavelength Demodulation of Fiber Bragg Grating Sensors." Thesis, 2009. http://hdl.handle.net/10012/4232.

Full text
Abstract:
Free Spectral Range Matched Interrogation (FSRMI) technique for wavelength demodulation of fiber Bragg grating sensors. We designed and tested a new wavelength demodulation system based on free-spectral-range-matched interrogation which employs a tunable fiber Fabry-Perot interferometer (FPI) and a multi-channel bandpass filter. This technique was deployed to test fiber Bragg gratings (FBG), long period gratings (LPG) and tilted fiber Bragg gratings (TFBG). In the experimental setup, a broadband source launches light into a fiber Bragg grating under test and the reflection/transmission spectrum is fed into a tunable FPI. By tuning an external bias applied to the FPI, the transmission spectrum of FPI scans over a wavelength range. The input optical signal is therefore selectively passed through the FPI and then fed into a four-channel bandpass filter followed by four photodetectors. The optical signal is converted to electrical signal by the photodiodes and is acquired by a data acquisition system. Since a bandpass filter with four channels are used in this interrogation system it can scan four distinguished wavelength ranges simultaneously and thus the scan rate is four time faster. We used this setup for doing some temperature and strain sensitivity measurements on some fiber gratings. Strain sensitivity measurements were done on FBG, TFBG and LPG and temperature sensitivity measurements were performed on TFBG. The strain and temperature sensitivity coefficients of these fiber Bragg grating sensors were obtained from experimental data. Our results show the potential of the integration of the FSRMI system with fiber Bragg gratings for temperature and strain multiple-sensor arrays with high sampling speed and high accuracy.
APA, Harvard, Vancouver, ISO, and other styles
36

Carvalho, Joel Pedro Peixoto de. "Optical sensing: fiber structures and interrogation techniques." Tese, 2013. https://repositorio-aberto.up.pt/handle/10216/71707.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Carvalho, Joel Pedro Peixoto de. "Optical sensing: fiber structures and interrogation techniques." Doctoral thesis, 2013. https://repositorio-aberto.up.pt/handle/10216/71707.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Gibson, Nathan Louis. "Terahertz-based electromagnetic interrogation techniques for damage detection." 2004. http://www.lib.ncsu.edu/theses/available/etd-06232004-175831/unrestricted/etd.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Brousilová, Klára. "Sugestibilita dětských svědků v rámci trestního řízení z pohledu psychologie." Master's thesis, 2019. http://www.nusl.cz/ntk/nusl-393583.

Full text
Abstract:
Master's thesis follows on bachelor thesis Specifics of children's testimony from the point of view of Psychology, expanding chapter about suggestibility. Theory involves phenomenon of suggestibility with emphasis put on Gudjonsson's concept of suggestibility in conjunction with interrogative events. Further chapters delve into scientific findings regarding hazardous factors enhancing or decreasing suggestibility of young witnesses, among others are age, cognitive and psychosocial factors. Thesis also presents the very own types of discovered and described interrogation techniques utilizing elements of suggestion like stereotype induction, leading questions, positive and negative consequences or peer pressure. Paper presents results of empirical research, reproduced experiment which was used as tool mapping suggestibility dangers among Czech children. Focused on pre-school children subjected to heavily suggestive interrogation about event they experienced, through later interviews it was measured to which extent highly suggestive interviews altered perceived reality.
APA, Harvard, Vancouver, ISO, and other styles
40

KUAN, CHIA-YING, and 官家瑩. "A Study of Techniques and Limits in the Interrogation of Suspects - Focused on Police Practices." Thesis, 2019. http://ndltd.ncl.edu.tw/handle/dr7y5a.

Full text
Abstract:
碩士
中央警察大學
刑事警察研究所
107
Articles 98 and 156 of Taiwan’s Code of Criminal Procedure forbid the use of illegitimate interrogation means to secure confession. Confession obtained by aforementioned means cannot accepted as sufficient evidence. Nowadays it is rare for investigators to initiate investigation with physical force such as torture; however, the “interrogation techniques” used in practice may constitute inducement, fraud or other improper means and put investigators at risk of violation of the laws. Some studies show that the current domestic interrogation practice is similar to the Reid Technique widely used in the United States. This paper attempts to evaluate the similarities and differences between two techniques, analyze the frequently used interrogation methods according to the domestic interrogatory records, thus expose the problems of current interrogation works in Taiwan. The finding in this study is that the improved model for police interrogation which advised by National Conference on Judicial Reform still requires the integration of practical operation and training. By connecting theory and practice, a systematized interrogation model exclusive to Taiwan may be established.
APA, Harvard, Vancouver, ISO, and other styles
41

Regmi, Raju. "Light Sheet Based Microfluidic Flow Cytometry Techniques for High throughput Interrogation and High-resolution Imaging." Thesis, 2014. http://hdl.handle.net/2005/3108.

Full text
Abstract:
Light allows to non-invasively study the complex and dynamic biological phenomenon undergoing within cells and tissues in their native state. The development of super-resolution microscopes in recent years has helped to overcome the fundamental limitation imposed by Abbe’s diffraction limit, thereby revolutionizing the field of molecular and cellular biology. With the advancement of various super-resolution techniques (like STED, PALM, and 4Pi) it is now possible to visualize the nanometeric cellular structures and their dynamics in real time. The limitations of existing fluorescence microscopy techniques are: poor axial resolution when compared to their lateral counterpart, and their inability to produce high resolution images of dynamic samples. This thesis covers two broadly connected areas of fluorescence imaging techniques while addressing these limitations. First, the PSF engineering and spatial filtering technique for axial super-resolution microscopy and second, the integration of light sheet illumination PSF with microfluidic cytometry for imaging cells on-the-go. The first chapter gives an explicit description on the fundamentals of fluorescence imaging. This introductory chapter includes a variety of optical microscopes, PSF engineering, the resolution limit imposed by the wave nature of light, the photochemistry of the fluorescent dyes, and their proper selection for fluorescence experiments. In addition to the state-of-art imaging techniques, namely Laser Scanning Confocal Microscopy and Light Sheet Microscopy, this chapter also gives a brief explanation on the evolution of imaging cytometry techniques. Their high speed analytic capability (i.e sorting and counting) makes this technique an important tool in health care diagnosis and other various biomedical applications. The chapter ends with a discussion on the operating principle of the flow cytometers and their limitations. The second chapter in this thesis describes the spatial filtering technique for engineering the PSF to eliminate the side-lobes in the system PSF of the 4Pi Confocal Microscopes. Employing an amplitude mask with binary light transmission windows (also called binary filters), the incident light is structured to minimize the secondary lobes. These lobes are responsible for exciting the off-focal planes in the specimen, hence provide incorrect map of the fluorophore distribution in the object. The elimination of the side-lobes is essential for the artifact-free axial super-resolution microscopy. This second chapter describes the spatial filtering technique in details (its mathematical formulation, application in fluorescence microscopy for generation of desired PSF including Bessellike beam). Specifically, spatial filtering technique is employed in 4Pi type-C Confocal Microscope. The spatial mask used results in the reduction of the side-lobes in 1PE case while they are nearly eliminated in 2PE variant of the proposed technique. The side-lobes are reduced by 46% and 76% for 1PE and 2PE when compared to the existing 4Pi type-C Confocal Microscope system. Moreover, OTF of the proposed system confirms the presence of higher frequencies in the Fourier domain indicating high resolution imaging capability. Apart from the resolution in lateral and axial dimension, achieving high resolution while imaging dynamic samples is another challenge that is limiting the field of fluorescence microscopy to flourish. The third and fourth chapters are entirely dedicated towards the work that was carried out to develop imaging techniques on a microfluidic platform for imaging dynamic samples. The fusion of microscopy and flow cytometry has given rise to the celebrated field of imaging flow cytometry. In recent years, the focus has shifted towards miniaturized cytometry devices. Apart from the reduced cost of the sample reagents and the assays, portability and easy handling make the microfluidic devices more relevant to developing countries. The commercially available cytometers are bulky and quite costly. In addition to these practical concerns, they are complex in operation and limited in performance. Most of the existing cytometers use different inlets for sheath and sample flow to achieve the hydrodynamic focusing of the sample assays in a narrow and confined region. The laser beam in the illumination arm interrogates with the flowing samples at this region and the response is captured by the detection optics. The same principle is extensively used in most of the microfluidic based flow cytometers reported till date. Apart from the hydrodynamic force other effects like electro-osmotic, acoustic, and dielectrophoresis have also been exploited to achieve flow focusing in the microfluidic channel. Despite omitting the necessity of external syringe pump as required in pressure driven based cytometers, they all rely upon point-source based excitation scheme and thereby can not interrogate the cells flowing through the entire microfluidic channel. The third chapter describes the integration of light sheet illumination PSF with microfluidic flow cytometry for simultaneous counting and imaging cells on-the-go. The chapter starts with the description on photolithography procedure for preparing SU8 master and PDMS casting procedure adopted to prepare dedicated microfluidic chips for the developed imaging system. The research work reported here demonstrates the proof-ofprinciple of light sheet based imaging flow cytometer. A light sheet fills the entire microfluidic channel and thus omits the necessity of flow focusing and point-scanning based technology. Another advantage lies in the orthogonal detection geometry that totally cuts-off the incident light, thereby substantially reducing the background in the acquired images. Compared to the existing state-of-the-art techniques, the proposed technique shows marked improvement. Using fluorescently coated Saccharomyces cerevisiae cells, cell counting with throughput as high as 2090 cells/min was recorded. Overall the proposed system is cost-effective and simple in channel geometry. Apart from achieving efficient counting in operational regime of low flow rate, high contrast images of the dynamic samples are also acquired using the proposed cytometry technique. Further, visualization of intra-cellular organelles is achieved during flow in light sheet based high-throughput cytometry system. The fourth chapter demonstrates the proof of concept of light-sheet-based microfluidic cytometer in conjugation with 2π/3 detection system for high-throughput interrogation and high resolution imaging. This system interrogates the flow channel using a sheet of light rather than the existing point-scanning based techniques. This ensures single-shot scanning of specimens flowing through the microfluidic flow channel at variable flow rates. In addition to high throughput counting at low flow rate, visualization of the intra-cellular organelle (mitochondrial network in human cancerous cells) during flow is achieved with sub-cellular resolution. Using mitochondrial network tagged HeLa cells, a maximum count of 2400 cells/min at the optimized flow rate of 700 nl/min was recorded. The 2π/3 detection system ensures efficient photon collection and minimal background caused by scattered illumination light. The other advantage of this kind of detection system which includes 8f detection optics, is the capability to produce variable magnification using the same high NA objective. This thesis opens up in vivo imaging of sub-cellular structures and simultaneous cell counting in a miniaturized flow cytometry system. The developed imaging cytometry technique may find immediate applications in the diverse field of healthcare diagnostics, lab-on-chip technology, and fluorescence microscopy. The concluding chapter summarizes the results with a brief discussion on the future aspects of this field (e.g., live-cell imaging of infectious RBC in microfluidic device and 3D optical sectioning of flowing cells). The field of imaging flow cytometry has immense applications in the overlapping areas of physics and biology. The hydrodynamic forces which are used to achieve flow focusing of the sample assays can have an adverse effect in the cell morphology, thereby altering the cellular functions. Light sheet based cytometry system lifts off the requirement of flow focusing and ensures a single shot scanning of entire samples flowing through the microfluidic channel. The similar concept can be used to study the developmental biology of an entire organism, such as C. elegans. This enables the direct observation of developmental and physiological changes in the entire body. Such an organism can be kept alive for a longer duration in microfluidic chambers, and the neural development and mating behaviors can be extensively studied.
APA, Harvard, Vancouver, ISO, and other styles
42

Kostelníková, Zuzana. "Psychologické aspekty vyslýchání dětí v rámci trestního řízení." Master's thesis, 2015. http://www.nusl.cz/ntk/nusl-350808.

Full text
Abstract:
1 Abstract The present work deals with interviews with the child witnesses and its results in the form of testimony. Mapping the developmental specifics of children relevant in the course of interrogation. We also offer an overview of specific procedures which take account of claims arising from working with this group of witnesses. The main emphasis is put on the method of cognitive interview created by Geiselman and Fisher (1992) and its possible use in children. The practical part is flush pays overview suitability of specific methods - cognitive interview for the purpose of the interview with preschoolers. The second level maps the development specific manifestations of children during the interview follows. By analyzing 20 interviews to identify specifics manifest both in the cognitive area, as well as in social skills and capture their concrete form. The subsequent step were testimonies by children assessed in terms of the methods used. On a given sample but it turned out qualitative and quantitative differences in content of the statement in the respective phases. Using as ideal for obtaining accurate and detailed testimony shows Open-ended narration of phase combination and Phase probing memory codes. Keywords: child witness, interrogation techniques, interrogation of children, cognitive interview
APA, Harvard, Vancouver, ISO, and other styles
43

Rodriguez, Lopez Joaquin 1983. "The use of scanning electrochemical microscopy for the detection and quantification of adsorbed intermediates at electrodes." Thesis, 2010. http://hdl.handle.net/2152/ETD-UT-2010-08-1717.

Full text
Abstract:
Scanning electrochemical microscopy (SECM) was used for the study and characterization of catalytic and electrocatalytic processes occurring at electrodes. The Surface Interrogation mode (SI-SECM) was introduced for the detection and quantification of adsorbed intermediates and products of catalyzed chemical and electrochemical reactions at noble metals (Pt, Au). In SI-SECM two micro electrodes (i.e. an SECM tip and a substrate of the desired material) are aligned concentrically at a micrometric distance where SECM feedback effects operate. A contrast mechanism based on feedback effects allows for the detection of reactive adsorbed intermediates at the substrate: the SECM tip generates a reactive homogeneous species that “micro-titrates” the substrate adsorbates to yield an electrochemical signal that contains information about the amount of intermediate and about its kinetics of reaction with the redox mediator. The technique was used for the study of the reactivity of three model small adsorbates: 1) the reactivity of adsorbed oxygen on Au and Pt with a reducing mediator was explored and suggested the detection of “incipient oxides” at these surfaces; kinetic parameters of the reactivity of Pt oxides with mediators were obtained, fit to theory and used to explain observations about the electrocatalytic behavior of Pt under anodizing conditions; 2) the reactivity of oxidizing mediators with adsorbed hydrogen on Pt was studied and showed the cation of N,N,N,N-tetramethyl-p-phenylenediamine (TMPD) to be a successful interrogation agent, the detection of hydrogen generated by the decomposition of formic acid on Pt at open circuit was investigated; 3) electrogenerated bromine was used to catalytically interrogate carbon monoxide at Pt, this reaction was previously unreported. The mentioned applications of SECM were validated through the use of digital simulations of diffusion in the complex SECM geometry through flexible commercial finite element method software.
text
APA, Harvard, Vancouver, ISO, and other styles
44

Fankam, Chimène. "OntoDB2 : un système flexible et efficient de base de données à base ontologique pour le web sémantique et les données techniques." Phd thesis, 2009. http://tel.archives-ouvertes.fr/tel-00452533.

Full text
Abstract:
Le besoin d'expliciter la sémantique des données dans différents domaines scientifiques (biologie, médecine, géographie, ingénierie, etc.) s'est traduit par la définition de données faisant référence à des ontologies, encore appelées données à base ontologique. Avec la multiplication des ontologies de domaine, et le volume important de données à manipuler, est apparu le besoin de systèmes susceptibles de gérer des données à base ontologique de grande taille. De tels systèmes sont appelés des systèmes de gestion de Bases de Données à Base Ontologique (BDBO). Les principales limitations des systèmes de gestion de BDBO existants sont (1) leur rigidité, due à la prise en compte des constructions d'un unique formalisme d'expression d'ontologies, (2) l'absence de support pour les données non standard (spatiales, temporelles, etc.) et, (3) leur manque d'efficacité pour gérer efficacement les données de grande taille. Nous proposons dans cette thèse un nouveau système de gestion de BDBO permettant (1) de supporter des ontologies basées sur différents formalismes d'ontologies, (2) l'extension de son formalisme d'ontologie pour répondre aux besoins spécifiques des applications, et (3) une gestion originale des données facilitant le passage à grande échelle. Le système que nous proposons dans cette thèse, ontodb2, se fonde sur l'existence d'un ensemble de constructions communes aux différents formalismes d'expression d'ontologies, susceptible de constituer une ontologie noyau, et sur les techniques de gestion des modèles pour permettre l'extension flexible de ce noyau. Nous proposons également une approche originale de gestion des données à base ontologique. Cette approche part du fait que les données à base ontologique peuvent se classifier en données canoniques (instances de classes primitives) et noncanoniques (instances de classes définies). Les instances de classes définies peuvent, sous certaines hypothèses, s'exprimer en termes d'instances de classes primitives. Nous proposons donc de ne représenter que les données canoniques, en transformant sous certaines conditions, toute donnée non-canonique en donnée canonique. Enfin, nous proposons d'exploiter l'interpréteur de requêtes ontologiques pour permettre (1) l'accès aux données non-canoniques ainsi transformées et, (2) d'indexer et pré-calculer les raisonnements en se basant sur les mécanismes du SGBD support. L'ensemble de ces propositions est validé (1) à travers une implémentation sur le SGBD PostgreSQL basée sur les formalismes d'ontologies PLIB, RDFS et OWL Lite, (2) des tests de performances sur des ensembles de données issus de la géographie et du Web.
APA, Harvard, Vancouver, ISO, and other styles
45

Manyarara, Barbara Chiedza. "Lost his voice? interrogating the representations of sexualities in selected novels by Gabriel Garcia Marquez." Thesis, 2013. http://hdl.handle.net/10500/18672.

Full text
Abstract:
This thesis interrogates García Márquez’s representations of sexualities in the following selected novels: Chronicle of a Death Foretold (1981); The Autumn of the Patriarch (1975); One Hundred Years of Solitude (1967); The Sad and Incredible Tale of Innocent Erendira and her Heartless Grandmother (1972); and Memories of My Melancholy Whores (2004). It is argued here that García Márquez’s employment of the sexuality motif enables him to delve into many worldwide current concerns such as the irrelevance of some socio-cultural sexual practices; commercial sexual exploitation of children; the different manifestations of prostitution; and female powerlessness under autocratic rule. Earlier literary critics have tended to narrowly interpret García Márquez’s employment of the sexuality motif as just a metaphor for colonial exploitation of the colonised. The study also explores the writer’s artistic role and concludes that García Márquez speaks against commercial sexual exploitation of children as he concurrently speaks on behalf of children so exploited. Similarly, the writer speaks on behalf of prostituted womanhood by showing how prostitutional gains do not seem to cascade down to the prostitutes themselves. García Márquez also invests female sexual passivity as a coping mechanism against a dictator’s limitless power over the life and death of his citizens. However, the writer also constructs female agency that grows from the rejection of an initial victimhood to develop into an extremely flawed and corrupt flesh trade that co-opts and indentures children into sex work with impunity. Thus the study breaks new ground to show that García Márquez’s representations of different sexualities are not merely soft porn masquerading as art. His is a voice added to the worldwide concerns over commercial sexual exploitation of children in the main and also the recovery of a self-reliant female self-hood that was previously inextricably bound to male sexual norms. Quite clearly, García Márquez demonstrates that female prostitution is driven by a lack of social safety nets, a lack of other economically viable options and also a distinct lack of educational opportunities for female economic independence, hence the flawed female agency.
English Studies
D. Litt. et Phil. (English)
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography